Tutorial: Usar as APIs de produtor e consumidor do Apache Kafka
Saiba como utilizar as APIs de produtor e consumidor do Apache Kafka com o Kafka no HDInsight.
A API de produtor do Kafka permite que os aplicativos enviam fluxos de dados para o cluster Kafka. A API de consumidor do Kafka permite que os aplicativos leiam fluxos de dados do cluster.
Neste tutorial, você aprenderá como:
- Pré-requisitos
- Compreender o código
- Compilar e implantar o aplicativo
- Executar o aplicativo no cluster
Para obter mais informações sobre as APIs, consulte a documentação do Apache sobre API de Produtor e API de Consumidor.
Pré-requisitos
- Apache Kafka no cluster do HDInsight. Para saber como criar o cluster, confira Primeiros passos com o Apache Kafka no HDInsight.
- JDK (Java Developer Kit) versão 8 ou um equivalente, como o OpenJDK.
- Apache Maven corretamente instalado de acordo com o Apache. O Maven é um sistema de construção de projetos para projetos Java.
- Um cliente SSH como Putty. Para saber mais, confira Conectar-se ao HDInsight (Apache Hadoop) usando SSH.
Compreender o código
O aplicativo de exemplo está localizado em https://github.com/Azure-Samples/hdinsight-kafka-java-get-started, além do subdiretório Producer-Consumer
. Se você estiver usando um cluster Kafka habilitado para ESP (Enterprise Security Package) , deverá usar a versão do aplicativo localizada no subdiretório DomainJoined-Producer-Consumer
.
O aplicativo consiste principalmente em quatro arquivos:
-
pom.xml
: este arquivo define as dependências do projeto, versão do Java e os métodos de empacotamento. -
Producer.java
: este arquivo envia sentenças aleatórias para o Kafka usando a API de produtor. -
Consumer.java
: este arquivo usa a API de consumidor para ler dados do Kafka e emiti-los para STDOUT. -
AdminClientWrapper.java
: Esse arquivo usa a API de administração para criar, descrever e excluir tópicos do Kafka. -
Run.java
: a interface de linha de comando usada para executar o código de produtor e consumidor.
Pom.xml
As coisas importantes para entender no arquivo pom.xml
são:
Dependências: este projeto depende das APIs de produtor e consumidor do Kafka, fornecidas pelo pacote
kafka-clients
. O seguinte código XML define essa dependência:<!-- Kafka client for producer/consumer operations --> <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> <version>${kafka.version}</version> </dependency>
A entrada
${kafka.version}
é declarada na seção<properties>..</properties>
depom.xml
, e está configurada para a versão Kafka do cluster HDInsight.Plug-ins: os plug-ins do Maven oferecem várias funcionalidades. Neste projeto, são usados os seguintes plug-ins:
-
maven-compiler-plugin
: usado para definir a versão do Java usada pelo projeto como 8. Essa é a versão do Java usado pelo HDInsight 3.6. -
maven-shade-plugin
: usado para gerar um uber jar que contém esse aplicativo, bem como todas as dependências. Ele também é usado para definir o ponto de entrada do aplicativo, para que você possa executar diretamente o arquivo Jar sem a necessidade de especificar a classe principal.
-
Producer.java
O produtor se comunica com os hosts de agente de Kafka (nós de trabalho) e envia dados a um tópico Kafka. O seguinte snippet de código é do arquivo Producer.java do repositório GitHub e mostra como definir as propriedades de produtor. Para clusters habilitados para o Enterprise Security, mais uma propriedade deve ser adicionada "properties.setProperty(CommonClientConfigs.SECURITY_PROTOCOL_CONFIG, "SASL_PLAINTEXT");"
Properties properties = new Properties();
// Set the brokers (bootstrap servers)
properties.setProperty("bootstrap.servers", brokers);
// Set how to serialize key/value pairs
properties.setProperty("key.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.setProperty("value.serializer","org.apache.kafka.common.serialization.StringSerializer");
KafkaProducer<String, String> producer = new KafkaProducer<>(properties);
Consumer.java
O cliente se comunica com os hosts de broker Kafka (nós de trabalho) e lê registros em um loop. O seguinte snippet de código do arquivo Consumer.java define as propriedades do consumidor. Para clusters habilitados para o Enterprise Security, mais uma propriedade deve ser adicionada "properties.setProperty(CommonClientConfigs.SECURITY_PROTOCOL_CONFIG, "SASL_PLAINTEXT");"
KafkaConsumer<String, String> consumer;
// Configure the consumer
Properties properties = new Properties();
// Point it to the brokers
properties.setProperty("bootstrap.servers", brokers);
// Set the consumer group (all consumers must belong to a group).
properties.setProperty("group.id", groupId);
// Set how to serialize key/value pairs
properties.setProperty("key.deserializer","org.apache.kafka.common.serialization.StringDeserializer");
properties.setProperty("value.deserializer","org.apache.kafka.common.serialization.StringDeserializer");
// When a group is first created, it has no offset stored to start reading from. This tells it to start
// with the earliest record in the stream.
properties.setProperty("auto.offset.reset","earliest");
consumer = new KafkaConsumer<>(properties);
Nesse código, o consumidor é configurado para ler a partir do início do tópico (auto.offset.reset
é definido como earliest
.)
Run.java
O arquivo Run.java fornece uma interface de linha de comando que executa o código de produtor ou consumidor. Você deve fornecer as informações do host de broker Kafka como um parâmetro. Opcionalmente, é possível incluir um valor de ID de grupo, que é usado pelo processo de consumidor. Se você criar várias instâncias de consumidor usando a mesma ID de grupo, elas balancearão a carga de leitura do tópico.
Compilar e implantar o exemplo
Usar arquivos JAR pré-criados
Baixe os jars do Exemplo de introdução do Kafka para o Azure. Se o cluster for habilitado para ESP (Enterprise Security Package) , use kafka-producer-consumer-esp.jar. Use o comando abaixo para copiar os jars para seu cluster.
scp kafka-producer-consumer*.jar sshuser@CLUSTERNAME-ssh.azurehdinsight.net:kafka-producer-consumer.jar
Compilar os arquivos JAR do código
Se você quiser ignorar esta etapa, será possível baixar os jars pré-criados do subdiretório Prebuilt-Jars
. Baixe kafka-producer-consumer.jar. Se o cluster for habilitado para ESP (Enterprise Security Package) , use kafka-producer-consumer-esp.jar. Execute a etapa 3 para copiar o jar em seu cluster HDInsight.
Baixar e extrair os exemplos de https://github.com/Azure-Samples/hdinsight-kafka-java-get-started.
Defina seu diretório atual como a loca.lização do diretório
hdinsight-kafka-java-get-started\Producer-Consumer
. Se você estiver usando um cluster Kafka habilitado para ESP (Enterprise Security Package) , deverá definir a localização como o subdiretórioDomainJoined-Producer-Consumer
. Use o comando a seguir para compilar o aplicativo:mvn clean package
Esse comando cria um diretório chamado
target
, que contém um arquivo chamadokafka-producer-consumer-1.0-SNAPSHOT.jar
. Para clusters ESP, o arquivo serákafka-producer-consumer-esp-1.0-SNAPSHOT.jar
Substitua
sshuser
pelo usuário do SSH do cluster e substituaCLUSTERNAME
pelo nome do cluster. Insira o seguinte comando para copiar o arquivokafka-producer-consumer-1.0-SNAPSHOT.jar
para o cluster HDInsight. Quando solicitado, insira a senha do usuário do SSH.scp ./target/kafka-producer-consumer*.jar sshuser@CLUSTERNAME-ssh.azurehdinsight.net:kafka-producer-consumer.jar
Executar o exemplo
Substitua
sshuser
pelo usuário do SSH do cluster e substituaCLUSTERNAME
pelo nome do cluster. Abra uma conexão SSH para o cluster inserindo o seguinte comando. Se solicitado, insira a senha para a conta de usuário SSH.ssh sshuser@CLUSTERNAME-ssh.azurehdinsight.net
Para obter os hosts do agente do Kafka, substitua os valores de
<clustername>
e<password>
no comando a seguir e execute-o. Use a mesma capitalização para<clustername>
, conforme mostrado na portal do Azure. Substitua<password>
pela senha de logon do cluster e execute:sudo apt -y install jq export CLUSTER_NAME='<clustername>' export PASSWORD='<password>' export KAFKABROKERS=$(curl -sS -u admin:$PASSWORD -G https://$CLUSTER_NAME.azurehdinsight.net/api/v1/clusters/$CLUSTER_NAME/services/KAFKA/components/KAFKA_BROKER | jq -r '["\(.host_components[].HostRoles.host_name):9092"] | join(",")' | cut -d',' -f1,2);
Observação
Este comando requer acesso do Ambari. Se o cluster estiver atrás de um NSG, execute esse comando em um computador que possa acessar o Ambari.
Crie o tópico Kafka,
myTest
, inserindo o comando a seguir:java -jar kafka-producer-consumer.jar create myTest $KAFKABROKERS
Para executar o produtor e fazer gravação de dados para o tópico, utilize o seguinte comando:
java -jar kafka-producer-consumer.jar producer myTest $KAFKABROKERS
Quando produtor concluir, use o seguinte comando para a leitura do tópico:
java -jar kafka-producer-consumer.jar consumer myTest $KAFKABROKERS scp ./target/kafka-producer-consumer*.jar sshuser@CLUSTERNAME-ssh.azurehdinsight.net:kafka-producer-consumer.jar
São exibidos os registros lidos, juntamente com uma contagem de registros.
Use Ctrl + C para sair do consumidor.
Vários consumidores
Os consumidores do Kafka usam um grupo de consumidores ao ler os registros. Usar o mesmo grupo com vários consumidores resulta em leituras de balanceamento de carga de um tópico. Cada consumidor no grupo recebe uma parte dos registros.
O aplicativo do consumidor aceita um parâmetro que é utilizado como a ID do grupo. Por exemplo, o seguinte comando inicia um consumidor usando uma ID do grupo myGroup
:
java -jar kafka-producer-consumer.jar consumer myTest $KAFKABROKERS myGroup
Use Ctrl + C para sair do consumidor.
Para ver esse processo em ação, use o seguinte comando:
tmux new-session 'java -jar kafka-producer-consumer.jar consumer myTest $KAFKABROKERS myGroup' \
\; split-window -h 'java -jar kafka-producer-consumer.jar consumer myTest $KAFKABROKERS myGroup' \
\; attach
Esse comando usa tmux
para dividir o terminal em duas colunas. Um consumidor é iniciado em cada coluna, com o mesmo valor de ID de grupo. Depois que os consumidores terminarem a leitura, observe que cada um leu apenas uma parte dos registros. Use Ctrl + C duas vezes para sair do tmux
.
O consumo por clientes no mesmo grupo é manipulado por meio das partições do tópico. Neste exemplo de código, o tópico test
criado anteriormente tem oito partições. Se você iniciar os oito consumidores, cada consumidor lê os registros de uma única partição para o tópico.
Importante
Não pode haver mais instâncias de consumidores do que partições em um grupo de consumidores. Neste exemplo, um grupo de consumidores pode conter até oito consumidores, já que esse é o número de partições no tópico. Ou você pode ter vários grupos de consumidores, cada um com no máximo oito consumidores.
Os registros armazenados no Kafka são armazenados na ordem em que são recebidos em uma partição. Para garantir a entrega ordenada em registros em uma partição, crie um grupo de consumidores em que o número de instâncias de consumidor corresponda ao número de partições. Para garantir a entrega ordenada em registros no tópico, crie um grupo de consumidores com apenas uma instância de consumidor.
Problemas comuns
Falha na criação do tópico Se o cluster estiver com o Pacote de Segurança Enterprise habilitado, use os arquivos JAR pré-criados para produtor e consumidor. O jar do ESP pode ser criado com base no código no subdiretório
DomainJoined-Producer-Consumer
. As propriedades do produtor e do consumidor têm uma propriedadeCommonClientConfigs.SECURITY_PROTOCOL_CONFIG
adicional para os clusters habilitados para ESP.Falha em clusters habilitados para ESP: se as operações de produção e consumo falharem e você estiver usando um cluster habilitado para ESP, verifique se o usuário
kafka
está presente em todas as políticas do Ranger. Se não estiver presente, adicione-o a todas as políticas do Ranger.
Limpar os recursos
Para limpar os recursos criados por este tutorial, você pode excluir o grupo de recursos. A exclusão do grupo de recursos também exclui o cluster HDInsight associado e todos os outros recursos associados ao grupo de recursos.
Para remover o grupo de recursos usando o portal do Azure:
- No portal do Azure, expanda o menu à esquerda para abrir o menu de serviços e escolha Grupo de Recursos para exibir a lista dos seus grupos de recursos.
- Localize o grupo de recursos a ser excluído e clique com o botão direito do mouse no botão Mais (...) do lado direito da lista.
- Selecione Excluir grupo de recursos e confirme.
Próximas etapas
Neste documento, você aprendeu a usar a API de produtor e consumidor do Apache Kafka com o Kafka no HDInsight. Confira o seguinte para obter mais informações sobre como trabalhar com o Kafka: