Apache Kafka-Entwicklerleitfaden für Azure Event Hubs
Dieser Artikel enthält Links zu Artikeln, in denen beschrieben wird, wie Sie Ihre Apache Kafka-Anwendungen in Azure Event Hubs integrieren können.
Übersicht
Event Hubs stellt einen Kafka-Endpunkt bereit, der von Ihren vorhandenen Kafka-basierten Anwendungen als Alternative zum Betreiben eines eigenen Kafka-Clusters verwendet werden kann. Event Hubs funktioniert mit vielen Ihrer vorhandenen Kafka-Anwendungen. Weitere Informationen finden Sie unter Event Hubs für Apache Kafka.
Schnellstarts
Sie finden Schnellstarts in GitHub und in diesen Ressourcen, mit denen Sie sich schnell über Event Hubs für Kafka informieren können.
Schnellstarts in GitHub
Sehen Sie sich die folgenden Schnellstarts im Repository azure-event-hubs-for-kafka an:
Clientsprache/Framework | BESCHREIBUNG |
---|---|
.NET | In diesem Schnellstart erfahren Sie, wie Sie einen Event Hubs-Kafka-Endpunkt erstellen und eine Verbindung mit diesem herstellen, indem Sie einen Beispielproducer und -consumer verwenden, der in C# mit .NET Core 2.0 geschrieben wurde. Dieses Beispiel basiert auf dem Apache Kafka .NET-Client von Confluent, der für die Verwendung mit Event Hubs für Kafka geändert wurde. |
Java | In diesem Schnellstart erfahren Sie, wie Sie einen Event Hubs-Kafka-Endpunkt erstellen und eine Verbindung mit diesem herstellen, indem Sie einen Beispielproducer und -consumer verwenden, der in Java geschrieben wurde. |
Node.js | In diesem Schnellstart erfahren Sie, wie Sie einen Event Hubs-Kafka-Endpunkt erstellen und eine Verbindung mit diesem herstellen, indem Sie einen Beispielproducer und -consumer verwenden, der in Node geschrieben wurde. In diesem Beispiel wird die node-rdkafka-Bibliothek verwendet. |
Python | In diesem Schnellstart erfahren Sie, wie Sie einen Event Hubs-Kafka-Endpunkt erstellen und eine Verbindung mit diesem herstellen, indem Sie einen Beispielproducer und -consumer verwenden, der in Python geschrieben wurde. Dieses Beispiel basiert auf dem Apache Kafka Python-Client von Confluent, der für die Verwendung mit Event Hubs für Kafka geändert wurde. |
Go | In diesem Schnellstart erfahren Sie, wie Sie einen Event Hubs-Kafka-Endpunkt erstellen und eine Verbindung mit diesem herstellen, indem Sie einen Beispielproducer und -consumer verwenden, der in Go geschrieben wurde. Dieses Beispiel basiert auf dem Apache Kafka Golang-Client von Confluent, der für die Verwendung mit Event Hubs für Kafka geändert wurde. |
Sarama kafka Go | In diesem Schnellstart erfahren Sie, wie Sie einen Event Hubs-Kafka-Endpunkt erstellen und eine Verbindung mit diesem herstellen, indem Sie einen Beispielproducer und -consumer verwenden, der mithilfe der Sarama Kafka-Clientbibliothek in Go geschrieben wurde. |
Kafka | In diesem Schnellstart erfahren Sie, wie Sie einen Event Hubs-Kafka-Endpunkt mithilfe der CLI (die in der Apache Kafka-Distribution enthalten ist) erstellen und dann eine Verbindung mit diesem Endpunkt herstellen. |
kcat | kcat ist ein Nicht-JVM-Befehlszeilenconsumer und -producer, der auf librdkafka basiert und aufgrund seiner Geschwindigkeit und seines geringen Speicherbedarfs beliebt ist. Dieser Schnellstart enthält eine Beispielkonfiguration und mehrere einfache kafkacat-Beispielbefehle. |
Schnellstarts in der Dokumentation
Weitere Informationen finden Sie im folgenden Schnellstart: Datenstreaming mit Event Hubs mithilfe des Kafka-Protokolls in dieser Dokumentation. Er stellt schrittweise Anleitungen zum Streamen von Daten in Event Hubs bereit. Sie lernen, wie Sie über Ihre Producer und Consumer mit Event Hubs kommunizieren – mit nur einer Konfigurationsänderung in Ihren Anwendungen.
Tutorials
Tutorials in GitHub
Arbeiten Sie die folgenden Tutorials in GitHub durch:
Lernprogramm | BESCHREIBUNG |
---|---|
Akka | Dieses Tutorial veranschaulicht, wie Sie Akka Streams mit Kafka-fähigen Event Hubs verbinden können, ohne Ihre Protokollclients ändern oder Ihre eigenen Cluster ausführen zu müssen. Es gibt zwei separate Tutorials, in denen die Programmiersprachen Java und Scala verwendet werden. |
Herstellen einer Verbindung | In diesem Dokument wird die Vorgehensweise zum Integrieren von Kafka Connect in Azure Event Hubs und zum Bereitstellen von einfachen FileStreamSource- und FileStreamSink-Connectors beschrieben. Diese Connectors sind zwar nicht für die Verwendung in der Produktion bestimmt, aber sie stellen ein End-to-End-Szenario für Kafka Connect dar, bei dem Azure Event Hubs als Kafka-Broker fungiert. |
Filebeat | In diesem Dokument finden Sie eine ausführliche Anleitung für die Integration von Filebeat und Event Hubs über die Kafka-Ausgabe von Filebeat. |
Flink | Dieses Tutorial veranschaulicht, wie Sie Apache Flink mit Kafka-fähigen Event Hubs verbinden können, ohne Ihre Protokollclients ändern oder eigene Cluster ausführen zu müssen. |
FluentD | In diesem Dokument finden Sie eine ausführliche Anleitung für die Integration von Fluentd und Event Hubs mithilfe des out_kafka -Ausgabe-Plug-Ins für Fluentd. |
Interop | In diesem Tutorial wird gezeigt, wie Sie Ereignisse zwischen Consumern und Producer mithilfe verschiedener Protokolle austauschen können. |
Logstash | In diesem Tutorial finden Sie eine ausführliche Anleitung für die Integration von Logstash in Kafka-fähige Event Hubs mithilfe von Logstash Kafka-Eingabe-/Ausgabe-Plug-Ins. |
MirrorMaker | In diesem Tutorial erfahren Sie, wie Sie mit einem Event Hub und Kafka MirrorMaker eine vorhandene Kafka-Pipeline in Azure integrieren, indem Sie den Kafka-Eingabedatenstrom im Event Hubs-Dienst spiegeln. |
NiFi | In diesem Tutorial wird gezeigt, wie Sie Apache NiFi mit einem Event Hubs-Namespace verbinden. |
OAuth | In diesen Schnellstarts erfahren Sie, wie Sie einen Event Hubs Kafka-Endpunkt erstellen und eine Verbindung mit diesem herstellen, indem Sie einen Beispielproducer und -consumer verwenden, der in den Programmiersprachen Go und Java geschrieben wurde. |
Schemaregistrierung von Confluent | In diesem Tutorial finden Sie eine ausführliche Anleitung für die Integration der Schemaregistrierung und Event Hubs für Kafka. |
Spark | In diesem Tutorial wird veranschaulicht, wie Sie Ihre Spark-Anwendung mit einem Event Hub verbinden, ohne Ihre Protokollclients ändern oder eigene Kafka-Cluster ausführen zu müssen. |
Tutorials in der Dokumentation
Weitere Informationen finden Sie auch in diesem Tutorial: Verarbeiten von Apache Kafka für Event Hubs-Ereignisse mithilfe von Stream Analytics. Es zeigt, wie Daten in Event Hubs gestreamt und mit Azure Stream Analytics verarbeitet werden.
Anleitungen
Weitere Informationen finden Sie in den folgenden Schrittanleitungen in unserer Dokumentation:
Artikel | BESCHREIBUNG |
---|---|
Spiegeln eines Kafka-Brokers in einem Event Hub | Zeigt, wie Sie einen Kafka-Broker in einem Event Hub mit Kafka MirrorMaker spiegeln. |
Verbinden von Apache Spark mit einem Event Hub | Beschreibt ausführlich, wie Sie zum Zweck des Echtzeitstreamings eine Verbindung zwischen Ihrer Spark-Anwendung und einer Event Hubs-Instanz herstellen. |
Verbinden von Apache Flink mit einem Event Hub | Zeigt, wie Sie Apache Flink mit einem Event Hub verbinden können, ohne Ihre Protokollclients ändern oder Ihre eigenen Cluster ausführen zu müssen. |
Integrieren von Apache Kafka Connect in einen Event Hub (Vorschau) | Führt Sie schrittweise durch die Vorgehensweise zum Integrieren von Kafka Connect in einen Event Hub und zum Bereitstellen von einfachen FileStreamSource- und FileStreamSink-Connectors. |
Verbinden von Akka Streams mit einem Event Hub | Veranschaulicht, wie Sie Akka Streams mit einem Event Hub verbinden können, ohne Ihre Protokollclients ändern oder Ihre eigenen Cluster ausführen zu müssen. |
Verwenden von Spring Boot Starter für Apache Kafka mit Azure Event Hubs | Beschreibt, wie Sie eine mit Spring Boot Initializer erstellte Java-basierte Spring Cloud Stream Binder-Anwendung zur Verwendung von Apache Kafka mit Azure Event Hubs konfigurieren. |
Nächste Schritte
Sehen Sie sich die Beispiele im GitHub-Repository azure-event-hubs-for-kafka unter den Schnellstart- und Tutorialordnern an.
Lesen Sie auch die folgenden Artikel: