Omówienie integracji
Istnieje wiele łączników danych, narzędzi i integracji, które bezproblemowo współpracują z platformą do pozyskiwania, orkiestracji, danych wyjściowych i zapytań dotyczących danych. Ten dokument zawiera ogólne omówienie dostępnych łączników, narzędzi i integracji. Szczegółowe informacje są udostępniane dla każdego łącznika wraz z linkami do pełnej dokumentacji.
Aby uzyskać przegląd stron w określonym typie integracji, wybierz jeden z następujących przycisków.
Tabele porównania
W poniższych tabelach podsumowano możliwości każdego elementu. Wybierz kartę odpowiadającą łącznikom lub narzędziom i integracji. Każda nazwa elementu jest połączona ze szczegółowym opisem.
Poniższa tabela zawiera podsumowanie dostępnych łączników i ich możliwości:
Nazwisko | Pozyskiwanie | Export | Organizowanie | Query |
---|---|---|---|---|
Apache Kafka | ✔️ | |||
Apache Flink | ✔️ | |||
Apache Log4J 2 | ✔️ | |||
Apache Spark | ✔️ | ✔️ | ✔️ | |
Platforma Apache Spark dla usługi Azure Synapse Analytics | ✔️ | ✔️ | ✔️ | |
Azure Cosmos DB | ✔️ | |||
Azure Data Factory | ✔️ | ✔️ | ||
Azure Event Grid | ✔️ | |||
Azure Event Hubs | ✔️ | |||
Azure Functions | ✔️ | ✔️ | ||
Azure IoT Hubs | ✔️ | |||
Azure Stream Analytics | ✔️ | |||
Strumień cribl | ✔️ | |||
Bit płynny | ✔️ | |||
JDBC | ✔️ | |||
Logic Apps | ✔️ | ✔️ | ✔️ | |
Usługa Logstash | ✔️ | |||
Matlab | ✔️ | |||
NLog | ✔️ | |||
ODBC | ✔️ | |||
Otwieranie telemetrii | ✔️ | |||
Power Apps | ✔️ | ✔️ | ||
Power Automate | ✔️ | ✔️ | ✔️ | |
Serilog | ✔️ | |||
Splunk | ✔️ | |||
Spunk Universal Forwarder | ✔️ | |||
Telegraf | ✔️ |
Szczegółowe opisy
Poniżej przedstawiono szczegółowe opisy łączników i narzędzi i integracji. Wybierz kartę odpowiadającą łącznikom lub narzędziom i integracji. Wszystkie dostępne elementy są podsumowane w powyższych tabelach porównania.
Apache Kafka
Apache Kafka to rozproszona platforma przesyłania strumieniowego do tworzenia potoków danych przesyłanych strumieniowo w czasie rzeczywistym, które niezawodnie przenoszą dane między systemami lub aplikacjami. Kafka Connect to narzędzie do skalowalnego i niezawodnego przesyłania strumieniowego danych między platformą Apache Kafka i innymi systemami danych. Ujście platformy Kafka służy jako łącznik z platformy Kafka i nie wymaga użycia kodu. Jest to złoty certyfikat firmy Confluent — przeszedł kompleksowy przegląd i testowanie pod kątem jakości, kompletności funkcji, zgodności ze standardami i wydajności.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: dzienniki, telemetria, szeregi czasowe
- Podstawowy zestaw SDK: Java
- Repozytorium: Microsoft Azure — https://github.com/Azure/kafka-sink-azure-kusto/
- Dokumentacja: pozyskiwanie danych z platformy Apache Kafka
- Blog społeczności: pozyskiwanie platformy Kafka w usłudze Azure Data Explorer
Apache Flink
Apache Flink to platforma i aparat przetwarzania rozproszonego na potrzeby obliczeń stanowych za pośrednictwem niezwiązanych i ograniczonych strumieni danych. Łącznik implementuje ujście danych do przenoszenia danych między klastrami usługi Azure Data Explorer i Flink. Korzystając z usług Azure Data Explorer i Apache Flink, można tworzyć szybkie i skalowalne aplikacje przeznaczone dla scenariuszy opartych na danych. Na przykład uczenie maszynowe (ML), wyodrębnianie i przekształcanie obciążenia (ETL) i usługa Log Analytics.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: Przesyłanie strumieniowe
- Przypadki użycia: Telemetria
- Podstawowy zestaw SDK: Java
- Repozytorium: Microsoft Azure — https://github.com/Azure/flink-connector-kusto/
- Dokumentacja: pozyskiwanie danych z narzędzia Apache Flink
Apache Log4J 2
Log4J to popularna platforma rejestrowania dla aplikacji Java obsługiwanych przez platformę Apache Foundation. Usługa Log4j umożliwia deweloperom kontrolowanie, które instrukcje dziennika są danymi wyjściowymi z dowolnym poziomem szczegółowości na podstawie nazwy rejestratora, poziomu rejestratora i wzorca komunikatów. Ujście usługi Apache Log4J 2 umożliwia przesyłanie strumieniowe danych dziennika do bazy danych, gdzie można analizować i wizualizować dzienniki w czasie rzeczywistym.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: dzienniki
- Podstawowy zestaw SDK: Java
- Repozytorium: Microsoft Azure — https://github.com/Azure/azure-kusto-log4j
- Dokumentacja: pozyskiwanie danych za pomocą łącznika Apache Log4J 2
- Blog społeczności: wprowadzenie do platform Apache Log4J i Azure Data Explorer
Apache Spark
Apache Spark to ujednolicony aparat analityczny do przetwarzania danych na dużą skalę. Łącznik Spark to projekt typu open source, który można uruchomić w dowolnym klastrze Spark. Implementuje źródło danych i ujście danych do przenoszenia danych do lub z klastrów Spark. Za pomocą łącznika platformy Apache Spark można tworzyć szybkie i skalowalne aplikacje przeznaczone dla scenariuszy opartych na danych. Na przykład uczenie maszynowe (ML), wyodrębnianie i przekształcanie obciążenia (ETL) i usługa Log Analytics. Dzięki łącznikowi baza danych staje się prawidłowym magazynem danych dla standardowych operacji źródła i ujścia platformy Spark, takich jak odczyt, zapis i zapisStream.
- Funkcjonalność: pozyskiwanie, eksportowanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: Telemetria
- Podstawowy zestaw SDK: Java
- Repozytorium: Microsoft Azure — https://github.com/Azure/azure-kusto-spark/
- Dokumentacja: Łącznik platformy Apache Spark
- Blog społeczności: wstępne przetwarzanie danych dla usługi Azure Data Explorer dla usługi Azure Data Explorer za pomocą platformy Apache Spark
Platforma Apache Spark dla usługi Azure Synapse Analytics
Apache Spark to platforma przetwarzania równoległego, która obsługuje przetwarzanie w pamięci w celu zwiększenia wydajności aplikacji analitycznych big data. Platforma Apache Spark w usłudze Azure Synapse Analytics jest jedną z implementacji platformy Apache Spark firmy Microsoft w chmurze. Dostęp do bazy danych można uzyskać z poziomu programu Synapse Studio za pomocą platformy Apache Spark dla usługi Azure Synapse Analytics.
- Funkcjonalność: pozyskiwanie, eksportowanie
- Obsługiwany typ pozyskiwania: Przetwarzanie wsadowe
- Przypadki użycia: Telemetria
- Podstawowy zestaw SDK: Java
- Dokumentacja: nawiązywanie połączenia z obszarem roboczym usługi Azure Synapse
Azure Cosmos DB
Połączenie danych zestawienia zmian usługi Azure Cosmos DB to potok pozyskiwania, który nasłuchuje źródła zmian usługi Cosmos DB i pozyskiwania danych do bazy danych.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: zestawienie zmian
- Dokumentacja: pozyskiwanie danych z usługi Azure Cosmos DB (wersja zapoznawcza)
Azure Data Factory
Azure Data Factory (ADF) to oparta na chmurze usługa integracji danych, która umożliwia integrację różnych magazynów danych i wykonywanie działań na danych.
- Funkcjonalność: pozyskiwanie, eksportowanie
- Obsługiwany typ pozyskiwania: Przetwarzanie wsadowe
- Przypadki użycia: aranżacja danych
- Dokumentacja: kopiowanie danych do bazy danych przy użyciu usługi Azure Data Factory
Azure Event Grid
Pozyskiwanie usługi Event Grid to potok, który nasłuchuje usługi Azure Storage i aktualizuje bazę danych w celu ściągnięcia informacji po wystąpieniu subskrybowanych zdarzeń. Możesz skonfigurować ciągłe pozyskiwanie z usługi Azure Storage (Blob Storage i ADLSv2) przy użyciu subskrypcji usługi Azure Event Grid dla utworzonych lub zmienionych nazw obiektów blob oraz przesyłania strumieniowego powiadomień za pośrednictwem usługi Azure Event Hubs.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: przetwarzanie zdarzeń
- Dokumentacja: połączenie danych usługi Event Grid
Azure Event Hubs
Azure Event Hubs to platforma przesyłania strumieniowego danych big data i usługa pozyskiwania zdarzeń. Możesz skonfigurować ciągłe pozyskiwanie z usługi Event Hubs zarządzanej przez klienta.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Dokumentacja: Połączenie danych usługi Azure Event Hubs
Azure Functions
Usługa Azure Functions umożliwia uruchamianie kodu bezserwerowego w chmurze zgodnie z harmonogramem lub w odpowiedzi na zdarzenie. Dzięki powiązaniom wejściowym i wyjściowym dla usługi Azure Functions możesz zintegrować bazę danych z przepływami pracy w celu pozyskiwania danych i uruchamiania zapytań względem bazy danych.
- Funkcjonalność: pozyskiwanie, eksportowanie
- Obsługiwany typ pozyskiwania: Przetwarzanie wsadowe
- Przypadki użycia: integracje przepływów pracy
- Dokumentacja: integrowanie usługi Azure Functions przy użyciu powiązań wejściowych i wyjściowych (wersja zapoznawcza)
- Blog społeczności: powiązania usługi Azure Data Explorer (Kusto) dla usługi Azure Functions
Azure IoT Hubs
Azure IoT Hub to zarządzana usługa hostowana w chmurze, która działa jako centralne centrum komunikatów na potrzeby dwukierunkowej komunikacji między aplikacją IoT a zarządzanymi urządzeniami. Możesz skonfigurować ciągłe pozyskiwanie z zarządzanych przez klienta usług IoT Hubs przy użyciu jego zgodnego z usługą Event Hubs wbudowanego punktu końcowego komunikatów z urządzenia do chmury.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: dane IoT
- Dokumentacja: Połączenie danych usługi IoT Hub
Azure Stream Analytics
Usługa Azure Stream Analytics to analiza w czasie rzeczywistym i złożony aparat przetwarzania zdarzeń zaprojektowany do przetwarzania dużych ilości szybkich danych przesyłanych strumieniowo z wielu źródeł jednocześnie.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: przetwarzanie zdarzeń
- Dokumentacja: pozyskiwanie danych z usługi Azure Stream Analytics
Strumień cribl
Cribl stream to aparat przetwarzania, który bezpiecznie zbiera, przetwarza i przesyła strumieniowo dane zdarzeń maszyny z dowolnego źródła. Umożliwia analizowanie i przetwarzanie tych danych dla dowolnego miejsca docelowego na potrzeby analizy.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: przetwarzanie danych maszyny, w tym dzienniki, metryki, dane instrumentacji
- Dokumentacja: pozyskiwanie danych z usługi Cribl Stream do usługi Azure Data Explorer
Bit płynny
Fluent Bit to agent open source, który zbiera dzienniki, metryki i ślady z różnych źródeł. Umożliwia filtrowanie, modyfikowanie i agregowanie danych zdarzeń przed wysłaniem ich do magazynu.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: Przetwarzanie wsadowe
- Przypadki użycia: dzienniki, metryki, ślady
- Repozytorium: płynna wtyczka danych wyjściowych Kusto
- Dokumentacja: pozyskiwanie danych za pomocą rozwiązania Fluent Bit w usłudze Azure Data Explorer
- Blog społeczności: wprowadzenie do usługi Fluent bit i Usługi Azure Data Explorer
JDBC
Java Database Connectivity (JDBC) to interfejs API języka Java służący do nawiązywania połączeń z bazami danych i wykonywania zapytań. Rozwiązania JDBC można użyć w celu nawiązania połączenia z usługą Azure Data Explorer.
- Funkcjonalność: zapytanie, wizualizacja
- Podstawowy zestaw SDK: Java
- Dokumentacja: nawiązywanie połączenia z usługą Azure Data Explorer za pomocą narzędzia JDBC
Logic Apps
Łącznik usługi Microsoft Logic Apps umożliwia automatyczne uruchamianie zapytań i poleceń w ramach zaplanowanego lub wyzwalanego zadania.
- Funkcjonalność: pozyskiwanie, eksportowanie
- Obsługiwany typ pozyskiwania: Przetwarzanie wsadowe
- Przypadki użycia: aranżacja danych
- Dokumentacja: Microsoft Logic Apps i Azure Data Explorer
Logstash
Wtyczka Logstash umożliwia przetwarzanie zdarzeń z usługi Logstash do bazy danych usługi Azure Data Explorer na potrzeby późniejszej analizy.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: Przetwarzanie wsadowe
- Przypadki użycia: dzienniki
- Podstawowy zestaw SDK: Java
- Repozytorium: Microsoft Azure — https://github.com/Azure/logstash-output-kusto/
- Dokumentacja: pozyskiwanie danych z usługi Logstash
- Blog społeczności: Jak przeprowadzić migrację z usługi Elasticsearch do usługi Azure Data Explorer
Matlab
MATLAB to platforma programistyczna i numeryczna służąca do analizowania danych, opracowywania algorytmów i tworzenia modeli. Token autoryzacji można uzyskać w narzędziu MATLAB na potrzeby wykonywania zapytań dotyczących danych w usłudze Azure Data Explorer.
- Funkcjonalność: zapytanie
- Dokumentacja: wykonywanie zapytań dotyczących danych przy użyciu narzędzia MATLAB
NLog
NLog to elastyczna i bezpłatna platforma rejestrowania dla różnych platform .NET, w tym .NET Standard. Serwer NLog umożliwia zapisywanie w kilku miejscach docelowych, takich jak baza danych, plik lub konsola. Za pomocą NLog można zmienić konfigurację rejestrowania na bieżąco. Ujście NLog to element docelowy NLog, który umożliwia wysyłanie komunikatów dziennika do bazy danych. Wtyczka zapewnia wydajny sposób ujścia dzienników do klastra.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: telemetria, dzienniki, metryki
- Podstawowy zestaw SDK: .NET
- Repozytorium: Microsoft Azure — https://github.com/Azure/azure-kusto-nlog-sink
- Dokumentacja: pozyskiwanie danych za pomocą ujścia NLog
- Blog społeczności: wprowadzenie do ujścia NLog i usługi Azure Data Explorer
ODBC
Open Database Connectivity (ODBC) to powszechnie akceptowany interfejs programowania aplikacji (API) na potrzeby dostępu do bazy danych. Usługa Azure Data Explorer jest zgodna z podzbiorem protokołu komunikacyjnego programu SQL Server (MS-TDS). Ta zgodność umożliwia korzystanie ze sterownika ODBC dla programu SQL Server z usługą Azure Data Explorer.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: telemetria, dzienniki, metryki
- Dokumentacja: nawiązywanie połączenia z usługą Azure Data Explorer za pomocą odBC
Otwieranie telemetrii
Łącznik OpenTelemetry obsługuje pozyskiwanie danych z wielu odbiorników do bazy danych. Działa ona jako most do pozyskiwania danych generowanych przez funkcję Otwórz dane telemetryczne w bazie danych przez dostosowanie formatu wyeksportowanych danych zgodnie z potrzebami.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: ślady, metryki, dzienniki
- Podstawowy zestaw SDK: Go
- Repozytorium: Otwieranie telemetrii — https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Dokumentacja: pozyskiwanie danych z usługi OpenTelemetry
- Blog społeczności: wprowadzenie do otwierania telemetrii i usługi Azure Data Explorer
Power Apps
Power Apps to pakiet aplikacji, usług, łączników i platformy danych, który zapewnia szybkie środowisko programistyczne aplikacji do tworzenia niestandardowych aplikacji łączących się z danymi biznesowymi. Łącznik usługi Power Apps jest przydatny, jeśli masz dużą i rosnącą kolekcję danych przesyłanych strumieniowo w usłudze Azure Data Explorer i chcesz utworzyć małą, wysoce funkcjonalną aplikację do korzystania z tych danych.
- Funkcjonalność: zapytanie, pozyskiwanie, eksportowanie
- Obsługiwany typ pozyskiwania: Przetwarzanie wsadowe
- Dokumentacja: wykonywanie zapytań o dane w usłudze Azure Data Explorer przy użyciu usługi Power Apps
Power Automate
Power Automate to usługa orkiestracji używana do automatyzowania procesów biznesowych. Łącznik Power Automate (wcześniej Microsoft Flow) umożliwia organizowanie i planowanie przepływów, wysyłanie powiadomień i alertów w ramach zaplanowanego lub wyzwalanego zadania.
- Funkcjonalność: pozyskiwanie, eksportowanie
- Obsługiwany typ pozyskiwania: Przetwarzanie wsadowe
- Przypadki użycia: aranżacja danych
- Dokumentacja: Łącznik usługi Microsoft Power Automate
Serilog
Serilog to popularna platforma rejestrowania dla aplikacji .NET. Oprogramowanie Serilog umożliwia deweloperom kontrolowanie, które instrukcje dziennika są danymi wyjściowymi. Poziom szczegółowości może być ustalany dowolnie na podstawie nazwy rejestratora, poziomu rejestratora i wzorca komunikatów. Ujście serilog, znane również jako dodatek, przesyła strumieniowo dane dziennika do bazy danych, gdzie można analizować i wizualizować dzienniki w czasie rzeczywistym.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: dzienniki
- Podstawowy zestaw SDK: .NET
- Repozytorium: Microsoft Azure — https://github.com/Azure/serilog-sinks-azuredataexplorer
- Dokumentacja: pozyskiwanie danych za pomocą ujścia serilogu
- Blog społeczności: wprowadzenie do ujścia serilogu i usługi Azure Data Explorer
Splunk
Splunk Enterprise to platforma oprogramowania, która umożliwia pozyskiwanie danych z wielu źródeł jednocześnie. Dodatek Azure Data Explorer wysyła dane z rozwiązania Splunk do tabeli w klastrze.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: Przetwarzanie wsadowe
- Przypadki użycia: dzienniki
- Podstawowy zestaw SDK: Python
- Repozytorium: Microsoft Azure — https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Dokumentacja: pozyskiwanie danych z splunku
- Baza splunk: dodatek Microsoft Azure Data Explorer dla rozwiązania Splunk
- Blog społeczności: wprowadzenie do dodatku Microsoft Azure Data Explorer dla rozwiązania Splunk
Spunk Universal Forwarder
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: Przetwarzanie wsadowe
- Przypadki użycia: dzienniki
- Repozytorium: Microsoft Azure — https://github.com/Azure/azure-kusto-splunk
- Dokumentacja: pozyskiwanie danych z usługi Spunk Universal Forwarder do usługi Azure Data Explorer
- Blog społeczności: pozyskiwanie danych przy użyciu uniwersalnego usługi przesyłania dalej Splunk w usłudze Azure Data Explorer
Telegraf
Telegraf to lekki, lekki, minimalny agent drukowania stóp pamięci do zbierania, przetwarzania i zapisywania danych telemetrycznych, w tym dzienników, metryk i danych IoT. Program Telegraf obsługuje setki wtyczek wejściowych i wyjściowych. Jest ona powszechnie używana i dobrze obsługiwana przez społeczność open source. Wtyczka wyjściowa służy jako łącznik z programu Telegraf i obsługuje pozyskiwanie danych z wielu typów wtyczek wejściowych do bazy danych.
- Funkcjonalność: pozyskiwanie
- Obsługiwany typ pozyskiwania: przetwarzanie wsadowe, przesyłanie strumieniowe
- Przypadki użycia: telemetria, dzienniki, metryki
- Podstawowy zestaw SDK: Go
- Repozytorium: InfluxData — https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Dokumentacja: pozyskiwanie danych z programu Telegraf
- Blog społeczności: Nowa wtyczka danych wyjściowych usługi Azure Data Explorer dla programu Telegraf umożliwia monitorowanie SQL na ogromną skalę