Översikt över dataanslutningsprogram
Datainmatning är den process som används för att läsa in data från en eller flera källor till en KQL-databas för realtidsinformation i Microsoft Fabric. När data har matats in blir de tillgängliga för frågor. Realtidsinformation tillhandahåller flera anslutningsappar för datainmatning.
I följande tabell sammanfattas tillgängliga dataanslutningar, verktyg och integreringar.
Name | Funktioner | Har du stöd för strömning? | Typ | Användningsfall |
---|---|---|---|---|
Apache Flink | Intag | ✔️ | Öppen källkod | Telemetri |
Apache Kafka | Intag | ✔️ | Öppen källkod | Loggar, telemetri, tidsserier |
Apache Log4J 2 | Intag | ✔️ | Öppen källkod | Loggar |
Apache Spark | Exporteraera Intag |
Öppen källkod | Telemetri | |
Apache Spark för Azure Synapse Analytics | Exporteraera Intag |
Första part | Telemetri | |
Azure Data Factory | Exporteraera Intag |
Första part | Dataorkestrering | |
Azure Event Hubs | Intag | ✔️ | Första part | Meddelandetjänster |
Azure Functions | Exporteraera Intag |
Första part | Arbetsflödesintegreringar | |
Azure Stream Analytics | Intag | ✔️ | Första part | Händelsebearbetning |
Cribl Stream | Intag | ✔️ | Första part | Telemetri, loggar, mått, datordata |
Fluent-bit | Intag | ✔️ | Öppen källkod | Loggar, mått, spårningar |
Logstash | Intag | Öppen källkod | Loggar | |
NLog | Intag | ✔️ | Öppen källkod | Telemetri, loggar, mått |
Öppna telemetri | Intag | ✔️ | Öppen källkod | Spårningar, mått, loggar |
Power Automate | Exporteraera Intag |
Första part | Dataorkestrering | |
Serilog | Intag | ✔️ | Öppen källkod | Loggar |
Splunk | Intag | Öppen källkod | Loggar | |
Splunk Universal Forwarder | Intag | Öppen källkod | Loggar | |
Telegraf | Intag | ✔️ | Öppen källkod | Mått, loggar |
I följande tabell sammanfattas tillgängliga anslutningsappar och deras funktioner:
Apache Flink
Apache Flink är ett ramverk och en distribuerad bearbetningsmotor för tillståndskänsliga beräkningar över obundna och begränsade dataströmmar. Anslutningsappen implementerar datamottagare för att flytta data mellan Azure Data Explorer- och Flink-kluster. Med Azure Data Explorer och Apache Flink kan du skapa snabba och skalbara program som riktar sig till datadrivna scenarier. Till exempel maskininlärning (ML), Extract-Transform-Load (ETL) och Log Analytics.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Direktuppspelning
- Användningsfall: Telemetri
- Underliggande SDK: Java
- Lagringsplats: Microsoft Azure – https://github.com/Azure/flink-connector-kusto/
- Dokumentation: Hämta data från Apache Flink
Apache Kafka
Apache Kafka är en distribuerad strömningsplattform för att skapa strömmande datapipelines i realtid som på ett tillförlitligt sätt flyttar data mellan system eller program. Kafka Connect är ett verktyg för skalbar och tillförlitlig strömning av data mellan Apache Kafka och andra datasystem. Kafka Sink fungerar som anslutningsapp från Kafka och kräver inte att du använder kod. Anslutningsappen är guldcertifierad av Confluent och har genomgått omfattande granskning och testning för kvalitet, funktions fullständighet, efterlevnad av standarder och för prestanda.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Loggar, telemetri, tidsserier
- Underliggande SDK: Java
- Lagringsplats: Microsoft Azure – https://github.com/Azure/kafka-sink-azure-kusto/
- Dokumentation: Hämta data från Apache Kafka
- Community-blogg: Kafka-inmatning i Azure Data Explorer
Apache Log4J 2
Log4J är ett populärt loggningsramverk för Java-program som underhålls av Apache Foundation. Med Log4j kan utvecklare styra vilka logginstruktioner som utdata med godtycklig kornighet baserat på loggarens namn, loggningsnivå och meddelandemönster. Med Apache Log4J 2-mottagaren kan du strömma dina loggdata till databasen, där du kan analysera och visualisera dina loggar i realtid.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Loggar
- Underliggande SDK: Java
- Lagringsplats: Microsoft Azure – https://github.com/Azure/azure-kusto-log4j
- Dokumentation: Hämta data med Apache Log4J 2-anslutningsappen
- CommunityBlogg: Komma igång med Apache Log4J och Azure Data Explorer
Apache Spark
Apache Spark är en enhetlig analysmotor för storskalig databearbetning. Spark-anslutningsappen är ett öppen källkod projekt som kan köras på alla Spark-kluster. Den implementerar datakälla och datamottagare för att flytta data till eller från Spark-kluster. Med hjälp av Apache Spark-anslutningsappen kan du skapa snabba och skalbara program som riktar sig till datadrivna scenarier. Till exempel maskininlärning (ML), Extract-Transform-Load (ETL) och Log Analytics. Med anslutningsappen blir databasen ett giltigt datalager för vanliga Spark-käll- och mottagaråtgärder, till exempel läsning, skrivning och writeStream.
- Funktioner: Inmatning, export
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Telemetri
- Underliggande SDK: Java
- Lagringsplats: Microsoft Azure – https://github.com/Azure/azure-kusto-spark/
- Dokumentation: Apache Spark-anslutningsprogram
- Community-blogg: Förbearbetning av data för Azure Data Explorer för Azure Data Explorer med Apache Spark
Apache Spark för Azure Synapse Analytics
Apache Spark är ett ramverk för parallell bearbetning som stöder minnesintern bearbetning för att öka prestandan för analysprogram för stordata. Apache Spark i Azure Synapse Analytics är en av Microsofts implementeringar av Apache Spark i molnet. Du kan komma åt en databas från Synapse Studio med Apache Spark för Azure Synapse Analytics.
- Funktioner: Inmatning, export
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Telemetri
- Underliggande SDK: Java
- Dokumentation: Ansluta till en Azure Synapse-arbetsyta
Azure Data Factory
Azure Data Factory (ADF) är en molnbaserad dataintegreringstjänst som gör att du kan integrera olika datalager och utföra aktiviteter på data.
- Funktioner: Inmatning, export
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Dataorkestrering
- Dokumentation: Kopiera data till databasen med hjälp av Azure Data Factory
Azure Event Hubs
Azure Event Hubs är en stordataströmningsplattform och händelseinmatningstjänst. Du kan konfigurera kontinuerlig inmatning från kundhanterade händelsehubbar.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Dokumentation: Azure Event Hubs-dataanslutning
Azure Functions
Med Azure Functions kan du köra serverlös kod i molnet enligt ett schema eller som svar på en händelse. Med indata- och utdatabindningar för Azure Functions kan du integrera databasen i dina arbetsflöden för att mata in data och köra frågor mot databasen.
- Funktioner: Inmatning, export
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Arbetsflödesintegreringar
- Dokumentation: Integrera Azure Functions med indata- och utdatabindningar (förhandsversion)
- CommunityBlogg: Kusto-bindningar (Azure Data Explorer) för Azure Functions
Azure Stream Analytics
Azure Stream Analytics är en analysmotor i realtid och en komplex händelsebearbetningsmotor som är utformad för att bearbeta stora volymer snabbuppspelningsdata från flera källor samtidigt.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Händelsebearbetning
- Dokumentation: Hämta data från Azure Stream Analytics
Cribl Stream
Cribl Stream är en bearbetningsmotor som på ett säkert sätt samlar in, bearbetar och strömmar datorhändelsedata från alla källor. Det gör att du kan parsa och bearbeta dessa data för alla mål för analys.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Bearbetning av datordata, inklusive loggar, mått, instrumentationsdata
- Dokumentation: Hämta data från Cribl Stream
Fluent-bit
Fluent Bit är en agent med öppen källkod som samlar in loggar, mått och spårningar från olika källor. Du kan filtrera, ändra och aggregera händelsedata innan du skickar dem till lagringen.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Loggar, mått, spårningar
- Lagringsplats: fluent-bit Kusto Output Plugin
- Dokumentation: Hämta data med Fluent Bit
Logstash
Med Logstash-plugin-programmet kan du bearbeta händelser från Logstash till en databas för senare analys.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Loggar
- Underliggande SDK: Java
- Lagringsplats: Microsoft Azure – https://github.com/Azure/logstash-output-kusto/
- Dokumentation: Hämta data från Logstash
- Community-blogg: Så här migrerar du från Elasticsearch till Azure Data Explorer
NLog
NLog är en flexibel och kostnadsfri loggningsplattform för olika .NET-plattformar, inklusive .NET-standard. Med NLog kan du skriva till flera mål, till exempel en databas, fil eller konsol. Med NLog kan du ändra loggningskonfigurationen direkt. NLog-mottagaren är ett mål för NLog som gör att du kan skicka dina loggmeddelanden till databasen. Plugin-programmet är ett effektivt sätt att sänka loggarna till klustret.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Telemetri, loggar, mått
- Underliggande SDK: .NET
- Lagringsplats: Microsoft Azure – https://github.com/Azure/azure-kusto-nlog-sink
- Dokumentation: Hämta data med NLog-mottagare
- Community-blogg: Komma igång med NLog-mottagare och Azure Data Explorer
OpenTelemetry
OpenTelemetry-anslutningsappen stöder inmatning av data från många mottagare till databasen. Det fungerar som en brygga för att mata in data som genereras av OpenTelemetry till databasen genom att anpassa formatet för exporterade data efter dina behov.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Spårningar, mått, loggar
- Underliggande SDK: Go
- Lagringsplats: OpenTelemetry – https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Dokumentation: Hämta data från OpenTelemetry
- Community-blogg: Komma igång med Open Telemetry och Azure Data Explorer
Power Automate
Power Automate är en orkestreringstjänst som används för att automatisera affärsprocesser. Med anslutningsappen Power Automate (tidigare Microsoft Flow) kan du samordna och schemalägga flöden, skicka meddelanden och aviseringar som en del av en schemalagd eller utlöst uppgift.
- Funktioner: Inmatning, export
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Dataorkestrering
- Dokumentation: Microsoft Power Automate-anslutningsprogram
Serilog
Serilog är ett populärt loggningsramverk för .NET-program. Med Serilog kan utvecklare styra vilka loggutdrag som är utdata med godtycklig kornighet baserat på loggarens namn, loggningsnivå och meddelandemönster. Serilog-mottagaren, även känd som ett tillägg, strömmar dina loggdata till databasen, där du kan analysera och visualisera dina loggar i realtid.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Loggar
- Underliggande SDK: .NET
- Lagringsplats: Microsoft Azure – https://github.com/Azure/serilog-sinks-azuredataexplorer
- Dokumentation: Hämta data från Serilog
- CommunityBlogg: Komma igång med Serilog-mottagare och Azure Data Explorer
Splunk
Splunk Enterprise är en programvaruplattform som gör att du kan mata in data från många källor samtidigt. Azure Data Explorer-tillägget skickar data från Splunk till en tabell i klustret.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Loggar
- Underliggande SDK: Python
- Lagringsplats: Microsoft Azure – https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Dokumentation: Hämta data från Splunk
- Splunk Base: Microsoft Fabric-tillägg för Splunk
- CommunityBlogg: Komma igång med Microsoft Azure Data Explorer-tillägget för Splunk
Splunk Universal Forwarder
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Loggar
- Lagringsplats: Microsoft Azure – https://github.com/Azure/azure-kusto-splunk
- Dokumentation: Hämta data från Splunk Universal Forwarder till Azure Data Explorer
- Community-blogg: Hämta data med Splunk Universal-vidarebefordrare i Azure Data Explorer
Telegraf
Telegraf är en öppen källkod, lätt, minimal minnesfotsutskriftsagent för insamling, bearbetning och skrivning av telemetridata, inklusive loggar, mått och IoT-data. Telegraf stöder hundratals plugin-program för in- och utdata. Det används ofta och stöds väl av öppen källkod community. Plugin-programmet för utdata fungerar som anslutningsapp från Telegraf och stöder inmatning av data från många typer av indata-plugin-program till databasen.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Telemetri, loggar, mått
- Underliggande SDK: Go
- Lagringsplats: InfluxData – https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Dokumentation: Hämta data från Telegraf
- CommunityBlogg: Nytt plugin-program för Utdata i Azure Data Explorer för Telegraf möjliggör SQL-övervakning i stor skala