Condividi tramite


Configurare gli endpoint del flusso di dati

Importante

Questa pagina include istruzioni per la gestione dei componenti di Operazioni IoT di Azure usando i manifesti di distribuzione kubernetes, disponibile in anteprima. Questa funzionalità viene fornita con diverse limitazioni e non deve essere usata per i carichi di lavoro di produzione.

Vedere le condizioni per l'utilizzo supplementari per le anteprime di Microsoft Azure per termini legali aggiuntivi che si applicano a funzionalità di Azure in versione beta, in anteprima o in altro modo non ancora disponibili a livello generale.

Per iniziare a usare i flussi di dati, creare prima di tutto gli endpoint del flusso di dati. Un endpoint del flusso di dati è il punto di connessione per il flusso di dati. È possibile usare un endpoint come origine o destinazione per il flusso di dati. Alcuni tipi di endpoint possono essere usati sia come origini che come destinazioni, mentre altri sono solo per destinazioni. Un flusso di dati richiede almeno un endpoint di origine e un endpoint di destinazione.

Usare la tabella seguente per scegliere il tipo di endpoint da configurare:

Tipo di endpoint Descrizione Può essere usato come origine Può essere usato come destinazione
MQTT Per la messaggistica bidirezionale con broker MQTT, incluso quello incorporato in Operazioni IoT di Azure e Griglia di eventi.
Kafka Per la messaggistica bidirezionale con broker Kafka, tra cui Hub eventi di Azure.
Data Lake Per caricare i dati in account di archiviazione di Azure Data Lake Gen2. No
Microsoft Fabric OneLake Per caricare i dati in microsoft Fabric OneLake lakehouses. No
Esplora dati di Azure Per caricare i dati nei database Esplora dati di Azure. No
Archiviazione locale Per l'invio di dati a un volume permanente disponibile in locale, tramite il quale è possibile caricare i dati tramite l'archiviazione di Azure Container abilitata dai volumi perimetrali di Azure Arc. No

Importante

Gli endpoint di archiviazione richiedono uno schema per la serializzazione. Per usare il flusso di dati con Microsoft Fabric OneLake, Azure Data Lake Storage, Azure Esplora dati o Archiviazione locale, è necessario specificare un riferimento allo schema.

Per generare lo schema da un file di dati di esempio, usare l'helper di generazione dello schema.

I flussi di dati devono usare l'endpoint broker MQTT locale

Quando si crea un flusso di dati, si specificano gli endpoint di origine e di destinazione. Il flusso di dati sposta i dati dall'endpoint di origine all'endpoint di destinazione. È possibile usare lo stesso endpoint per più flussi di dati ed è possibile usare lo stesso endpoint sia dell'origine che della destinazione in un flusso di dati.

Tuttavia, l'uso di endpoint personalizzati sia come origine che come destinazione in un flusso di dati non è supportato. Questa restrizione indica che il broker MQTT predefinito nelle operazioni IoT di Azure deve essere almeno un endpoint. Può essere l'origine, la destinazione o entrambi. Per evitare errori di distribuzione del flusso di dati, usare l'endpoint del flusso di dati MQTT predefinito come origine o destinazione per ogni flusso di dati.

Il requisito specifico è che ogni flusso di dati deve avere l'origine o la destinazione configurata con un endpoint MQTT con l'host aio-broker. Non è quindi strettamente necessario usare l'endpoint predefinito ed è possibile creare endpoint del flusso di dati aggiuntivi che puntano al broker MQTT locale purché l'host sia aio-broker. Tuttavia, per evitare problemi di confusione e gestibilità, l'endpoint predefinito è l'approccio consigliato.

La tabella seguente illustra gli scenari supportati:

Scenario Supportata
Endpoint predefinito come origine
Endpoint predefinito come destinazione
Endpoint personalizzato come origine Sì, se la destinazione è un endpoint predefinito o un endpoint MQTT con host aio-broker
Endpoint personalizzato come destinazione Sì, se l'origine è un endpoint predefinito o un endpoint MQTT con host aio-broker
Endpoint personalizzato come origine e destinazione No, a meno che uno di essi non sia un endpoint MQTT con host aio-broker

Riutilizzare gli endpoint

Si consideri ogni endpoint del flusso di dati come un bundle di impostazioni di configurazione che contiene la provenienza o l'accesso dei dati (il host valore), come eseguire l'autenticazione con l'endpoint e altre impostazioni come la configurazione TLS o la preferenza di invio in batch. È quindi sufficiente crearlo una sola volta e quindi riutilizzarlo in più flussi di dati in cui queste impostazioni sarebbero le stesse.

Per semplificare il riutilizzo degli endpoint, il filtro dell'argomento MQTT o Kafka non fa parte della configurazione dell'endpoint. Specificare invece il filtro dell'argomento nella configurazione del flusso di dati. Ciò significa che è possibile usare lo stesso endpoint per più flussi di dati che usano filtri di argomento diversi.

Ad esempio, è possibile usare l'endpoint del flusso di dati del broker MQTT predefinito. È possibile usarlo sia per l'origine che per la destinazione con filtri di argomento diversi:

Screenshot che usa l'esperienza operativa per creare un flusso di dati da MQTT a MQTT.

Analogamente, è possibile creare più flussi di dati che usano lo stesso endpoint MQTT per altri endpoint e argomenti. Ad esempio, è possibile usare lo stesso endpoint MQTT per un flusso di dati che invia dati a un endpoint di Hub eventi.

Screenshot che usa l'esperienza operativa per creare un flusso di dati da MQTT a Kafka.

Analogamente all'esempio MQTT, è possibile creare più flussi di dati che usano lo stesso endpoint Kafka per argomenti diversi o lo stesso endpoint Data Lake per tabelle diverse.

Passaggi successivi

Creare un endpoint del flusso di dati: