Condividi tramite


Percorsi di integrazione di Microsoft Fabric per ISV

Microsoft Fabric offre ai fornitori di software indipendenti (ISV) tre percorsi distinti affinché si integrino facilmente con Fabric. Per un ISV a partire da questo percorso, vogliamo esaminare varie risorse disponibili in ognuno di questi percorsi.

Figura che illustra i tre percorsi da integrare con Fabric: Interop, Sviluppo di app e Compilazione di un carico di lavoro di Fabric.

Interop con OneLake di Fabric

L'obiettivo principale del modello Interop è consentire agli ISV di integrare le proprie soluzioni con OneLake Foundation. Per l'interoperabilità con Microsoft Fabric, l'integrazione viene fornita usando numerosi connettori in Data Factory e in Intelligence in tempo reale, API REST per OneLake, collegamenti in OneLake, condivisione dei dati tra tenant di Fabric e mirroring del database.

Figura che illustra diversi modi per interagire con OneLake: API, Data Factory, RTI, collegamenti multi-cloud, condivisione dei dati e mirroring del database.

Le sezioni seguenti descrivono alcuni dei modi in cui è possibile iniziare a usare questo modello.

API OneLake

  • OneLake supporta le API e gli SDK di Azure Data Lake Storage (ADLS) Gen2 esistenti per l'interazione diretta, consentendo agli sviluppatori di leggere, scrivere e gestire i dati in OneLake. Ulteriori informazioni sulle API RES di ADLS Gen2 e su come connettersi a OneLake.
  • Poiché non tutte le funzionalità in ADLS Gen2 vengono mappate direttamente a OneLake, OneLake applica anche una struttura di cartelle impostata per supportare aree di lavoro ed elementi di Fabric. Per un elenco completo dei diversi comportamenti tra OneLake e ADLS Gen2 quando si chiamano queste API, vedere Parità di API OneLake.
  • Se si usa Databricks e si vuole effettuare un collegamento a Microsoft Fabric, Databricks funziona con le API di ADLS Gen2. Eseguire l'integrazione di OneLake con Azure Databricks.
  • Per sfruttare al meglio il formato di archiviazione Delta Lake, revisionare e comprendere il formato, l'ottimizzazione della tabella e V-Order. Ottimizzazione della tabella Delta Lake e V-Order.
  • Una volta che i dati si trovano in OneLake, esplorare localmente usando Esplora file di OneLake. Esplora file di OneLake integra facilmente OneLake con Esplora file di Windows. Questa applicazione sincronizza automaticamente tutti gli elementi OneLake a cui si ha accesso in Esplora file di Windows. È anche possibile usare qualsiasi altro strumento compatibile con ADLS Gen2, ad esempio Azure Storage Explorer.

Diagramma che mostra la modalità di interazione delle API OneLake con i carichi di lavoro di Fabric.

Api di Intelligence in tempo reale

Intelligence in tempo reale semplifica l'analisi e la visualizzazione dei dati, offrendo una soluzione centralizzata per informazioni dettagliate e azioni immediate, correlate con dati in movimento all'interno di un'organizzazione. Gestisce in modo efficiente grandi volumi di dati tramite potenti funzionalità di query, trasformazione e archiviazione.

  • Gli eventhouse sono progettati specificamente per lo streaming dei dati, compatibili con l'hub in tempo reale e ideali per gli eventi basati sul tempo. I dati vengono indicizzati e partizionati automaticamente in base al tempo di inserimento, offrendo funzionalità di query analitiche incredibilmente veloci e complesse sui dati a granularità elevata a cui è possibile accedere in OneLake per l'uso nell'intera suite di esperienze di Fabric. Gli eventhouse supportano API e SDK di eventhouse esistenti per l'interazione diretta, consentendo agli sviluppatori di leggere, scrivere e gestire i dati negli eventhouse. Ulteriori informazioni su API REST.
  • I flussi di eventi consentono di portare eventi in tempo reale da varie origini e di instradarli a varie destinazioni, ad esempio OneLake, database KQL in case eventi e Fabric Activator. Altre informazioni su eventstream e API eventstreams.
  • Se si usano Databricks o Jupyter Notebook, è possibile usare la libreria client Python Kusto per lavorare con i database KQL in Fabric. Ulteriori informazioni su SDK per Python Kusto.
  • È possibile utilizzare i connettori esistenti di App per la logica Microsoft, Azure Data Factory o Power Automate Microsoft per interagire con gli eventhouse o i database KQL.
  • I collegamenti al database in Intelligence in tempo reale sono riferimenti incorporati all'interno di un eventhouse a un database di origine. Il database di origine può essere un database KQL in Intelligence in tempo reale o un database di Esplora dati di Azure. I collegamenti possono essere usati per la condivisione dei dati all'interno dello stesso tenant o tra tenant diversi. Ulteriori informazioni sulla gestione dei collegamenti al database tramite API.

Diagramma che la modalità di interazione delle API di Intelligence in tempo reale con i carichi di lavoro di Fabric.

Data Factory in Fabric

  • Pipeline di dati offre un ampio insieme di connettori, consentendo a ISV di connettersi senza problemi a una miriade di archivi dati. Che si tratti di interfaccia di database tradizionali o soluzioni moderne basate sul cloud, i connettori garantiscono un processo di integrazione uniforme. Informazioni generali sui connettori.
  • Con i connettori Gen2 di flusso di dati supportati, gli ISV possono sfruttare la potenza di Data Factory di Fabric per gestire flussi di lavoro di dati complessi. Questa funzionalità è particolarmente utile per ISV che cercano di semplificare le attività di elaborazione e trasformazione dei dati. Connettori Gen2 di flusso di dati in Microsoft Fabric.
  • Per un elenco completo delle funzionalità supportate da Data Factory in Fabric, vedere questo blog di Data Factory in Fabric.

Screenshot dell'interfaccia di Data Factory in Fabric.

Collegamenti multi-cloud

I collegamenti in Microsoft OneLake consentono di unire i dati tra domini, cloud e account, creando un singolo data lake virtuale per l'intera azienda. Tutte le esperienze e i motori analitici di Fabric possono puntare direttamente alle origini dati esistenti, ad esempio OneLake in un tenant diverso, Azure Data Lake Storage (ADLS) Gen2, Account di archiviazione di Amazon S3, Google Cloud Storage (GCS), origini dati compatibili S3 e Dataverse tramite uno spazio dei nomi unificato. OneLake presenta ISV con una soluzione di accesso ai dati trasformativa, che esegue senza problemi l'integrazione tra domini e piattaforme cloud diversi.

Diagramma che mostra i collegamenti multi-cloud in OneLake.

Condivisione dei dati

Condivisione dei dati consente agli utenti Fabric di condividere i dati tra tenant di Fabric differenti senza duplicarli. Questa funzionalità migliora la collaborazione abilitando la condivisione dei dati sul posto da posizioni di archiviazione OneLake. I dati vengono condivisi come di sola lettura e sono accessibili tramite vari motori di calcolo Fabric, tra cui SQL, Spark, KQL e modelli semantici. Per usare questa funzionalità, gli amministratori Fabric devono abilitarla sia nella condivisione che nei tenant riceventi. Il processo include la selezione dei dati all'interno dell'hub dati o dell'area di lavoro OneLake, la configurazione delle impostazioni di condivisione e l'invio di un invito al destinatario previsto.

Diagramma che mostra il funzionamento del processo di condivisione dei dati in Fabric.

Mirroring del database

Il mirroring offre un modo moderno per accedere e inserire i dati in modo continuo e facile da database esterni o data warehouse nell'esperienza di data warehouse in Microsoft Fabric. Il mirroring è tutto quasi in tempo reale, consentendo agli utenti di accedere immediatamente alle modifiche nell'origine. Ulteriori informazioni su mirroring e database supportati.

Diagramma che mostra il mirroring del database in Fabric.

Develop on Fabric

Diagramma che mostra come creare app in Fabric.

Con gli ISV di modello Develop on Fabric è possibile creare i propri prodotti e servizi in Fabric o incorporare facilmente le funzionalità di Fabric all'interno delle applicazioni esistenti. Si tratta di una transizione dall'integrazione di base all'applicazione attiva delle capacità offerte da Fabric. La superficie di integrazione principale è tramite le API REST per varie esperienze Fabric. La tabella seguente illustra un sottoinsieme di API REST raggruppato in base all'esperienza Fabric. Per un elenco completo, vedere Documentazione di API REST di Fabric.

Esperienze di Fabric API
Data warehouse - Warehouse
- Warehouse con mirroring
Ingegneria dei dati - Lakehouse
- Spark
- Definizione del processo Spark
- Tabelle
- Processi
Data Factory - Pipeline di dati
Intelligence in tempo reale - Eventhouse
- Database KQL
- Set di query KQL
- Eventstream
Data science - Notebook
- Esperimento ML
- Modello di ML
OneLake - Collegamenti
- API ADLS Gen2
Power BI - Report
- Dashboard
- Modello semantico

Creare un carico di lavoro Fabric

Diagramma che mostra come creare il proprio carico di lavoro Fabric.

Il modello Crea un carico di lavoro Fabric è progettato per consentire agli ISV di creare esperienze personalizzate nella piattaforma Fabric. Offre agli ISV gli strumenti e le funzionalità necessari per allineare le proprie offerte all'ecosistema Fabric, ottimizzando la combinazione delle loro esclusive proposte di valore con le ampie capacità di Fabric.

Il Kit di sviluppo di carico di lavoro Microsoft Fabric offre agli sviluppatori un toolkit completo per integrare le applicazioni nell'hub di Microsoft Fabric. Questa integrazione consente l'aggiunta di nuove capacità direttamente all'interno dell'area di lavoro Fabric, migliorando il percorso di analisi per gli utenti. Offre agli sviluppatori e agli ISV un nuovo percorso per raggiungere i clienti, fornendo esperienze sia familiari che nuove e sfruttando le applicazioni dati esistenti. Gli amministratori Fabric ottengono la possibilità di gestire l'accesso all'hub del carico di lavoro, abilitandolo per l'intero tenant o assegnandolo a un ambito specifico, al fine di controllare l'accesso all'interno dell'organizzazione.