Terminologia di Microsoft Fabric
Informazioni sulle definizioni dei termini usati in Microsoft Fabric, inclusi i termini specifici per Fabric Data Warehouse, Fabric Data Engineering, Fabric Data Science, Real-Time Intelligence, Data Factory e Power BI.
Condizioni generali
Capacità: La capacità è un insieme dedicato di risorse disponibili in un determinato momento per essere utilizzate. La capacità definisce la capacità di una risorsa di eseguire un'attività o di produrre output. Diversi elementi utilizzano capacità diversa in un determinato momento. Fabric offre capacità tramite lo SKU Fabric e le versioni di valutazione. Per altre informazioni, vedere Che cos'è la capacità?
Esperienza: Una raccolta di funzionalità destinate a una funzionalità specifica. Le esperienze di infrastruttura includono Fabric Data Warehouse, Fabric Data Engineering, Fabric Data Science, Real-Time Intelligence, Data Factory e Power BI.
Elemento: Un elemento di un insieme di funzionalità all'interno di un'esperienza. Gli utenti possono creare, modificare ed eliminarli. Ogni tipo di elemento offre funzionalità diverse. Ad esempio, l'esperienza di ingegneria dei dati include gli elementi lakehouse, notebook e definizione del processo Spark.
Tenant: Un tenant è una singola istanza di Fabric per un'organizzazione ed è allineato a un ID Microsoft Entra.
Workspace: Un'area di lavoro è una raccolta di elementi che riunisce funzionalità diverse in un unico ambiente progettato per la collaborazione. Funge da contenitore che usa la capacità per il lavoro eseguito e fornisce controlli per chi può accedere agli elementi in esso contenuti. Ad esempio, in un'area di lavoro, gli utenti creano report, notebook, modelli semantici e così via. Per altre informazioni, vedere Aree di lavoro articolo.
Ingegneria dei dati di Fabric
Lakehouse: A lakehouse è una raccolta di file, cartelle e tabelle che rappresentano un database su un data lake usato dal motore Apache Spark e dal motore SQL per l'elaborazione di Big Data. Una lakehouse include funzionalità avanzate per le transazioni ACID quando si usano le tabelle con formattazione Delta open source. L'elemento lakehouse è ospitato all'interno di una cartella dell'area di lavoro univoca in Microsoft OneLake. Contiene file in vari formati (strutturati e non strutturati) organizzati in cartelle e sottocartelle. Per altre informazioni, vedere Che cos'è una lakehouse?
Notebook: Un notebook Fabric è uno strumento di programmazione interattivo multilingue con funzioni avanzate. Tra cui la creazione di codice e markdown, l'esecuzione e il monitoraggio di un processo Spark, la visualizzazione e la visualizzazione dei risultati e la collaborazione con il team. Consente ai data engineer e ai data scientist di esplorare ed elaborare i dati e di creare esperimenti di Machine Learning con esperienza di codice e di basso codice. Può essere facilmente trasformato in un'attività della pipeline per l'orchestrazione.
Applicazione Spark: Un'applicazione Apache Spark è un programma scritto da un utente utilizzando uno dei linguaggi supportati dalle API di Spark (Scala, Python, Spark SQL o Java) o i linguaggi aggiunti da Microsoft (.NET con C# o F#). Quando un'applicazione viene eseguita, viene suddivisa in uno o più processi Spark eseguiti in parallelo per elaborare i dati più velocemente. Per altre informazioni, vedere monitoraggio dell'applicazione Spark.
processo Apache Spark: un processo Spark fa parte di un'applicazione Spark eseguita in parallelo con altri processi nell'applicazione. Un lavoro consiste di più compiti. Per ulteriori informazioni, vedere il monitoraggio delle attività Spark.
definizione del processo Apache Spark: una definizione di processo Spark è un set di parametri, impostato dall'utente, che indica come deve essere eseguita un'applicazione Spark. Consente di inviare processi batch o di streaming al cluster Spark. Per ulteriori informazioni, vedere Cos'è la definizione di un job Apache Spark?
V-order: Un'ottimizzazione della scrittura nel formato di file parquet V-order che consente letture veloci e offre un rapporto costo-efficacia e prestazioni migliori. Per impostazione predefinita, tutti i motori Fabric scrivono file Parquet ordinati v.
Data Factory
Connector: Data Factory offre un set completo di connettori che consentono di connettersi a diversi tipi di archivi dati. Dopo la connessione, è possibile trasformare i dati. Per altre informazioni, vedere connettori .
pipeline di dati: In Data Factory viene usata una pipeline di dati per orchestrare lo spostamento e la trasformazione dei dati. Queste pipeline sono diverse da quelle di distribuzione in Fabric. Per ulteriori informazioni, vedere Pipelines nella panoramica di Data Factory.
Dataflow Gen2: i flussi di dati forniscono un'interfaccia a basso livello di codice per acquisire dati da centinaia di origini dati e trasformare i dati. I flussi di dati in Fabric sono definiti Dataflow Gen2. Dataflow Gen1 esiste in Power BI. Dataflow Gen2 offre funzionalità aggiuntive rispetto ai flussi di dati in Azure Data Factory o Power BI. Non è possibile eseguire l'aggiornamento da Gen1 a Gen2. Per altre informazioni, vedere flussi di dati nella panoramica di Data Factory.
Trigger: Una funzionalità di automazione in Data Factory che avvia le pipeline in base a condizioni specifiche, ad esempio pianificazioni o disponibilità dei dati.
Analisi scientifica dei dati di Fabric
Data Wrangler: Data Wrangler è uno strumento basato su notebook che offre agli utenti un'esperienza immersiva per eseguire l'analisi esplorativa dei dati. La funzionalità combina una visualizzazione di dati simile a una griglia con statistiche di riepilogo dinamiche e un set di operazioni comuni di pulizia dei dati, tutte disponibili con alcune icone selezionate. Ogni operazione genera codice che può essere salvato di nuovo nel notebook come script riutilizzabile.
Esperimento: Un esperimento di Machine Learning è l'unità principale dell'organizzazione e il controllo per tutte le esecuzioni di Machine Learning correlate. Per altre informazioni, vedere esperimenti di Machine Learning in Microsoft Fabric.
Modello: un modello di Machine Learning è un file sottoposto a training per riconoscere determinati tipi di modelli. Si esegue il training di un modello su un set di dati e si fornisce un algoritmo usato per ragionare e apprendere da tale set di dati. Per altre informazioni, vedere modello di Machine Learning.
Esecuzione: Un'esecuzione corrisponde a una singola esecuzione del codice del modello. In MLflow, il rilevamento si basa su esperimenti ed esecuzioni.
Data warehouse Fabric
endpoint di analisi SQL: Each Lakehouse ha un endpoint di analisi SQL che consente a un utente di eseguire query sui dati della tabella differenziale con TSQL su TDS. Per altre informazioni, vedere endpoint di analisi SQL.
Fabric Data Warehouse: Il data warehouse di Fabric funge da data warehouse tradizionale e supporta le funzionalità T-SQL transazionali complete previste da un data warehouse aziendale. Per altre informazioni, vedere Fabric Data Warehouse.
Real-Time Intelligenza
Activator: Activator è uno strumento senza codice e con poco codice che consente di creare avvisi, trigger e azioni sui dati. L'attivatore viene usato per creare avvisi sui flussi di dati. Per altre informazioni, vedere Activator.
Eventhouse: Gli Eventhouse forniscono soluzioni per la gestione e l'analisi di grandi volumi di dati, soprattutto negli scenari che richiedono analisi ed esplorazione in tempo reale. Sono progettati per gestire in modo efficiente i flussi di dati in tempo reale, consentendo alle organizzazioni di inserire, elaborare e analizzare i dati quasi in tempo reale. Una singola area di lavoro può contenere più case eventi, una eventhouse può contenere più database KQL e ogni database può contenere più tabelle. Per altre informazioni, vedere la panoramica di Eventhouse .
Eventstream: La funzionalità Eventstream di Microsoft Fabric offre una posizione centralizzata nella piattaforma Fabric per acquisire, trasformare e instradare gli eventi in tempo reale alle destinazioni senza la necessità di scrivere codice. Un flusso di eventi è costituito da varie origini dati di streaming, destinazioni di inserimento e un processore di eventi quando è necessaria la trasformazione. Per altre informazioni, vedere flussi di eventi di Microsoft Fabric.
database KQL: il database KQL contiene dati in un formato su cui è possibile eseguire query KQL. I database KQL sono elementi sotto un Eventhouse. Per ulteriori informazioni, vedere il database KQL .
Queryset KQL: Il Queryset KQL è l'oggetto usato per eseguire query, visualizzare i risultati e modificare i risultati delle query sui dati del database di Data Explorer. Il set di query include i database e le tabelle, le interrogazioni e i risultati. Il set di query KQL consente di salvare le query per un uso futuro o di esportare e condividere query con altri utenti. Per altre informazioni, vedere Query data in KQL Queryset
Real-Time hub
- hub Real-Time: Real-Time hub è l'unica posizione per tutti i dati in movimento nell'intera organizzazione. Ogni tenant di Microsoft Fabric è fornito automaticamente dell'hub. Per altre informazioni, vedere panoramica dell'hub Real-Time.
OneLake
- Scorciatoia. Le scorciatoie sono riferimenti incorporati all'interno di OneLake che puntano ad altre posizioni di archiviazione file. Forniscono un modo per connettersi ai dati esistenti senza doverli copiare direttamente. Per ulteriori informazioni, vedere le scorciatoie di OneLake .