Microsoft Fabric-Terminologie
Lernen Sie die Definitionen von Ausdrücken kennen, die in Microsoft Fabric verwendet werden, einschließlich spezifischer Begriffe für Fabric Data Warehouse, Fabric-Datentechnik, Fabric Data Science, Echtzeitintelligenz, Data Factory und Power BI.
Allgemeine Bestimmungen
Kapazität: Die Kapazität ist eine dedizierte Ressourcengruppe, die zu einem bestimmten Zeitpunkt verfügbar ist. Kapazität definiert die Fähigkeit einer Ressource, eine Aktivität auszuführen oder Output zu erzeugen. Verschiedene Elemente verbrauchen unterschiedliche Kapazität zu einer bestimmten Zeit. Fabric stellt Kapazität über die Fabric-SKU und Testversionen bereit. Weitere Informationen finden Sie unter Was bedeutet Kapazität?
Erfahrung: eine Sammlung von Funktionen, die auf eine bestimmte Funktionalität ausgerichtet sind. Die Fabric-Erfahrungen umfassen Fabric Data Warehouse, Fabric Datentechnik, Fabric Data Science, Real-Time Intelligence, Data Factory und Power BI.
Element: Ein Element ist eine Reihe von Funktionen innerhalb einer Benutzeroberfläche. Benutzer*innen können diese erstellen, bearbeiten und löschen. Jeder Elementtyp bietet unterschiedliche Funktionen. Die Datentechnik-Erfahrung umfasst beispielsweise die Elemente für Lakehouse-, Notebook- und Spark-Auftragsdefinitionen.
Mandant: Ein Mandant ist eine einzelne Instanz von Fabric für eine Organisation und ist mit einer Microsoft Entra ID verbunden.
Arbeitsbereich: Ein Arbeitsbereich ist eine Sammlung von Elementen, die verschiedene Funktionen in einer einzigen, auf Zusammenarbeit ausgelegten Umgebung vereint. Sie fungiert als Container, der Kapazität für die ausgeführte Arbeit verwendet, und stellt Steuerelemente für den Zugriff auf die darin enthaltenen Elemente bereit. Beispielsweise erstellen Benutzer*innen in einem Arbeitsbereich unter anderem Berichte, Notebooks, semantische Modelle. Weitere Informationen finden Sie im Artikel Arbeitsbereiche.
Fabric-Datentechnik
Lakehouse: Ein Lakehouse ist eine Sammlung von Dateien, Ordnern und Tabellen, die eine Datenbank über einen Data Lake darstellen und für die Nutzung durch das Apache Spark-Modul und das SQL-Modul zur Verarbeitung von Big Data vorgesehen sind. Ein Lakehouse enthält erweiterte Funktionen für ACID-Transaktionen, wenn die Open-Source-Tabellen im Deltaformat verwendet werden. Das Lakehouse-Element wird in einem eindeutigen Arbeitsbereichsordner in Microsoft OneLake gehostet. Es enthält Dateien in verschiedenen Formaten (strukturiert und unstrukturiert), die in Ordnern und Unterordnern organisiert sind. Weitere Informationen finden Sie unter Was ist ein Lakehouse?.
Notebook: Ein Fabric-Notebook ist ein mehrsprachiges interaktives Programmiertool mit umfangreichen Funktionen. Dazu gehören das Erstellen von Code und Markdown, das Ausführen und Überwachen von Spark-Aufträgen, das Anzeigen und Visualisieren der Ergebnisse sowie die Zusammenarbeit mit dem Team. Notebooks helfen Datentechniker*innen und Datenwissenschaftler*innen, Daten zu untersuchen und zu verarbeiten und Experimente mit maschinellem Lernen sowohl mit Code als auch mit geringem Code zu erstellen. Sie können einfach in eine Pipelineaktivität für die Orchestrierung transformiert werden.
Spark-Anwendung: Eine Apache Spark-Anwendung ist ein Programm, das von Benutzer*innen mit einer der Spark-API-Sprachen (Scala, Python, Spark SQL oder Java) oder der von Microsoft hinzugefügten Sprachen (.NET mit C# oder F#) geschrieben wird. Wenn eine Anwendung ausgeführt wird, ist sie in einen oder mehrere Spark-Aufträge unterteilt, die parallel ausgeführt werden, um die Daten schneller zu verarbeiten. Weitere Informationen finden Sie unter Spark-Anwendungsüberwachung.
Apache Spark-Auftrag: Ein Spark-Auftrag ist Teil einer Spark-Anwendung, der parallel mit anderen Aufträgen in der Anwendung ausgeführt wird. Aufträge umfassen mehrere Aufgaben. Weitere Informationen finden Sie unter Spark-Auftragsüberwachung.
Apache Spark-Auftragsdefinition: Eine Spark-Auftragsdefinition ist eine Gruppe von Parametern, die benutzerseitig festgelegt werden und angeben, wie eine Spark-Anwendung ausgeführt werden soll. Mit ihr können Sie Batch- oder Streamingaufträge an den Spark-Cluster übermitteln. Weitere Informationen finden Sie unter Was ist eine Apache Spark-Auftragsdefinition?
V-Order: Eine Schreiboptimierung für das Parquet-Dateiformat, die schnelle Lesevorgänge ermöglicht und Kosteneffizienz sowie bessere Leistung bietet. Alle Fabric-Engines schreiben Parquet-Dateien standardmäßig in V-Reihenfolge.
Datenfabrik
Connector: Data Factory bietet eine umfassende Reihe von Connectors, mit der Sie Verbindungen mit verschiedenen Arten von Datenspeichern herstellen können. Nach der Verbindung können Sie die Daten transformieren. Weitere Informationen finden Sie unter Connectors.
Datenpipeline: In Data Factory werden Datenpipelines zum Orchestrieren von Datenverschiebungen und -transformationen verwendet. Diese Pipelines unterscheiden sich von den Bereitstellungspipelines in Fabric. Weitere Informationen finden Sie unter Pipelines in der Data Factory-Übersicht.
Dataflow Gen2: Dataflows bieten eine Schnittstelle mit wenig Code zum Erfassen von Daten aus Hunderten Datenquellen und Transformieren Ihrer Daten. Dataflows in Fabric werden als Dataflow Gen2 bezeichnet. Dataflow Gen1 ist in Power BI vorhanden. Dataflow Gen2 bietet zusätzliche Funktionen im Vergleich zu Dataflows in Azure Data Factory oder Power BI. Sie können kein Upgrade von Gen1 auf Gen2 durchführen. Weitere Informationen finden Sie unter Dataflows in der Data Factory-Übersicht.
Trigger: Eine Automatisierungsfunktion in Data Factory, die Pipelines basierend auf bestimmten Bedingungen initiiert, z. B. Zeitpläne oder Datenverfügbarkeit.
Fabric Data Science
Data Wrangler: Data Wrangler ist ein auf Notebooks basierendes Tool, das Benutzende eine umfassende Oberfläche für die Durchführung explorativer Datenanalysen bietet. Das Feature kombiniert eine rasterähnliche Datenanzeige mit dynamischen Zusammenfassungsstatistiken und einer Reihe von allgemeinen Datenbereinigungsvorgängen, die alle durch Auswählen weniger Symbole verfügbar sind. Jeder Vorgang generiert Code, der als wiederverwendbares Skript im Notebook gespeichert werden kann.
Experiment: Ein Experiment mit maschinellem Lernen ist die primäre Einheit für die Organisation und Steuerung aller zugehörigen Ausführungen maschinellen Lernens. Weitere Informationen finden Sie unter Experimente mit maschinellem Lernen in Microsoft Fabric.
Modell: Ein Machine Learning-Modell ist eine Datei, die darauf trainiert wurde, bestimmte Arten von Mustern zu erkennen. Sie trainieren ein Modell mit einer Datenmenge und geben ihm einen Algorithmus, den es verwendet, um über diesen Datensatz zu schlussfolgern und aus ihm zu lernen. Weitere Informationen finden Sie unter Machine Learning Modell.
Lauf: Ein Lauf entspricht einem einzelnen Durchgang von Modellcode. In MLflow-basiert das Tracking auf Experimenten und Läufen.
Fabric Data Warehouse
SQL-Analyseendpunkt: Jedes Lakehouse weist einen SQL-Analyseendpunkt auf, mit dem Benutzer*innen Deltatabellendaten mit TSQL über TDS abfragen können. Weitere Informationen finden Sie unter SQL-Analyse-Endpunkt.
Fabric Data Warehouse: Das Fabric Data Warehouse fungiert als herkömmliches Data Warehouse bereit und unterstützt alle T-SQL-Transaktionsfunktionen, die Sie in einem Data Warehouse für Unternehmen erwarten. Weitere Informationen finden Sie unter Fabric Data Warehouse.
Real-Time Intelligence
Aktivator: Aktivator ist ein No-Code- und Low-Code-Tool, mit dem Sie Warnungen, Auslöser und Aktionen für Ihre Daten erstellen können. Activator wird verwendet, um Benachrichtigungen für Ihre Datenströme zu erstellen. Weitere Informationen finden Sie unter Activator.
Eventhouse: Eventhouses bieten eine Lösung für die Behandlung und Analyse großer Datenmengen, insbesondere in Szenarien, die Echtzeitanalysen und Untersuchungen erfordern. Sie sind so konzipiert, dass Datenströme in Echtzeit effizient verarbeitet werden, wodurch Organisationen Daten in nahezu Echtzeit erfassen, verarbeiten und analysieren können. Ein einzelner Arbeitsbereich kann mehrere Eventhouses enthalten, ein Eventhouse kann mehrere KQL-Datenbanken enthalten, und jede Datenbank kann mehrere Tabellen enthalten. Weitere Informationen finden Sie unter Eventhouse-Übersicht.
Eventstream: Das Feature „Microsoft Fabric-Eventstreams“ bietet einen zentralen Ort auf der Fabric-Plattform zum Erfassen und Transformieren von Echtzeitereignissen sowie zum Weiterleiten dieser Ereignisse an Ziele mit einer codefreien Erfahrung. Ein Eventstream besteht aus verschiedenen Streamingdatenquellen und Erfassungszielen sowie einem Ereignisprozessor, wenn die Transformation benötigt wird. Weitere Informationen finden Sie unter Microsoft Fabric-Ereignisstreams.
KQL-Datenbank: Die KQL-Datenbank enthält Daten in einem Format, mit dem Sie KQL-Abfragen ausführen können. KQL-Datenbanken sind Elemente unter einem Eventhouse. Weitere Informationen finden Sie unter KQL-Datenbank.
KQL-Abfrageset: Das KQL-Abfrageset ist das Element zum Ausführen von Abfragen, Anzeigen von Ergebnissen und Bearbeiten von Abfrageergebnissen für Daten aus Ihrer Data Explorer-Datenbank. Das Abfrageset enthält die Datenbanken und Tabellen, die Abfragen und die Ergebnisse. Mit dem KQL Queryset können Sie Abfragen für die zukünftige Verwendung speichern oder Abfragen exportieren und sie mit anderen teilen. Weitere Informationen finden Sie unter Abfragen von Daten im KQL-Abfrageset
Echtzeit-Hub
- Real-Time hub: Real-Time hub ist die zentrale Anlaufstelle für alle Daten in Bewegung innerhalb der gesamten Organisation. Alle Microsoft Fabric-Mandanten werden automatisch mit dem Hub bereitgestellt. Weitere Informationen finden Sie unter Übersicht über Echtzeit-Hubs.
OneLake
- Verknüpfung: Verknüpfungen sind eingebettete Verweise in OneLake, die auf andere Dateispeicherorte verweisen. Sie bieten eine Möglichkeit zum Herstellen einer Verbindung mit vorhandenen Daten, ohne sie direkt kopieren zu müssen. Weitere Informationen finden Sie unter OneLake-Verknüpfungen.