Freigeben über


Microsoft Fabric-Terminologie

Lernen Sie die Definitionen von Ausdrücken kennen, die in Microsoft Fabric verwendet werden, einschließlich spezifischer Begriffe für Fabric Data Warehouse, Fabric Data Engineering, Fabric Data Science, Real-Time Intelligence, Data Factory und Power BI.

Allgemeine Geschäftsbedingungen

  • Kapazität: Die Kapazität ist eine dedizierte Ressourcengruppe, die zu einem bestimmten Zeitpunkt verfügbar ist. Kapazität definiert die Fähigkeit einer Ressource, eine Aktivität auszuführen oder Output zu erzeugen. Verschiedene Elemente verbrauchen zu einem bestimmten Zeitpunkt unterschiedliche Kapazität. Fabric stellt Kapazität über die Fabric-SKU und Testversionen bereit. Weitere Informationen finden Sie unter Was ist Kapazität?

  • Erfahrung: Eine Sammlung von Funktionen, die auf eine bestimmte Funktionalität ausgerichtet sind. Die Fabric-Erfahrungen umfassen Fabric Data Warehouse, Fabric Data Engineering, Fabric Data Science, Real-Time Intelligence, Data Factory und Power BI.

  • Element: Ein Element ist eine Gruppe von Funktionen innerhalb einer Oberfläche. Benutzer können sie erstellen, bearbeiten und löschen. Jeder Elementtyp bietet unterschiedliche Funktionen. Die Oberfläche für Datentechnik umfasst beispielsweise die Elemente für Lakehouses, Notebooks und Spark-Auftragsdefinitionen.

  • Mandant: Ein Mandant ist eine einzelne Instanz von Fabric für eine Organisation und ist mit einer Microsoft Entra ID verbunden.

  • Arbeitsbereich: Ein Arbeitsbereich ist eine Sammlung von Elementen, die unterschiedliche Funktionen in einer einzigen Umgebung zusammenführt, die für die Zusammenarbeit entwickelt wurde. Sie fungiert als Container, der Kapazität für die ausgeführte Arbeit verwendet, und stellt Steuerelemente für den Zugriff auf die darin enthaltenen Elemente bereit. Beispielsweise erstellen Benutzer in einem Arbeitsbereich Berichte, Notizbücher, semantische Modelle usw. Weitere Informationen finden Sie im Artikel Arbeitsbereiche.

Fabric-Datentechnik

  • Lakehouse: Ein Lakehouse ist eine Sammlung von Dateien, Ordnern und Tabellen, die eine Datenbank über einen Data Lake darstellen und für die Nutzung durch das Apache Spark-Modul und das SQL-Modul zur Verarbeitung von Big Data vorgesehen sind. Ein Lakehouse umfasst erweiterte Funktionen für ACID-Transaktionen bei Verwendung der formatierten Open-Source-Delta-Tabellen. Das Lakehouse-Element wird in einem eindeutigen Arbeitsbereichsordner in Microsoft OneLake gehostet. Sie enthält Dateien in verschiedenen Formaten (strukturiert und unstrukturiert), die in Ordnern und Unterordnern organisiert sind. Weitere Informationen finden Sie unter Was ist ein Seehaus?

  • Notebook: Ein Fabric-Notebook ist ein mehrsprachiges interaktives Programmiertool mit umfangreichen Funktionen. Dazu gehören das Erstellen von Code und Markdown, das Ausführen und Überwachen eines Spark-Auftrags, das Anzeigen und Visualisieren des Ergebnisses sowie die Zusammenarbeit mit dem Team. Sie hilft Dateningenieuren und Datenwissenschaftlern, Daten zu untersuchen und zu verarbeiten, und maschinelle Lernexperimente mit Code und Low-Code-Erfahrung zu erstellen. Es können einfach in eine Pipelineaktivität für die Orchestrierung transformiert werden.

  • Spark-Anwendung: Eine Apache Spark-Anwendung ist ein Programm, das von einem Benutzer mit einer der API-Sprachen (Scala, Python, Spark SQL oder Java) oder von Microsoft hinzugefügten Sprachen (.NET mit C# oder F#) geschrieben wurde. Wenn eine Anwendung ausgeführt wird, ist sie in einen oder mehrere Spark-Aufträge unterteilt, die parallel ausgeführt werden, um die Daten schneller zu verarbeiten. Weitere Informationen finden Sie unter Spark Application Monitoring.

  • Apache Spark-Auftrag: Ein Spark-Auftrag ist Teil einer Spark-Anwendung, die parallel zu anderen Aufträgen in der Anwendung ausgeführt wird. Ein Auftrag besteht aus mehreren Aufgaben. Weitere Informationen finden Sie unter Spark-Auftragsüberwachung.

  • Apache Spark-Auftragsdefinition: Eine Spark-Auftragsdefinition ist eine Reihe von Parametern, die vom Benutzer festgelegt werden und angeben, wie eine Spark-Anwendung ausgeführt werden soll. Sie können Batch- oder Streamingaufträge an den Spark-Cluster übermitteln. Weitere Informationen finden Sie unter Was ist eine Apache Spark-Auftragsdefinition?

  • V-Order: Eine Schreiboptimierung für das Parquet-Dateiformat, die schnelle Lesevorgänge ermöglicht und Kosteneffizienz sowie bessere Leistung bietet. Alle Fabric-Motoren schreiben standardmäßig v-geordnete Parkettdateien.

Datenfabrik

  • Connector: Data Factory bietet eine umfassende Reihe von Connectors, mit der Sie Verbindungen mit verschiedenen Arten von Datenspeichern herstellen können. Nach der Verbindung können Sie die Daten transformieren. Weitere Informationen finden Sie unter Connectors.

  • Datenpipeline: In Data Factory wird eine Datenpipeline zum Koordinieren von Datenbewegungen und -transformationen verwendet. Diese Pipelines unterscheiden sich von den Bereitstellungspipelines in Fabric. Weitere Informationen finden Sie unter Pipelines in der Data Factory-Übersicht.

  • Dataflow Gen2: Dataflows bieten eine Low-Code-Schnittstelle zum Aufnehmen von Daten aus Hunderten von Datenquellen und zum Transformieren Ihrer Daten. Dataflows in Fabric werden als Dataflow Gen2 bezeichnet. Dataflow Gen1 ist in Power BI vorhanden. Dataflow Gen2 bietet zusätzliche Funktionen im Vergleich zu Dataflows in Azure Data Factory oder Power BI. Sie können kein Upgrade von Gen1 auf Gen2 durchführen. Weitere Informationen finden Sie unter Dataflows in der Data Factory-Übersicht.

  • Trigger: Eine Automatisierungsfunktion in Data Factory, die Pipelines basierend auf bestimmten Bedingungen initiiert, z. B. Zeitpläne oder Datenverfügbarkeit.

Fabric Data Science

  • Data Wrangler: Data Wrangler ist ein auf Notebooks basierendes Tool, das Benutzende eine umfassende Oberfläche für die Durchführung explorativer Datenanalysen bietet. Das Feature kombiniert eine rasterähnliche Datenanzeige mit dynamischen Zusammenfassungsstatistiken und einer Reihe allgemeiner Datenbereinigungsvorgänge, die alle mit einigen ausgewählten Symbolen verfügbar sind. Jeder Vorgang generiert Code, der als wiederverwendbares Skript wieder im Notizbuch gespeichert werden kann.

  • Experiment: Ein Machine Learning Experiment ist die primäre Einheit der Organisation und Kontrolle für alle zugehörigen Machine Learning-Ausführungen. Weitere Informationen finden Sie unter Maschinelle Lernexperimente in Microsoft Fabric.

  • Modell: Ein Machine Learning-Modell ist eine Datei, die geschult ist, um bestimmte Arten von Mustern zu erkennen. Sie trainieren ein Modell mit einer Datenmenge und geben ihm einen Algorithmus, den es verwendet, um über diesen Datensatz zu schlussfolgern und aus ihm zu lernen. Weitere Informationen finden Sie unter Machine Learning Model.

  • Lauf: Ein Lauf entspricht einem einzelnen Durchgang von Modellcode. In MLflow-basiert das Tracking auf Experimenten und Läufen.

Fabric Data Warehouse

  • SQL-Analyseendpunkt: Each Lakehouse verfügt über einen SQL-Analyseendpunkt, der es einem Benutzer ermöglicht, Delta-Tabellendaten mit TSQL über TDS abzufragen. Weitere Informationen finden Sie unter SQL-Analyse-Endpunkt.

  • Fabric Data Warehouse: Das Fabric Data Warehouse fungiert als herkömmliches Data Warehouse und unterstützt die vollständigen Transaktions-T-SQL-Funktionen, die Sie von einem Enterprise Data Warehouse erwarten würden. Weitere Informationen finden Sie unter Fabric Data Warehouse.

Real-Time Intelligence

  • Aktivator: Aktivator ist ein No-Code- und Low-Code-Tool, mit dem Sie Warnungen, Auslöser und Aktionen für Ihre Daten erstellen können. Aktivator wird verwendet, um Benachrichtigungen für Ihre Datenströme zu erstellen. Weitere Informationen finden Sie unter Aktivator.

  • Eventhouse: Eventhouses bieten eine Lösung zum Behandeln und Analysieren großer Datenmengen, insbesondere in Szenarien, die Echtzeitanalysen und Exploration erfordern. Sie sind so konzipiert, dass Datenströme in Echtzeit effizient verarbeitet werden, wodurch Organisationen Daten in nahezu Echtzeit aufnehmen, verarbeiten und analysieren können. Ein einzelner Arbeitsbereich kann mehrere Eventhouses enthalten, ein Eventhouse kann mehrere KQL-Datenbanken enthalten, und jede Datenbank kann mehrere Tabellen enthalten. Weitere Informationen finden Sie unter Eventhouse-Übersicht.

  • Eventstream: Das Feature "Microsoft Fabric eventstreams" bietet einen zentralen Ort in der Fabric-Plattform zum Erfassen, Transformieren und Weiterleiten von Echtzeitereignissen an Ziele ohne Code. Ein Eventstream besteht aus verschiedenen Streamingdatenquellen, Aufnahmezielen und einem Ereignisprozessor, wenn die Transformation erforderlich ist. Weitere Informationen finden Sie unter Microsoft Fabric eventstreams.

  • KQL-Datenbank: Die KQL-Datenbank enthält Daten in einem Format, mit dem Sie KQL-Abfragen ausführen können. KQL-Datenbanken sind Elemente unter einem Eventhouse. Weitere Informationen finden Sie unter KQL-Datenbank.

  • KQL Queryset: Das KQL-Abfrageset ist das Element, das zum Ausführen von Abfragen, Anzeigen von Ergebnissen und Bearbeiten von Abfrageergebnissen aus ihrer Daten-Explorer-Datenbank verwendet wird. Das Abfrageset enthält die Datenbanken und Tabellen, die Abfragen und die Ergebnisse. Mit dem KQL Queryset können Sie Abfragen für die zukünftige Verwendung speichern oder Abfragen für andere exportieren und freigeben. Weitere Informationen finden Sie unter Abfragen von Daten im KQL-Abfrage.

Echtzeit-Hub

  • Real-Time hub: Real-Time hub ist die zentrale Anlaufstelle für alle Daten in Bewegung innerhalb der gesamten Organisation. Alle Microsoft Fabric-Mandanten werden automatisch mit dem Hub bereitgestellt. Weitere Informationen finden Sie unter Übersicht über Echtzeit-Hubs.

OneLake

  • Verknüpfung: Verknüpfungen sind eingebettete Verweise in OneLake, die auf andere Dateispeicherorte verweisen. Sie bieten eine Möglichkeit, eine Verbindung mit vorhandenen Daten herzustellen, ohne sie direkt kopieren zu müssen. Weitere Informationen finden Sie unter OneLake-Verknüpfungen.