Terminologie de Microsoft Fabric
Découvrez les définitions des termes utilisés dans Microsoft Fabric, y compris les termes spécifiques à Fabric Data Warehouse, Fabric Data Engineering, Fabric Data Science, Real-Time Intelligence, Data Factory et Power BI.
Conditions générales
Capacité : La capacité est un ensemble dédié de ressources disponibles pour être utilisées à un moment donné. La capacité définit la capacité d’une ressource à effectuer une activité ou à produire une sortie. Différents éléments consomment une capacité différente à un moment donné. Fabric offre une capacité via les références SKU et les versions d’essai de Fabric. Pour plus d’informations, consultez Qu’est-ce que la capacité ?
Expérience : Une collection de capacités ciblées sur une fonctionnalité spécifique. Les expériences Fabric incluent Fabric Data Warehouse, Fabric Data Engineering, Fabric Data Science, Real-Time Intelligence, Data Factory et Power BI.
Élément : Un élément un ensemble de fonctionnalités au sein d’une expérience. Les utilisateurs peuvent créer, modifier et supprimer ces derniers. Chaque type d’élément fournit des fonctionnalités différentes. Par exemple, l’expérience Engineering données comprend les éléments de définition de travail lakehouse, notebook et Spark.
Locataire : Un locataire est une instance unique de Fabric pour une organisation et est alignée avec un ID Microsoft Entra.
Espace de travail : Un espace de travail est une collection d’éléments qui regroupe différentes fonctionnalités dans un environnement unique conçu pour la collaboration. Il agit en tant que conteneur qui utilise la capacité pour le travail exécuté et fournit des contrôles pour qui peut accéder aux éléments qu’il contient. Par exemple, dans un espace de travail, les utilisateurs créent des rapports, des notebooks, des modèles sémantiques, etc. Pour plus d’informations, consultez l’article Espaces de travail.
Ingénierie des données Fabric
Lakehouse : A lakehouse est une collection de fichiers, de dossiers et de tables qui représentent une base de données sur un lac de données utilisé par le moteur Apache Spark et le moteur SQL pour le traitement du Big Data. Un lakehouse inclut des fonctionnalités améliorées pour les transactions ACID lors de l’utilisation des tables mises en forme Delta open source. L’élément lakehouse est hébergé dans un dossier d’espace de travail unique dans Microsoft OneLake. Il contient des fichiers dans différents formats (structurés et non structurés) organisés dans des dossiers et sous-dossiers. Pour plus d’informations, consultez Qu’est-ce qu’une maison sur un lac ?
Notebook : Un notebook Fabric est un outil de programmation interactif multilingue avec des fonctionnalités riches. Ce qui inclut la création de code et markdown, l’exécution et la surveillance d’un travail Spark, l’affichage et la visualisation des résultats et la collaboration avec l’équipe. Il permet aux ingénieurs de données et aux scientifiques des données d’explorer et de traiter les données, et de créer des expériences de Machine Learning avec du code et de l’expérience à faible code. Il peut être facilement transformé en activité de pipeline pour l’orchestration.
application Spark : Une application Apache Spark est un programme écrit par un utilisateur à l’aide de l’un des langages d’API Spark (Scala, Python, Spark SQL ou Java) ou des langages ajoutés par Microsoft (.NET avec C# ou F#). Lorsqu’une application s’exécute, elle est divisée en un ou plusieurs travaux Spark qui s’exécutent en parallèle pour traiter les données plus rapidement. Pour plus d’informations, consultez Monitoring des applications Spark.
tâche Apache Spark : Une tâche Spark fait partie d’une application Spark qui s'exécute en parallèle avec d’autres tâches de l’application. Un travail se compose de plusieurs tâches. Pour plus d’informations, consultez Monitoring des travaux Spark.
définition de travail Apache Spark : une définition de travail Spark est un ensemble de paramètres, défini par l’utilisateur, indiquant comment une application Spark doit être exécutée. Il vous permet d’envoyer des tâches de traitement par lots ou de diffusion en continu au cluster Spark. Pour plus d’informations, consultez Qu’est-ce qu’une définition de travail Apache Spark ?
V-order : optimisation de l’écriture au format de fichier parquet qui permet des lectures rapides et offre plus de rentabilité et de meilleures performances. Tous les moteurs Fabric écrivent des fichiers Parquet triés en V par défaut.
Usine de Données
connecteur : Data Factory offre un ensemble complet de connecteurs qui vous permettent de vous connecter à différents types de magasins de données. Une fois connecté, vous pouvez transformer les données. Pour plus d'informations, consultez les connecteurs .
Pipeline de données : dans Data Factory, un pipeline de données est utilisé pour orchestrer le déplacement et la transformation des données. Ces pipelines sont différents des pipelines de déploiement dans Fabric. Pour plus d’informations, consultez pipelines dans la vue d’ensemble de Data Factory.
Dataflow Gen2 : Dataflows fournissent une interface à faible code pour l’ingestion de données à partir de centaines de sources de données et la transformation de vos données. Les dataflows dans Fabric sont appelés Dataflow Gen2. Dataflow Gen1 existe dans Power BI. Dataflow Gen2 offre des fonctionnalités supplémentaires par rapport aux dataflows dans Azure Data Factory ou Power BI. Vous ne pouvez pas effectuer de mise à niveau de Gen1 vers Gen2. Pour plus d’informations, consultez dataflows dans la vue d’ensemble de Data Factory.
Déclencheur : Une fonctionnalité d’automatisation dans Data Factory qui lance des pipelines en fonction de conditions spécifiques, telles que des planifications ou la disponibilité des données.
Fabric Data Science
Data Wrangler : Data Wrangler est un outil basé sur un notebook qui fournit aux utilisateurs une expérience immersive pour effectuer une analyse exploratoire des données. La fonctionnalité combine un affichage de données de type grille avec des statistiques de synthèse dynamique et un ensemble d’opérations courantes de nettoyage des données, toutes disponibles avec quelques icônes sélectionnées. Chaque opération génère du code qui peut être enregistré dans le notebook en tant que script réutilisable.
Expérience : Une expérience De Machine Learning est l’unité principale de l’organisation et du contrôle pour toutes les exécutions de Machine Learning associées. Pour plus d’informations, consultez expériences Machine Learning dans Microsoft Fabric.
Modèle : Un modèle Machine Learning est un fichier formé pour reconnaître certains types de modèles. Vous entraînez un modèle sur un ensemble de données et vous lui fournissez un algorithme qu’il utilise pour raisonner et apprendre à partir de ce jeu de données. Pour plus d’informations, consultez modèle Machine Learning.
Exécuter : Une exécution correspond à une seule exécution du code de modèle. Dans MLflow, le suivi est basé sur des expériences et des exécutions.
Entrepôt de données Fabric
point de terminaison analytique SQL : Chaque Lakehouse a un point de terminaison analytique SQL qui permet à un utilisateur d’interroger des données de table delta avec TSQL sur TDS. Pour plus d’informations, consultez point de terminaison SQL Analytics.
Fabric Data Warehouse : L’entrepôt de données Fabric fonctionne comme entrepôt de données traditionnel et prend en charge les fonctionnalités T-SQL transactionnelles complètes que vous attendez d’un entrepôt de données d’entreprise. Pour plus d’informations, consultez Fabric Data Warehouse.
Real-Time Intelligence
Activateur : Activateur est un outil sans code, à faible code qui vous permet de créer des alertes, des déclencheurs et des actions sur vos données. L’activateur est utilisé pour créer des alertes sur vos flux de données. Pour plus d’informations, consultez Activator.
Eventhouse : Eventhouses fournissent une solution permettant de gérer et d’analyser de grands volumes de données, en particulier dans les scénarios nécessitant une analyse et une exploration en temps réel. Ils sont conçus pour gérer efficacement les flux de données en temps réel, ce qui permet aux organisations d’ingérer, de traiter et d’analyser les données en quasi temps réel. Un espace de travail unique peut contenir plusieurs Eventhouses, un eventhouse peut contenir plusieurs bases de données KQL, et chaque base de données peut contenir plusieurs tables. Pour plus d’informations, consultez la Vue d’ensemble Eventhouse.
Eventstream : La fonctionnalité Eventstreams de Microsoft Fabric offre un emplacement centralisé sur la plateforme Fabric pour capturer, transformer et acheminer des événements en temps réel vers des destinations, le tout sans nécessiter de codage. Un flux d’événements se compose de différentes sources de données de diffusion en continu, de destinations d’ingestion et d’un processeur d’événements lorsque la transformation est nécessaire. Pour plus d’informations, consultez Eventstreams Microsoft Fabric.
base de données KQL : la base de données KQL contient des données dans un format dans lequel vous pouvez exécuter des requêtes KQL. Les bases de données KQL sont des éléments sous un Eventhouse. Pour plus d’informations, consultez Base de données KQL.
ensemble de requêtes KQL : L’ensemble de requêtes KQL est l’élément utilisé pour exécuter des requêtes, afficher les résultats et manipuler les résultats des requêtes sur les données de votre base de données Data Explorer. L’ensemble de requêtes inclut les bases de données et les tables, les requêtes et les résultats. L’ensemble de requêtes KQL vous permet d’enregistrer des requêtes à des fins d’utilisation ultérieure, ou d’exporter et de partager des requêtes avec d’autres utilisateurs. Pour plus d’informations, consultez Interroger des données dans l’ensemble de requêtes KQL
Hub en temps réel
- Real-Time hub : Real-Time hub est l’emplacement unique de toutes les données en mouvement dans toute votre organisation. Chaque locataire Microsoft Fabric est automatiquement approvisionné avec le hub. Pour plus d’informations, consultez Real-Time vue d’ensemble du hub.
OneLake
- Raccourci : Les raccourcis sont des références incorporées dans OneLake qui pointent vers d’autres emplacements de stockage de fichiers. Ils fournissent un moyen de se connecter à des données existantes sans avoir à les copier directement. Pour plus d'informations, consultez les raccourcis OneLake .