Modifier

Partager via


Greenfield lakehouse sur Microsoft Fabric.

Microsoft Fabric
Power BI

Cet exemple de charge de travail illustre une solution greenfield pour créer une plateforme de données évolutive en utilisant Microsoft Fabric et le paradigme de conception lakehouse. Fabric est une plateforme qui intègre le stockage, le traitement et l’analyse des données. Un lakehouse greenfield fournit un point de départ propre pour concevoir un écosystème de données efficace et pérenne.

Architecture

Diagramme illustrant une solution greenfield pour construire une plateforme de données robuste et évolutive en utilisant le paradigme de conception lakehouse sur Microsoft Fabric.

Téléchargez un fichier Visio de cette architecture.

Dataflow

Cette conception reflète l’architecture Lambda, qui sépare le traitement des données en deux couches :

  • Une couche de traitement par lots à grand volume traitée périodiquement pour des analyses historiques
  • Une couche de traitement de flux à faible latence et à haut débit pour les analyses en temps réel

Le chemin de traitement de flux ingère et traite les données en quasi-temps réel, ce qui le rend idéal pour les tableaux de bord et la détection des anomalies. Le chemin de traitement par lots gère l’ensemble du jeu de données, garantissant la cohérence des données et permettant des analyses historiques complexes. Cette approche à deux volets offre des informations en temps réel tout en maintenant un enregistrement fiable pour une exploration ultérieure.

Chemin froid : Analyse par lots

Les entrepôts de données, qui reposent sur les sémantiques relationnelles SQL, sont l’approche conventionnelle pour l’analyse des données historiques. Cependant, ce modèle a évolué au fil du temps, et les lakehouses sont la norme actuelle de l’industrie pour l’analyse des données par lots. Un lakehouse est construit sur des formats de fichiers open source et, contrairement aux entrepôts de données traditionnels, s’adapte à tous les types de données : structurées, semi-structurées et non structurées. La couche de calcul d’un lakehouse est généralement construite sur le framework Apache Spark, qui est le moteur préféré pour le traitement des big data en raison de sa capacité de calcul distribué et de ses performances élevées. Fabric offre une expérience lakehouse native basée sur le format de fichier open source Delta Lake et un runtime Spark géré.

Une implémentation de lakehouse utilise généralement l’architecture médaille. Dans cette architecture, la couche bronze contient les données brutes, la couche argent contient les données validées et dédupliquées, et la couche or contient des données hautement raffinées, adaptées aux cas d’utilisation orientés métier. Cette approche fonctionne dans toutes les organisations et industries. Bien qu’il s’agisse de l’approche générale, vous pouvez la personnaliser selon vos besoins. Cette architecture montre comment créer un lakehouse en utilisant les composants natifs de Fabric.

Ingestion de données via Data Factory

(Voir l’étape 1 dans le diagramme).

La fonctionnalité Azure Data Factory dans Fabric fournit les capacités du service Azure Data Factory, un service d’intégration de données largement utilisé. Bien que le service Data Factory fournisse principalement des capacités d’orchestration via des pipelines, la fonctionnalité dans Fabric propose à la fois des pipelines et des flux de données.

  • Les pipelines de données permettent d’appliquer des capacités d’orchestration de données avancées pour composer des workflows de données flexibles qui répondent aux besoins de votre entreprise.
  • Les flux de données permettent d’utiliser plus de 300 transformations dans le concepteur de flux de données. Vous pouvez utiliser ces transformations pour transformer les données en utilisant une interface graphique similaire à celle de Power Query. Ces transformations incluent des transformations de données intelligentes basées sur l’IA. Les flux de données peuvent également écrire des données dans des magasins de données natifs de Fabric, tels que le lakehouse, l’entrepôt, Azure SQL et les bases de données Kusto.

Selon vos besoins, vous pouvez utiliser l’une ou les deux capacités pour créer un cadre d’ingestion de métadonnées riche. Vous pouvez intégrer des données de divers systèmes sources selon un calendrier défini ou en utilisant des déclencheurs d’événements.

Transformations de données

(Voir l’étape 2 dans le diagramme).

Il existe deux approches pour la préparation et la transformation des données. Si vous préférez une expérience orientée code, vous pouvez utiliser des notebooks Spark. Si vous préférez une expérience sans code ou à faible code, vous pouvez utiliser les flux de données.

Les notebooks Fabric sont un outil important pour développer des tâches Apache Spark. Ils fournissent une interface interactive basée sur le web que les ingénieurs de données utilisent pour écrire du code. Ils offrent également des visualisations riches et permettent l’utilisation de texte Markdown. Les ingénieurs données écrivent du code pour l’ingestion des données, la préparation des données et la transformation des données. Les data scientists utilisent les notebooks pour créer des solutions de machine learning. Par exemple, ils les utilisent pour créer des expérimentations et des modèles, ainsi que pour suivre et déployer des modèles.

Chaque espace de travail dans Fabric est doté d’un pool de démarrage Spark, utilisé pour les tâches Spark par défaut. Avec les pools de démarrage, vous pouvez obtenir une initialisation rapide des sessions Apache Spark, généralement en 5 à 10 secondes, sans configuration manuelle. Vous bénéficiez également de la flexibilité pour personnaliser les pools Spark selon vos besoins en ingénierie des données. Vous pouvez dimensionner les nœuds, auto-ajuster l’échelle et allouer dynamiquement des exécutants en fonction des besoins de vos tâches Spark. Pour les personnalisations du runtime Spark, vous pouvez utiliser les environnements. Dans un environnement, vous pouvez configurer les propriétés de calcul, sélectionner différents runtimes et configurer les dépendances de paquets de bibliothèques selon les besoins de votre charge de travail.

Les flux de données permettent d’extraire des données de diverses sources, de les transformer en utilisant un large éventail d’opérations et, éventuellement, de les charger dans une destination. Traditionnellement, les ingénieurs Données consacrent beaucoup de temps à extraire, transformer et charger des données dans un format consommable pour l’analytique en aval. Dataflow Gen2 fournit une manière simple et réutilisable d’effectuer des tâches ETL (extraction, transformation, chargement) en utilisant des repères visuels dans Power Query Online. Le flux de données conserve toutes les étapes de transformation. Pour effectuer d’autres tâches ou charger des données vers une autre destination après la transformation, créez un pipeline de données et ajoutez l’activité Dataflow Gen2 à votre orchestration de pipeline.

Chemin chaud : Analytique en temps réel

Le traitement de données en temps réel est essentiel pour les entreprises qui souhaitent rester agiles, prendre des décisions éclairées rapidement et tirer parti des informations immédiates pour améliorer les opérations et les expériences client. Dans Fabric, cette capacité est fournie par le service Real-Time Intelligence. Il comprend plusieurs fonctionnalités de Fabric regroupées et accessibles via le Real-Time hub. Le Real-Time hub fournit un point central pour les données en mouvement dans toute votre organisation.

Real-Time Intelligence dans Fabric permet l’analyse et la visualisation des données pour les scénarios événementiels, les données en flux continu et les journaux de données. Il connecte les données basées sur le temps provenant de diverses sources en utilisant un catalogue de connecteurs sans code et fournit une solution de bout en bout pour l’ingestion, la transformation, le stockage, l’analyse, la visualisation, le suivi, l’IA et les actions en temps réel. Bien que le nom du service utilise le terme en temps réel, vos données n’ont pas besoin de circuler à des taux et des volumes élevés. Real-Time Intelligence fournit des solutions déclenchées par des événements, plutôt que des solutions basées sur un calendrier.

Ingestion en temps réel

(Voir l’étape 3 dans le diagramme).

Event streams est une fonctionnalité de Fabric qui permet une méthode sans code pour ingérer des événements en temps réel provenant de diverses sources et les envoyer vers différentes destinations. Elle permet le filtrage, la transformation, l’agrégation et le routage des données en fonction de leur contenu. Vous pouvez également l’utiliser pour créer de nouveaux flux à partir de ceux existants et les partager dans toute l’organisation via le Real-Time hub. Eventstreams prend en charge plusieurs sources et destinations de données. Vous pouvez utiliser une large gamme de connecteurs pour des sources externes telles que les clusters Apache Kafka, les flux de capture de données modifiées (Change Data Capture) des bases de données, les sources de streaming AWS (Kinesis) et Google (GCP Pub/Sub).

Vous créez un eventstream, ajoutez des sources de données d’événements au flux, ajoutez éventuellement des transformations pour transformer les données d’événement, puis dirigez les données vers les destinations prises en charge. Le lakehouse Fabric est l’une des destinations prises en charge, ce qui vous permet de transformer vos événements en temps réel avant de les ingérer dans votre lakehouse. Les événements en temps réel sont convertis en format Delta Lake, puis stockés dans les tables lakehouse désignées. Ce modèle permet des scénarios d’entreposage de données et d’analyse historique de vos données en flux rapide.

Analyse en temps réel

(Voir l’étape 4 dans le diagramme).

Lorsque vous utilisez Real-Time Intelligence dans Fabric, en fonction de vos cas d’utilisation, il existe deux voies typiques pour les données en streaming : les éléments Reflex et les eventhouses.

Un reflex est un élément Fabric qui vous permet de réagir à la survenue d’une condition de données en temps réel. Cette réaction peut être un simple message d’alerte via e-mail ou Microsoft Teams, ou peut inclure l’exécution d’une action personnalisée en déclenchant un flux Power Automate. Vous pouvez également déclencher tout élément Fabric depuis vos reflexes. De nombreux cas d’observabilité sont pris en charge par les reflexes, dont l’un consiste à réagir aux données en flux continu à mesure qu’elles arrivent dans les eventstreams.

Un eventhouse est un regroupement d’une ou plusieurs bases de données KQL (Kusto Query Language). Les bases de données KQL sont conçues pour les événements de flux en temps réel de données structurées, semi-structurées et non structurées. Les données sont automatiquement indexées et partitionnées en fonction du temps d’ingestion, ce qui permet des capacités de requêtes analytiques complexes et rapides, même au fur et à mesure que les données circulent. Les données stockées dans les eventhouses peuvent être rendues disponibles dans OneLake pour être utilisées par d’autres processus Fabric. Vous pouvez interroger ces données en utilisant différentes options de code, faible code ou sans code dans Fabric, y compris KQL et T-SQL natifs dans la requête KQL.

Les tableaux de bord en temps réel sont conçus pour fournir des informations immédiates à partir des données qui affluent dans vos eventhouses. Vous pouvez ajouter différents types de visuels à un tableau de bord, tels que des graphiques et des diagrammes, et les personnaliser selon vos besoins. Les tableaux de bord en temps réel servent spécifiquement à identifier rapidement les tendances et les anomalies dans les données à haute vélocité qui arrivent dans un eventhouse. Ils diffèrent des tableaux de bord Power BI, qui conviennent aux charges de travail de reporting BI d’entreprise.

Service de données

(Voir l’étape 5 dans le diagramme).

Il existe diverses options de faible code ou pro-code pour consommer des données à partir des lakehouses et des eventhouses Fabric.

Point de terminaison d’analytique SQL

Un point de terminaison SQL Analytics est automatiquement généré pour chaque lakehouse dans Fabric. Un point de terminaison SQL Analytics est en lecture seule. Pour modifier les données, vous devez passer en mode lakehouse et utiliser Spark. Vous pouvez utiliser le point de terminaison SQL Analytics directement dans le portail Fabric pour interroger les données en passant du mode lakehouse au mode SQL du lakehouse. Alternativement, vous pouvez utiliser la chaîne de connexion SQL d’un lakehouse pour vous connecter avec des outils clients tels que Power BI, Excel et SQL Server Management Studio. Cette option est adaptée aux analystes de données et aux analystes métiers au sein d’une équipe de données.

Notebooks Spark

Les notebooks sont un moyen populaire d’interagir avec les données du lakehouse. Fabric fournit une interface interactive basée sur le web que les travailleurs des données peuvent utiliser pour écrire du code. Ces travailleurs peuvent appliquer des visualisations riches et du texte Markdown. Les ingénieurs données écrivent du code pour l’ingestion des données, la préparation des données et la transformation des données. Les data scientists utilisent les notebooks pour explorer les données, créer des expériences et des modèles de machine learning, et pour suivre et déployer des modèles. Cette option est adaptée aux ingénieurs de données et aux data scientists professionnels.

Power BI

Chaque lakehouse dans Fabric est doté d’un modèle sémantique prédéfini par défaut. Il est automatiquement créé lorsque vous configurez un lakehouse et y chargez des données. Ces modèles héritent de la logique métier du lakehouse pour faciliter la création de rapports et de tableaux de bord Power BI directement depuis l’expérience lakehouse. Vous pouvez également créer des modèles sémantiques personnalisés, basés sur des exigences métier spécifiques, sur les tables de lakehouse. Lorsque vous créez des rapports Power BI sur un lakehouse, vous pouvez utiliser le mode Direct Lake, qui ne nécessite pas d’importer les données séparément. Ce mode permet d’obtenir des performances en mémoire pour vos rapports sans déplacer vos données en dehors du lakehouse.

API personnalisées

Fabric fournit une surface API riche pour tous ses éléments. OneLake permet un accès ouvert à tous les éléments Fabric via les API et SDK de Azure Data Lake Storage. Vous pouvez accéder à vos données dans OneLake via n’importe quelle API, SDK ou outil compatible avec Data Lake Storage en utilisant simplement un URI OneLake. Vous pouvez télécharger des données dans un lakehouse en utilisant Azure Storage Explorer ou lire une table delta via un raccourci depuis Azure Databricks. OneLake prend également en charge le pilote ABFS (Azure Blob Filesystem) pour plus de compatibilité avec Data Lake Storage et Stockage Blob Azure. Pour consommer des données en flux continu dans les applications en aval, vous pouvez envoyer les données d’eventstream vers un point de terminaison API personnalisé. Vous pouvez ensuite consommer cette sortie en streaming depuis Fabric en utilisant Azure Event Hubs ou le protocole AMQP ou Kafka.

Power Automate

Power Automate est une plateforme d’applications à faible code que vous pouvez utiliser pour automatiser les tâches répétitives et manipuler vos données. L’élément reflex dans Fabric prend en charge les flux Power Automate en tant que destination. Cette intégration débloque de nombreux cas d’utilisation et vous permet de déclencher des actions en aval en utilisant une large gamme de connecteurs, pour les systèmes Microsoft et non Microsoft.

Composants

Les composants suivants sont utilisés dans cette solution.

  • Fabric : une plateforme d’analytique de données basée sur le cloud, de bout en bout, conçue pour les entreprises. Elle fournit un environnement unifié pour diverses tâches liées aux données, comme l’ingestion, la transformation, l’analyse et la visualisation des données.

    • OneLake : le hub central pour toutes vos données dans Fabric. Il est conçu comme un lac de données ouvert, ce qui signifie qu’il peut stocker des données dans leur format natif, quel que soit leur niveau de structuration.

    • Data Factory : un service cloud d’ETL et d’orchestration pour automatiser les mouvements et transformations de données. Il vous permet d’automatiser les mouvements et transformations de données à grande échelle à travers diverses sources de données.

    • Data engineering : des outils qui permettent la collecte, le stockage, le traitement et l’analyse de grands volumes de données.

    • Data Science : des outils permettant d’accomplir des workflows complets de science des données pour enrichir les données et obtenir des insights commerciaux.

    • Real-Time Intelligence : un service qui fournit des capacités d’ingestion et de traitement de flux. Il permet d’obtenir des insights à partir de données constamment mises à jour pour une prise de décision rapide basée sur les tendances et anomalies en temps réel.

    • Copilot : un outil que vous pouvez utiliser pour analyser les données, générer des insights et créer des visualisations et rapports dans Fabric et Power BI en utilisant le langage naturel.

  • Power BI : un outil de business intelligence pour créer des tableaux de bord interactifs et des rapports pour visualiser les données et obtenir des insights.

Autres solutions

Fabric offre un ensemble d’outils robustes, mais, en fonction de vos besoins spécifiques, vous pourriez bénéficier de fonctionnalités améliorées proposées par des services alternatifs dans l’écosystème Azure.

  • Azure Databricks peut remplacer ou compléter les capacités d’ingénierie des données natives de Fabric. Azure Databricks offre une alternative pour le traitement de données à grande échelle en fournissant un environnement Apache Spark basé sur le cloud. Azure Databricks fournit également une gouvernance commune pour l’ensemble de votre patrimoine de données et des fonctionnalités permettant de répondre aux cas d’utilisation clés tels que la science des données, l’ingénierie des données, le machine learning, l’IA et les analyses basées sur SQL.

  • Azure Machine Learning peut remplacer ou compléter les outils de science des données natifs de Fabric. Azure Machine Learning va au-delà des capacités d’expérimentation et de gestion des modèles de Fabric en ajoutant des fonctionnalités permettant d’héberger des modèles pour des cas d’utilisation d’inférence en ligne, de surveiller les dérives des modèles et de créer des applications d’IA générative personnalisées.

Détails du scénario

Cette architecture s’applique aux scénarios suivants :

  • Organisations qui démarrent à partir de zéro, sans contraintes de systèmes existants.
  • Organisations qui anticipent des volumes de données entre 0,5 To et 1,5 To.
  • Organisations qui préfèrent un modèle simple et rationalisé qui équilibre les considérations de coût, de complexité et de performance.
  • Organisations qui ont besoin d’une plateforme de données simple, rentable et performante répondant aux besoins en matière de reporting, d’analytique et de machine learning.
  • Organisations qui souhaitent intégrer des données de multiples sources pour une vue unifiée.

Cette solution n’est pas recommandée dans les cas suivants :

  • Équipes avec une expérience en SQL ou en bases de données relationnelles et ayant des compétences limitées en Apache Spark.
  • Organisations qui migrent d’un système ou entrepôt de données existant vers une plateforme moderne.

Considérations

Ces considérations implémentent les piliers d’Azure Well-Architected Framework qui est un ensemble de principes directeurs qui permettent d’améliorer la qualité d’une charge de travail. Pour plus d’informations, consultez Microsoft Azure Well-Architected Framework.

Fiabilité

La fiabilité permet de s’assurer que votre application tient vos engagements auprès de vos clients. Pour en savoir plus, consultez Liste de contrôle de l'examen de la conception pour la fiabilité.

Fabric réplique automatiquement les ressources à travers les zones de disponibilité sans nécessiter de configuration. Par exemple, en cas de panne de zone, aucune action n’est requise pour récupérer une zone. Dans les régions prises en charge, Fabric peut auto-guérir et rééquilibrer automatiquement pour tirer parti d’une zone saine.

Sécurité

La sécurité fournit des garanties contre les attaques délibérées, et contre l’utilisation abusive de vos données et systèmes importants. Pour en savoir plus, consultez Liste de contrôle de l'examen de la conception pour la sécurité.

Vous pouvez utiliser Fabric pour gérer, contrôler et auditer vos paramètres de sécurité en fonction de vos besoins et demandes évolutifs. Les principales recommandations de sécurité pour l’utilisation de Fabric incluent :

  • Authentification. Configurer le single sign-on (SSO) dans Microsoft Entra ID pour fournir un accès à partir de divers appareils et emplacements.

  • Contrôle d’accès en fonction du rôle (RBAC). Mettre en place un contrôle d’accès basé sur les espaces de travail pour gérer qui peut accéder et interagir avec des ensembles de données spécifiques.

  • Sécurité réseau. Utiliser les contrôles de sécurité réseau d’entrée et de sortie de Fabric lorsque vous vous connectez à des données ou des services au sein ou en dehors de votre réseau. Les fonctionnalités clés incluent l’accès conditionnel, les liens privés, l’accès aux espaces de travail de confiance et les points de terminaison privés gérés.

  • Journaux d’audit. Utilisez les journaux d’audit détaillés fournis par Fabric pour suivre les activités des utilisateurs et garantir la responsabilité sur toute la plateforme.

Pour plus d’informations, consultez Sécurité dans Microsoft Fabric.

Optimisation des coûts

L’optimisation des coûts consiste à réduire les dépenses inutiles et à améliorer les efficacités opérationnelles. Pour plus d’informations, consultez Vue d’ensemble du pilier d’optimisation des coûts.

Fabric propose des réservations de capacité pour un certain nombre d’unités de capacité (CU). Les réservations de capacité peuvent vous aider à économiser des coûts lorsque vous vous engagez à une réservation pour votre utilisation de la capacité Fabric pendant un an.

Pour maximiser l’utilisation de votre capacité Fabric, tenez compte des recommandations suivantes :

  • Dimensionner les SKU F. Pour déterminer la taille de capacité appropriée, vous pouvez approvisionner des capacités d’essai ou des SKU F à la demande pour mesurer la taille de capacité dont vous avez besoin avant d’acheter une instance réservée SKU F. Nous recommandons d’effectuer une preuve de concept ciblée avec une charge de travail représentative, de surveiller l’utilisation des CU, puis d’extrapoler pour obtenir une estimation de l’utilisation des CU en production. Fabric offre une montée en charge fluide. Vous pouvez commencer avec une capacité de taille modérée et augmenter si vous avez besoin de plus de capacité.
  • Surveiller les schémas d’utilisation. Suivre et analyser régulièrement votre utilisation pour identifier les heures de pointe et les périodes creuses. Cela peut vous aider à comprendre quand vos ressources sont les plus utilisées, afin de planifier les tâches non critiques pendant les heures creuses et d’éviter les pics d’utilisation des CU.
  • Optimiser les requêtes et charges de travail. Assurez-vous que vos requêtes et charges de travail sont optimisées pour réduire les utilisations de calcul inutiles. Optimiser les requêtes DAX, le code Python et d’autres opérations.
  • Utiliser le bursting et le lissage. Utilisez les fonctionnalités de bursting et de lissage de Fabric pour gérer les activités à forte intensité de CPU sans nécessiter un SKU plus élevé. Cela peut vous aider à gérer les coûts tout en maintenant les performances. Pour plus d’informations, veuillez consulter la section Évaluer et optimiser votre capacité Fabric.
  • Configurer des alertes et notifications. Configurer des alertes proactives pour que les administrateurs de capacité puissent surveiller et gérer une utilisation élevée de calcul. Cela leur permet de prendre des mesures en temps voulu pour éviter les dépassements de coûts.
  • Mettre en œuvre la gestion des charges de travail. Planifiez les travaux de longue durée à des horaires décalés en fonction de la disponibilité des ressources et de la demande système pour optimiser l’utilisation de la capacité. Pour plus d’informations, consultez la section Gestion des charges de travail.

Gardez également à l’esprit les considérations suivantes :

  • La tarification Data Lake Storage dépend de la quantité de données que vous stockez et de la fréquence à laquelle vous utilisez ces données. Le prix d’exemple inclut 1 To de données stockées et d’autres hypothèses transactionnelles. 1 To fait référence à la taille du lac de données, et non à la taille initiale de la base de données héritée.
  • Le tarif de Fabric est basé sur le prix de la capacité SKU F de Fabric ou sur le prix Premium Per User. Les capacités serverless consomment du CPU et de la mémoire à partir de la capacité dédiée achetée.
  • Event Hubs est facturé en fonction du niveau, des unités de débit provisionnées et du trafic d’entrée reçu. L’exemple se base sur une unité de débit dans le niveau Standard sur 1 million d’événements par mois.

Excellence opérationnelle

L’excellence opérationnelle couvre les processus opérationnels qui déploient une application et la maintiennent en production. Pour plus d’informations, consultez la Liste de contrôle de l'examen de la conception pour l'excellence opérationnelle.

Fabric fournit de nombreux composants pour vous aider à gérer votre plateforme de données. Chacun de ces composants prend en charge des opérations uniques que vous pouvez visualiser dans l’application Microsoft Fabric Capacity Metrics. Utilisez l’application Fabric Capacity Metrics pour surveiller votre consommation de capacité et prendre des décisions éclairées sur l’utilisation de vos ressources de capacité.

Efficacité des performances

L’efficacité des performances est la capacité de votre charge de travail à s’adapter à la demande des utilisateurs de façon efficace. Pour en savoir plus, consultez Liste de vérification de l'examen de la conception pour l'efficacité des performances

Fabric propose plusieurs fonctionnalités pour optimiser les performances de ses composants. Ces outils et pratiques peuvent vous aider à gérer les ressources de calcul de manière efficace, à éviter la surcharge et à prendre des décisions éclairées sur la mise à l’échelle et l’optimisation des charges de travail.

Certaines des principales capacités d’efficacité des performances dans Fabric incluent :

  • Bursting et lissage, pour garantir que les activités intensives en CPU soient rapidement complétées sans nécessiter un SKU plus élevé. Planifiez ces activités à tout moment de la journée.

  • Throttling, pour retarder ou rejeter les opérations lorsque la capacité rencontre une demande CPU soutenue au-dessus de la limite SKU.

  • L’application Fabric Capacity Metrics, pour visualiser l’utilisation de la capacité, optimiser les performances des artefacts et optimiser les éléments à forte consommation de calcul. L’application distingue les opérations interactives (comme les requêtes DAX) et les opérations en arrière-plan (comme les actualisations des modèles sémantiques) pour des optimisations ciblées.

Contributeurs

Cet article est géré par Microsoft. Il a été écrit à l’origine par les contributeurs suivants.

Principaux auteurs :

Pour afficher les profils LinkedIn non publics, connectez-vous à LinkedIn.

Étapes suivantes