Partager via


Copier de Stockage Blob Azure vers un lakehouse

Dans ce tutoriel, vous allez créer un pipeline de données pour déplacer un fichier CSV d’un dossier d’entrée d’une source Stockage Blob Azure vers une destination Lakehouse.

Prérequis

Pour commencer, vous devez remplir les conditions préalables suivantes :

  • Vérifiez que vous disposez d’un espace de travail avec Project Microsoft Fabric : Créer un espace de travail.

  • Sélectionnez le bouton Essayer maintenant ! pour préparer la source de données Stockage Blob Azure de la copie. Créez un groupe de ressources pour ce Stockage Blob Azure, puis sélectionnez Vérifier + Créer>Créer.

    Capture d’écran de l’écran Détails du projet.

    Ensuite, un Stockage Blob Azure est créé et moviesDB2.csv est chargé dans le dossier d’entrée du Stockage Blob Azure créé.

    Capture d’écran indiquant où apparaît le nouveau stockage dans le dossier.

Créer un pipeline de données

  1. Basculez vers Fabrique de données dans la page app.powerbi.com.

  2. Créez un espace de travail pour cette démonstration.

    Capture d’écran de l’écran Espace de travail.

  3. Sélectionnez Nouveau, puis Pipeline de données.

    Capture d’écran du menu Nouveau.

Copier des données à l’aide de l’assistant de copie

Dans cette session, vous allez commencer à créer un pipeline de données en suivant ces étapes. Ces étapes copient un fichier CSV d’un dossier d’entrée d’un Stockage Blob Azure vers une destination lakehouse à l’aide de l’assistant de copie.

Étape 1 : démarrer avec l’assistant de copie

  1. Sélectionnez Assistant pour copier les données sur le canevas pour ouvrir l’outil Assistant de copie pour démarrer. Vous pouvez également sélectionner Utiliser l’assistant de copie dans la liste déroulante Copier les données sous l’onglet Activités du ruban.

    Capture d’écran des deux options pour sélectionner l’assistant de copie.

Étape 2 : configurer votre source

  1. Saisissez objet blob dans le filtre de sélection, sélectionnez Objets blob Azure, puis cliquez sur Suivant.

    Capture d’écran indiquant où choisir Stockage Blob Azure comme source de données.

  2. Indiquez le nom ou l’URL de votre compte, puis créez une connexion à votre source de données en sélectionnant Créer une nouvelle connexion sous la liste déroulante Connexion.

    Capture d’écran montrant où sélectionner Nouvelle connexion.

    1. Après avoir sélectionné Créer une nouvelle connexion avec votre compte de stockage spécifié, il vous suffit de renseigner le champ Type d’authentification. Dans cette démonstration, nous allons choisir Clé de compte, mais vous pouvez choisir un autre Type d’authentification en fonction de votre préférence.

      Capture d’écran de l’écran Se connecter à une source de données de l’assistant de copie de données.

    2. Une fois votre connexion créée, il vous suffit de sélectionner Suivant pour Se connecter à une source de données.

  3. Choisissez le fichier moviesDB2.csv dans la configuration source pour afficher son aperçu, puis sélectionnez Suivant.

    Capture d’écran montrant comment choisir une source de données.

Étape 3 : configurer votre destination

  1. Sélectionnez Lakehouse.

    Capture d’écran de la boîte de dialogue Choisir la destination des données avec Lakehouse sélectionné.

  2. Saisissez un nom pour le nouveau Lakehouse. Sélectionnez ensuite Créer et connecter.

    Capture d’écran de la boîte de dialogue Choisir la destination des données avec l’option Nouveau lakehouse sélectionnée.

  3. Configurez vos données sources et mappez-les à votre destination, puis sélectionnez Suivant pour terminer vos configurations de destination.

    Capture d’écran de la boîte de dialogue Se connecter à une destination de données dans l’assistant de copie de données avec le nom de table MoviesDB renseigné.

Étape 4 : vérifier et créer votre activité Copy

  1. Passez en revue vos paramètres d’activité de copie dans les étapes précédentes, puis sélectionnez Enregistrer + Exécuter pour terminer. Vous pouvez également revenir aux étapes précédentes pour modifier vos paramètres si nécessaire dans l’outil.

    Capture d’écran de l’écran Vérifier + créer dans la boîte de dialogue de l’assistant de copie de données.

  2. Une fois l’opération terminée, l’activité de copie est ajoutée à votre canevas de pipeline de données et s’exécute directement si vous coché la case Démarrer le transfert de données immédiatement.

    Capture d’écran de l’activité Copy terminée.

Exécuter et planifier votre pipeline de données

  1. Si vous n’avez pas coché la case Démarrer le transfert de données immédiatement sur la page Revoir + Créer, basculez vers l’onglet Accueil, puis sélectionnez Exécuter. Sélectionnez ensuite Enregistrer et exécuter.

    Capture d’écran du bouton Exécuter de l’activité Copy sous l’onglet Accueil.

    Capture d’écran de la boîte de dialogue Enregistrer et exécuter pour l’activité Copy.

  2. Sous l’onglet Sortie, sélectionnez le lien portant le nom de votre activité de copie pour surveiller la progression et consulter les résultats de l’exécution.

    Capture d’écran du bouton Détails de l’exécution.

  3. La boîte de dialogue Détails de copie des données affiche les résultats de l’exécution, y compris l’état, le volume de données lues et écrites, les heures de début et d’arrêt, et la durée.

    Capture d’écran de la boîte de dialogue Détails de copie des données.

  4. Vous pouvez également planifier l’exécution du pipeline avec une fréquence spécifique si nécessaire. L’exemple suivant montre comment planifier l’exécution du pipeline toutes les 15 minutes.

    Capture d’écran de la boîte de dialogue de configuration de planification.

    Capture d’écran d’un pipeline avec une planification configurée pour s’exécuter toutes les 15 minutes.

Le pipeline de cet exemple vous montre comment copier des données de Stockage Blob Azure vers Lakehouse. Vous avez appris à :

  • Créer un pipeline de données.
  • Copiez des données avec l’assistant de copie.
  • Exécutez et planifiez votre pipeline de données.

Ensuite, avancez pour en savoir plus sur la surveillance des exécutions de votre pipeline.