Tutoriel : Analyser des données dans un compte de stockage
Dans ce tutoriel, vous allez découvrir comment analyser des données qui se trouvent dans un compte de stockage.
Jusqu’à présent, nous avons vu des scénarios où les données se trouvent dans des bases de données de l’espace de travail. Maintenant, nous allons voir comment utiliser des fichiers dans des comptes de stockage. Dans ce scénario, nous utilisons le compte de stockage principal de l’espace de travail et le conteneur que nous avons spécifiés au moment de la création de l’espace de travail.
- Le nom du compte de stockage est contosolake
- Le nom du conteneur dans le compte de stockage est users
Créer des fichiers CSV et Parquet dans votre compte de stockage
Exécutez le code suivant dans une nouvelle cellule de code d’un notebook. Il crée un fichier CSV et un fichier Parquet dans le compte de stockage.
Conseil
Cette table a été créée précédemment dans le guide de démarrage rapide, et vous trouverez les étapes ici.
%%pyspark
df = spark.sql("SELECT * FROM nyctaxi.passengercountstats")
df = df.repartition(1) # This ensures we'll get a single file during write()
df.write.mode("overwrite").csv("/NYCTaxi/PassengerCountStats_csvformat")
df.write.mode("overwrite").parquet("/NYCTaxi/PassengerCountStats_parquetformat")
Analyser des données dans un compte de stockage
Vous pouvez analyser les données dans le compte ADLS (Azure Data Lake Storage) Gen2 par défaut de votre espace de travail ou vous pouvez lier un compte ADLS Gen2 ou un compte de stockage Blob à votre espace de travail par « Gérer » > « Services liés » > « Nouveau » (les étapes suivantes font référence au compte ADLS Gen2 principal).
Dans Synapse Studio, accédez au hub Données, puis sélectionnez Liées.
Accédez à Azure Data Lake Storage Gen2>myworkspace (Principal - contosolake) .
Sélectionnez utilisateurs (Principaux) . Vous devez normalement voir le dossier NYCTaxi, qui contient les deux dossiers PassengerCountStats_csvformat et PassengerCountStats_parquetformat.
Ouvrez le dossier PassengerCountStats_parquetformat. Il existe à l’intérieur un fichier Parquet avec un nom tel que
part-00000-2638e00c-0790-496b-a523-578da9a15019-c000.snappy.parquet
.Cliquez avec le bouton droit sur .parquet, sélectionnez Nouveau notebook, puis sélectionnez Charger dans un dataframe. Un notebook est créé avec une cellule semblable à celle-ci :
%%pyspark abspath = 'abfss://users@contosolake.dfs.core.windows.net/NYCTaxi/PassengerCountStats_parquetformat/part-00000-1f251a58-d8ac-4972-9215-8d528d490690-c000.snappy.parquet' df = spark.read.load(abspath, format='parquet') display(df.limit(10))
Effectuez un attachement au pool Spark nommé Spark1. Exécutez la cellule. Si vous rencontrez une erreur liée au manque de cœurs, une autre session peut utiliser ce pool Spark. Annulez toutes les sessions existantes et réessayez.
Sélectionnez de nouveau le dossier users. Recliquez avec le bouton droit sur le fichier .parquet, puis sélectionnez Nouveau script SQL>Sélectionner les 100 premières lignes. Cela crée un script SQL semblable à ceci :
SELECT TOP 100 * FROM OPENROWSET( BULK 'https://contosolake.dfs.core.windows.net/users/NYCTaxi/PassengerCountStats_parquetformat/part-00000-1f251a58-d8ac-4972-9215-8d528d490690-c000.snappy.parquet', FORMAT='PARQUET' ) AS [result]
Dans la fenêtre de script, vérifiez que le champ Se connecter à est défini sur le pool SQL serverlessIntégré.
Exécutez le script.