Importer à partir d’Azure SQL Database
Important
Le support de Machine Learning Studio (classique) prend fin le 31 août 2024. Nous vous recommandons de passer à Azure Machine Learning avant cette date.
À partir du 1er décembre 2021, vous ne pourrez plus créer de nouvelles ressources Machine Learning Studio (classique). Jusqu’au 31 août 2024, vous pouvez continuer à utiliser les ressources Machine Learning Studio (classique) existantes.
- Consultez les informations sur le déplacement des projets de machine learning de ML Studio (classique) à Azure Machine Learning.
- En savoir plus sur Azure Machine Learning.
La documentation ML Studio (classique) est en cours de retrait et ne sera probablement plus mise à jour.
cet article explique comment utiliser le module importer des données dans Machine Learning Studio (classic) pour récupérer des données à partir d’une Data Warehouse Azure SQL Database ou Azure SQL.
Notes
s’applique à: Machine Learning Studio (classic) uniquement
Des modules par glisser-déposer similaires sont disponibles dans Concepteur Azure Machine Learning.
Pour importer des données à partir d’une base de données, vous devez spécifier le nom du serveur, celui de la base de données, ainsi qu’une instruction SQL définissant la table, la vue ou la requête.
En général, le stockage de données dans les bases de données Azure est plus coûteux que l’utilisation de tables ou d’objets blob dans Azure. Il peut également exister des limites sur la quantité de données que vous pouvez stocker dans une base de données, en fonction de votre type d’abonnement. En revanche, comme il n’y a pas de frais de transaction pour Azure SQL Database, cette option est idéale si vous souhaitez un accès rapide à de plus petites quantités d’informations fréquemment utilisées, comme les tables de recherche de données ou les dictionnaires de données.
Le stockage de données dans une base de données Azure est également préférable si vous devez être en mesure de filtrer des données avant de les lire, ou si vous souhaitez enregistrer des prédictions ou des métriques dans la base de données pour la création de rapports.
comment importer des données à partir de Azure SQL Database ou SQL Data Warehouse
Utiliser l’Assistant Importation de données
Le module propose un nouvel Assistant pour vous aider à choisir une option de stockage, sélectionner parmi les abonnements et les comptes existants et configurer rapidement toutes les options.
Ajoutez le module Importer des données à votre expérience. Vous pouvez trouver le module dans Studio (Classic), dans la catégorie entrée et sortie des données .
Cliquez sur lancer l’Assistant importation de données et suivez les invites.
Une fois la configuration terminée, pour copier les données dans votre expérience, cliquez avec le bouton droit sur le module et sélectionnez exécuter sélectionné.
Si vous avez besoin de modifier une connexion de données existante, l’Assistant charge tous les détails de configuration précédents afin que vous n’ayez pas à redémarrer à partir de zéro
Définir manuellement les propriétés du module Importer des données
Les étapes suivantes décrivent la configuration manuelle de la source d’importation.
Ajoutez le module Importer des données à votre expérience. Vous pouvez trouver ce module dans Studio (Classic), dans la catégorie entrée et sortie des données .
Comme Source de données, sélectionnez Azure SQL Database.
définissez les options suivantes spécifiques à Azure SQL Database ou Azure SQL Data Warehouse.
Nom du serveur de base de données: tapez le nom du serveur qui est généré par Azure. En général, il se présente sous la forme
<generated_identifier>.database.windows.net
.Nom de la base de données: tapez le nom d’une base de données existante sur le serveur que vous venez de spécifier.
Nom du compte d’utilisateur du serveur: tapez le nom d’utilisateur d’un compte disposant d’autorisations d’accès pour la base de données.
Mot de passe du compte d’utilisateur du serveur: entrez le mot de passe du compte d’utilisateur spécifié.
requête de base de données: tapez ou collez une instruction SQL qui décrit les données que vous souhaitez lire. Validez toujours l’instruction SQL et vérifiez les résultats de la requête au préalable, à l’aide d’un outil tel que l’Explorateur de serveurs Visual Studio ou SQL Server Data Tools.
Notes
Le module importer des données ne prend en charge que l’entrée du nom de la base de données, du nom du compte d’utilisateur et du mot de passe
si le jeu de données que vous lisez dans Machine Learning n’est pas censé changer entre les exécutions de l’expérience, sélectionnez l’option utiliser les résultats en cache .
Lorsque cette option est sélectionnée, si aucune autre modification n’est apportée aux paramètres de module, l’expérience charge les données lors de la première exécution du module, puis utilise une version mise en cache du DataSet.
Si vous souhaitez recharger le jeu de données à chaque itération de l’expérience, désélectionnez cette option. Le jeu de données est rechargé à partir de la source chaque fois que des paramètres sont modifiés dans Importer des données.
Exécutez l’expérience.
Comme les données d’importation chargent les données dans Studio (Classic), une conversion de type implicite peut également être effectuée, en fonction des types de données utilisés dans la base de données source.
Résultats
Lorsque l’importation est terminée, cliquez sur le jeu de données de sortie et sélectionnez Visualiser pour voir si les données ont bien été importées.
Si vous le souhaitez, vous pouvez modifier le jeu de données et ses métadonnées à l’aide des outils de Studio (Classic) :
Utilisez Modifier les métadonnées pour changer les noms de colonnes, convertir une colonne en un autre type de données, ou pour indiquer quelles colonnes sont des étiquettes ou des fonctionnalités.
Utilisez Sélectionner des colonnes dans le jeu de données pour déterminer un sous-ensemble de colonnes.
Utilisez Partition et échantillon pour diviser le jeu de données par critère, ou obtenir les n premières lignes.
Exemples
Pour obtenir un exemple d’utilisation des données des bases de données Azure dans Machine Learning, consultez les articles et les expériences suivants :
Prévision de la vente au détail étape 1 sur 6-prétraitement des données: le modèle de prévision de la vente au détail illustre un scénario classique qui utilise des données stockées dans Azure SQLDB pour l’analyse.
Il illustre également certaines techniques utiles, telles que l’utilisation d’Azure SQLDB pour transmettre des jeux de données entre des expériences dans différents comptes, l’enregistrement et la combinaison de prévisions et la création d’un SQLDB Azure pour Machine Learning.
utilisez Machine Learning avec SQL Data Warehouse: cet article montre comment créer un modèle de régression pour prédire les prix à l’aide de Azure SQL Data Warehouse.
utilisation d’Azure ML avec Azure SQL Data Warehouse: cet article crée un modèle de clustering sur AdventureWorks, en utilisant importer des données et exporter des données avec Azure SQL Data Warehouse.
Notes techniques
Cette section contient des détails, des conseils et des réponses aux questions fréquentes concernant l’implémentation.
Questions courantes
Puis-je filtrer les données à mesure qu’elles sont lues à partir de la source ?
Le module importer des données ne prend pas en charge le filtrage au fur et à mesure de la lecture des données. Nous vous recommandons de créer une vue ou de définir une requête qui génère uniquement les lignes dont vous avez besoin.
Notes
Si vous constatez que vous avez chargé plus de données que nécessaire, vous pouvez remplacer le jeu de données mis en cache en lisant un nouveau jeu de données et en l'enregistrant avec le même nom que les données antérieures, plus volumineuses.
Pourquoi est-ce que j’obtiens l’erreur « le type Decimal n’est pas pris en charge » ?
lors de la lecture de données à partir d’une base de données SQL, vous pouvez rencontrer un message d’erreur signalant un type de données non pris en charge.
si les données que vous récupérez dans la base de données SQL incluent des types de données qui ne sont pas pris en charge dans Machine Learning, vous devez effectuer un cast ou une conversion des décimales en données prises en charge avant de lire les données. Les données d’importation ne peuvent pas effectuer automatiquement des conversions qui aboutissent à une perte de précision.
Pour plus d’informations sur les types de données pris en charge, consultez types de données de module.
Que se passe-t-il si la base de données se trouve dans une autre région géographique. Est-il possible d’importer des données toujours accéder à la base de données ? Où sont stockées les données ?
Si la base de données se trouve dans une autre région que celle du compte Machine Learning, l’accès aux données peut être plus lent. En outre, vous êtes facturé pour l’entrée et la sortie des données de l’abonnement si le nœud de calcul se trouve dans une région différente de celle du compte de stockage.
Les données que vous lisez dans votre espace de travail pour une expérience sont enregistrées dans le compte de stockage associé à l’expérience.
Pourquoi certains caractères ne s’affichent-ils pas correctement ?
Machine Learning prend en charge l’encodage UTF-8. Si les colonnes de chaîne de votre base de données utilisent un encodage différent, les caractères peuvent ne pas être importés correctement.
L’une des options consiste à exporter les données vers un fichier CSV dans le stockage Azure et à utiliser l’option CSV avec encodage pour spécifier des paramètres pour les délimiteurs personnalisés, la page de codes, etc.
Paramètres du module
Nom | Plage | Type | Default | Description |
---|---|---|---|---|
Source de données | Liste | Source ou récepteur de données | Stockage Blob Azure | la source de données peut être http, FTP, https ou FTPS anonyme, un fichier dans le stockage d’objets BLOB azure, une table azure, une Azure SQL Database, une base de données SQL Server locale, une table Hive ou un point de terminaison OData. |
URI du serveur HDFS | n'importe laquelle | String | aucun | Point de terminaison REST HDFS |
Nom du serveur de base de données | n'importe laquelle | String | aucun | Nom du compte de stockage Azure |
Nom de la base de données | n'importe laquelle | SecureString | aucun | Clé de stockage Azure |
Nom de compte utilisateur de serveur | n'importe laquelle | String | aucun | Nom du conteneur Azure |
Nom de compte utilisateur de serveur | Liste (sous-ensemble) | Contenu de l’URL | OData | Type de format de données |
Requête de base de données | n'importe laquelle | String | aucun | Type de format de données |
Utiliser les résultats mis en cache | TRUE/FALSE | Booléen | false | description |
Sorties
Nom | Type | Description |
---|---|---|
Jeu de données de résultats | Table de données | Jeu de données avec des données téléchargées |
Exceptions
Exception | Description |
---|---|
Erreur 0027 | Une exception se produit quand deux objets qui doivent avoir la même taille ne l'ont pas. |
Erreur 0003 | Une exception se produit si une ou plusieurs entrées ont la valeur Null ou sont vides. |
Erreur 0029 | Une exception se produit lorsqu'un URI non valide est passé. |
Erreur 0030 | Une exception se produit lorsqu'il n'est pas possible de télécharger un fichier. |
Erreur 0002 | Une exception se produit si un ou plusieurs paramètres n'ont pas pu être analysés ou convertis à partir du type spécifié dans le type requis par la méthode cible. |
Erreur 0009 | Une exception se produit si le nom du compte de stockage Azure ou le nom du conteneur est spécifié de manière incorrecte. |
Erreur 0048 | Une exception se produit quand il n'est pas possible d'ouvrir un fichier. |
Erreur 0015 | Une exception se produit si la connexion à la base de données a échoué. |
Erreur 0046 | Une exception se produit quand il n'est pas possible de créer un répertoire sur le chemin d'accès spécifié. |
Erreur 0049 | Une exception se produit quand il n'est pas possible d'analyser un fichier. |
pour obtenir la liste des erreurs spécifiques aux modules Studio (classiques), consultez Machine Learning codes d’erreur.
pour obtenir la liste des exceptions d’api, consultez Machine Learning les Codes d’erreur de l' api REST.
Voir aussi
Importer des données
Exporter les données
Importer à partir d’une URL web via HTTP
Importer à partir d’une requête Hive
Importer à partir de Table Azure
Importer à partir du Stockage Blob Azure
Importer à partir de fournisseurs de flux de données
Importer à partir d’une base de données SQL Server locale