Importer à partir d’une base de données SQL Server locale
Important
Le support de Machine Learning Studio (classique) prend fin le 31 août 2024. Nous vous recommandons de passer à Azure Machine Learning avant cette date.
À partir du 1er décembre 2021, vous ne pourrez plus créer de nouvelles ressources Machine Learning Studio (classique). Jusqu’au 31 août 2024, vous pouvez continuer à utiliser les ressources Machine Learning Studio (classique) existantes.
- Consultez les informations sur le déplacement des projets de machine learning de ML Studio (classique) à Azure Machine Learning.
- En savoir plus sur Azure Machine Learning.
La documentation ML Studio (classique) est en cours de retrait et ne sera probablement plus mise à jour.
cet article explique comment utiliser le module importer des données dans Machine Learning Studio (classic) pour importer des données à partir d’une base de données SQL Server locale dans une expérience de Machine Learning.
Notes
s’applique à: Machine Learning Studio (classic) uniquement
Des modules par glisser-déposer similaires sont disponibles dans Concepteur Azure Machine Learning.
Machine Learning pouvez accéder à une base de données SQL Server locale si les données sont fournies à l’aide d’une passerelle Microsoft Gestion des données. Par conséquent, avant d’utiliser importer des données, vous devez respecter les exigences suivantes :
- installer une passerelle Microsoft Gestion des données qui peut accéder à la source de données
- inscrire la passerelle dans votre espace de travail Machine Learning
- Configurer les données d’importation pour identifier la passerelle
Une fois la connexion de passerelle établie, vous pouvez spécifier des propriétés supplémentaires, telles que les noms de serveur et de base de données, la méthode d’authentification et une requête de base de données.
comment installer une passerelle Microsoft Gestion des données
pour accéder à une base de données SQL Server locale dans Machine Learning, vous devez télécharger et installer la passerelle Microsoft Gestion des données, puis inscrire la passerelle dans Machine Learning Studio (classic).
Pour plus d’informations sur l’installation et l’inscription de la passerelle, consultez les articles suivants :
comment importer des données à partir d’une base de données SQL Server locale
après l’installation d’une passerelle Gestion des données sur un ordinateur où elle peut accéder à votre base de données SQL Server, et si vous avez inscrit la passerelle dans Machine Learning Studio (classic), vous devez configurer le module importer les données .
Avant de commencer, désactivez le bloqueur de fenêtres publicitaires de votre navigateur pour le site, studio.azureml.net
.
Si vous utilisez le navigateur Google Chrome, vous devez télécharger et installer l’un des plug-ins disponibles dans le Webstore Google Chrome : cliquez sur extensionde l’application.
Utiliser l’Assistant Importation de données
Le module propose un nouvel Assistant pour vous aider à choisir une option de stockage, sélectionner parmi les abonnements et les comptes existants et configurer rapidement toutes les options.
Ajoutez le module Importer des données à votre expérience. Vous pouvez trouver le module dans Studio (Classic), dans la catégorie entrée et sortie des données .
Cliquez sur lancer l’Assistant importation de données et suivez les invites.
Une fois la configuration terminée, pour copier les données dans votre expérience, cliquez avec le bouton droit sur le module et sélectionnez exécuter sélectionné.
Si vous avez besoin de modifier une connexion de données existante, l’Assistant charge tous les détails de configuration précédents afin que vous n’ayez pas à redémarrer à partir de zéro.
Définir manuellement les propriétés du module Importer des données
Ajoutez le module Importer des données à votre expérience. Vous pouvez trouver le module dans Studio (Classic), dans la catégorie entrée et sortie des données .
Pour source de données, sélectionnez SQL Database locales.
définissez les options suivantes spécifiques à la base de données SQL Server.
Passerelle de données: sélectionnez la passerelle que vous avez créée. La passerelle doit être inscrite ou n’apparaît pas dans la liste.
nom du serveur de base de données: tapez le nom de l’instance de SQL Server.
Nom de la base de données: tapez le nom de la base de données.
Cliquez sur Entrer des valeurs sous Nom d’utilisateur et mot de passe et entrez vos informations d’identification de base de données. Vous pouvez utiliser l’authentification intégrée Windows ou l’authentification SQL Server en fonction de la configuration de votre serveur local SQL Server.
Important
le gestionnaire d’informations d’identification doit être lancé à partir du même réseau que l’instance de SQL Server et le client de passerelle. Les informations d’identification ne peuvent pas être transmises entre les domaines.
tapez ou collez dans la requête de base de données une instruction SQL qui décrit les données que vous souhaitez lire. Validez toujours l’instruction SQL et vérifiez les résultats de la requête au préalable, à l’aide d’un outil tel que l’Explorateur de serveurs Visual Studio ou SQL Server Data Tools.
Si le jeu de données n’est pas censé changer entre les exécutions de l’expérience, sélectionnez l’option utiliser les résultats en cache . Lorsque cette option est sélectionnée, si aucune autre modification n’est apportée aux paramètres de module, l’expérience chargera les données lors de la première exécution du module et utilisera ensuite une version mise en cache du DataSet.
Exécutez l’expérience.
Résultats
Comme les données d’importation chargent les données dans Studio (Classic), une conversion de type implicite peut être effectuée, en fonction des types de données utilisés dans la base de données source. Pour plus d’informations sur les types de données, consultez types de données de module.
À l’issue de l’opération, cliquez sur le jeu de données de sortie et sélectionnez Visualiser pour voir si les données ont bien été importées.
Si vous le souhaitez, vous pouvez modifier le jeu de données et ses métadonnées à l’aide des outils de Studio (Classic) :
Utilisez Modifier les métadonnées pour changer les noms de colonnes, convertir une colonne en un autre type de données, ou pour indiquer quelles colonnes sont des étiquettes ou des fonctionnalités.
Utilisez Sélectionner des colonnes dans le jeu de données pour déterminer un sous-ensemble de colonnes.
Utilisez partition et Sample pour séparer le DataSet par critère, ou pour récupérer les n premières lignes.
Notes techniques
Cette section contient des détails, des conseils et des réponses aux questions fréquentes concernant l’implémentation.
Questions courantes
Puis-je filtrer les données à mesure qu’elles sont lues à partir de la source ?
Le module importer des données lui-même ne prend pas en charge le filtrage au fur et à mesure de la lecture des données. Nous vous recommandons de créer une vue ou de définir une requête qui génère uniquement les lignes dont vous avez besoin.
Notes
Si vous constatez que vous avez chargé plus de données que nécessaire, vous pouvez remplacer le jeu de données mis en cache en lisant un nouveau jeu de données et en l'enregistrant avec le même nom que les données antérieures, plus volumineuses.
Pourquoi est-ce que j’obtiens l’erreur « le type Decimal n’est pas pris en charge »
lors de la lecture de données à partir d’une base de données SQL, vous pouvez rencontrer un message d’erreur signalant un type de données non pris en charge.
si les données que vous récupérez dans la base de données SQL incluent des types de données qui ne sont pas pris en charge dans Machine Learning, vous devez effectuer un cast ou une conversion des décimales en un type de données pris en charge avant de lire les données. Cela est dû au fait que les données d’importation ne peuvent pas effectuer automatiquement des conversions qui aboutissent à une perte de précision.
Pourquoi certains caractères ne s’affichent pas correctement
Machine Learning prend en charge l’encodage UTF-8. Si les colonnes de chaîne de votre base de données utilisent un encodage différent, les caractères peuvent ne pas être importés correctement.
Une option pour conserver ces caractères consiste à exporter les données vers un fichier CSV dans le stockage Azure et à utiliser l’option CSV avec encodage pour spécifier des paramètres pour les délimiteurs personnalisés, la page de codes, etc.
je configure une passerelle Gestion des données sur mon serveur local. Puis-je partager la même passerelle entre les espaces de travail
Non. Vous devez créer une passerelle distincte pour chaque espace de travail.
bien que vous puissiez configurer plusieurs passerelles Gestion des données dans un seul espace de travail (par exemple, une passerelle pour le développement, les tests, la production, etc.), une passerelle ne peut pas être partagée entre les espaces de travail.
j’ai configuré une passerelle Gestion des données sur mon serveur local que j’utilise pour Power BI ou Azure Data Factory et je souhaite utiliser la même passerelle pour Machine Learning
chaque service requiert une passerelle Gestion des données distincte. si vous disposez déjà d’une passerelle utilisée pour Power BI ou Azure Data Factory, vous devez configurer un serveur distinct et installer une passerelle pour Machine Learning.
Vous ne pouvez pas installer plusieurs passerelles sur un seul serveur.
je souhaite pouvoir exporter des données vers mon serveur SQL local. puis-je utiliser la passerelle avec le module exporter les données pour écrire des données sur mon serveur SQL local ?
actuellement, Machine Learning prend en charge l’importation de données uniquement. Nous évaluons si vous êtes en mesure d’écrire dans votre base de données locale à l’avenir. en attendant, vous pouvez utiliser Azure Data Factory pour copier des données à partir du cloud vers votre base de données locale.
j’ai une source de données qui n’est pas Microsoft SQL Server (Oracle, Teradata, etc.). puis-je lire les données dans Machine Learning à l’aide de l’option locale dans le module importer des données ?
actuellement, le module Machine Learning importer des données prend uniquement en charge les Microsoft SQL Server.
en guise de solution de contournement, vous pouvez utiliser Azure Data Factory pour copier vos données locales dans un stockage cloud tel que Stockage Blob Azure ou une base de données Azure, puis utiliser votre source de données cloud dans le module importer des données .
Paramètres du module
Nom | Plage | Type | Default | Description |
---|---|---|---|---|
Source de données | Liste | Source ou récepteur de données | Stockage Blob Azure | la source de données peut être http, FTP, https ou FTPS anonyme, un fichier dans le stockage d’objets BLOB azure, une table azure, une Azure SQL Database, une base de données SQL Server locale, une table Hive ou un point de terminaison OData. |
Passerelle de données | n'importe laquelle | DataGatewayName | aucun | Nom de la passerelle de données |
Nom du serveur de base de données | n'importe laquelle | String | aucun | SQL Server local |
Nom de la base de données | n'importe laquelle | String | aucun | instance de base de données SQL Server locale |
Nom d'utilisateur et mot de passe | n'importe laquelle | SecureString | aucun | Nom d'utilisateur et mot de passe |
Requête de base de données | n'importe laquelle | StreamReader | aucun | requête SQL locale |
Sorties
Nom | Type | Description |
---|---|---|
Jeu de données de résultats | Table de données | Jeu de données avec des données téléchargées |
Exceptions
Exception | Description |
---|---|
Erreur 0027 | Une exception se produit quand deux objets qui doivent avoir la même taille ne l'ont pas. |
Erreur 0003 | Une exception se produit si une ou plusieurs entrées ont la valeur Null ou sont vides. |
Erreur 0029 | Une exception se produit lorsqu'un URI non valide est passé. |
Erreur 0030 | Une exception se produit lorsqu'il n'est pas possible de télécharger un fichier. |
Erreur 0002 | Une exception se produit si un ou plusieurs paramètres n'ont pas pu être analysés ou convertis à partir du type spécifié dans le type requis par la méthode cible. |
Erreur 0048 | Une exception se produit quand il n'est pas possible d'ouvrir un fichier. |
Erreur 0015 | Une exception se produit si la connexion à la base de données a échoué. |
Erreur 0046 | Une exception se produit quand il n'est pas possible de créer un répertoire sur le chemin d'accès spécifié. |
Erreur 0049 | Une exception se produit quand il n'est pas possible d'analyser un fichier. |
pour obtenir la liste des erreurs spécifiques aux modules Studio (classiques), consultez Machine Learning codes d’erreur.
pour obtenir la liste des exceptions d’api, consultez Machine Learning les Codes d’erreur de l' api REST.
Voir aussi
Importer des données
Exporter les données
Importer à partir d’une URL web via HTTP
Importer à partir d’une requête Hive
Importer à partir d’Azure SQL Database
Importer à partir de Table Azure
Importer à partir du Stockage Blob Azure
Importer à partir de fournisseurs de flux de données