Services AI dans Fabric (préversion)
Important
Cette fonctionnalité est en préversion.
Les services Azure AI aident les développeurs et les organisations à créer rapidement des applications intelligentes, à la pointe, prêtes à être commercialisées et responsables avec des API et des modèles prédéfinis et personnalisables. Anciennement nommés Azure Cognitive Services, les services Azure AI permettent aux développeurs même s’ils n’ont pas de compétences ou de connaissances directes en matière d’IA ou de science des données. L’objectif de l’équipe Azure AI Services est d’aider les développeurs à créer des applications capables de voir, d’entendre, de parler, de comprendre et même de commencer à raisonner.
Fabric propose deux options d’utilisation des services Azure AI :
modèles IA prédéfinis dans Fabric (préversion)
Fabric s’intègre parfaitement à Azure AI services, ce qui vous permet d’enrichir vos données avec des modèles d’IA prédéfinis sans aucun prérequis. Nous vous recommandons cette option, car vous pouvez utiliser votre authentification Fabric pour accéder aux services IA, et toutes les utilisations sont facturées par rapport à votre capacité Fabric. Cette option est actuellement en préversion publique, avec des services IA limités disponibles.
Fabric offre azure OpenAI Service, analyse de texteet Azure AI Translator par défaut, avec prise en charge de SynapseML et de l’API RESTful. Vous pouvez également utiliser la bibliothèque Python OpenAI pour accéder à Azure OpenAI Service dans Fabric. Pour plus d’informations sur les modèles disponibles, visitez modèles IA prédéfinis dans Fabric.
Apportez votre propre clé (BYOK)
Vous pouvez approvisionner vos services IA sur Azure et apporter votre propre clé pour les utiliser à partir de Fabric. Si les modèles IA prédéfinis ne prennent pas encore en charge les services IA souhaités, vous pouvez toujours utiliser BYOK (Apportez votre propre clé).
Pour en savoir plus sur l’utilisation d’Azure AI services avec BYOK, visitez Azure AI services dans SynapseML avec bring your own key.
Modèles d’IA prédéfinis dans Fabric (préversion)
Remarque
Les modèles IA prédéfinis sont actuellement disponibles en préversion et proposés gratuitement, avec une limite sur le nombre de requêtes simultanées par utilisateur. Pour les modèles Open AI, la limite est de 20 requêtes par minute et par utilisateur.
Azure OpenAI Service
API REST, Kit de développement logiciel (SDK) Python. SynapseML
- GPT-35-turbo : les modèles GPT-3.5 peuvent comprendre et générer un langage naturel ou du code. Le modèle le plus efficace et le plus rentable dans la famille GPT-3.5 est GPT-3. L’option
5 Turbo
, qui est optimisée pour la conversation, fonctionne également pour les tâches d’achèvement traditionnelles. Le modèlegpt-35-turbo-0125
prend en charge jusqu’à 16 385 jetons d’entrée et 4 096 jetons de sortie. - Famille gpt-4 :
gpt-4-32k
est pris en charge. - text-embedding-ada-002 (version 2), modèle d’incorporation qui peut être utilisé avec des demandes d’API incorporées. Le jeton de demande accepté maximal est de 8 191, et le vecteur retourné a des dimensions de 1 536.
Analyse de texte
- Détection de langue : détecte la langue du texte d’entrée
- Analyse des sentiments : retourne un score compris entre 0 et 1, pour indiquer le sentiment dans le texte d’entrée
- Extraction d’expressions clés : identifie les points de discussion clés dans le texte d’entrée
- Reconnaissance des entités de données personnelles identifiables (PII) : identifier, catégoriser et masquer les informations sensibles dans le texte d’entrée.
- Reconnaissance d’entité nommée : identifie les entités connues et les entités nommées générales dans le texte d’entrée
- Liaison d’entités : identifie et désambigue l’identité des entités trouvées dans le texte
Azure AI Traducteur
- Traduire : traduit le texte
- Translittération : convertit du texte d'une langue, dans un script, en un autre script.
Régions disponibles
Régions disponibles pour Azure OpenAI Service
Pour obtenir la liste des régions Azure où les services IA prédéfinis dans Fabric sont désormais disponibles, consultez la section Régions disponibles de l’article Vue d’ensemble de Copilot dans Fabric et Power BI (préversion).
Régions disponibles pour l’analyse de texte et Azure AI Traducteur
L'analyse de texte prédéfinie et le Azure AI Translator dans Fabric sont désormais disponibles pour la préversion publique dans les régions Azure répertoriées dans cet article. Si vous ne trouvez pas votre région d’accueil Microsoft Fabric dans cet article, vous pouvez toujours créer une capacité Microsoft Fabric dans une région prise en charge. Pour plus d’informations, visitez Acheter un abonnement Microsoft Fabric. Pour déterminer votre région d’origine Fabric, visitez Rechercher votre région d’accueil Fabric.
Asie-Pacifique | Europe | Amérique | Moyen-Orient et Afrique |
---|---|---|---|
Australie Est | Europe Nord | Brésil Sud | Afrique du Sud Nord |
Sud-Australie Est | Europe Ouest | Centre du Canada | Émirats arabes unis Nord |
Inde centrale | France Centre | Est du Canada | |
Asie Est | Norvège Est | USA Est | |
Japon Est | Suisse Nord | USA Est 2 | |
Centre de la Corée | Suisse Ouest | Centre-Nord des États-Unis | |
Asie Sud-Est | Sud du Royaume-Uni | États-Unis - partie centrale méridionale | |
Inde Sud | Ouest du Royaume-Uni | USA Ouest | |
USA Ouest 2 | |||
USA Ouest 3 |
Taux de consommation
Remarque
La facturation des services IA prédéfinis dans Fabric est devenue effective le 1er novembre 2024, dans le cadre de votre capacité Power BI Premium ou Fabric existante.
Une requête pour des services IA prédéfinis consomme des unités de capacité Fabric. Ce tableau définit le nombre d’unités de capacité (CU) consommées lorsqu’un service IA est utilisé.
Taux de consommation pour les modèles de langage OpenAI
Modèles | Contexte | Entrée (par 1 000 éléments) | Sortie (par 1 000 jetons) |
---|---|---|---|
Déploiement global GPT-4o-2024-08-06 | 128 K | 84,03 CU secondes | 336,13 secondes CU |
GPT-4 | 32 K | 2 016,81 CU secondes | 4 033,61 CU secondes |
GPT-3.5-Turbo-0125 | 16 Ko | 16,81 CU secondes | 50,42 CU secondes |
Taux de consommation pour les modèles d'encodage OpenAI
Modèles | Unité de mesure d'opération | taux de consommation |
---|---|---|
text-embedding-ada-002 | 1 000 jetons | 3,36 secondes CU |
Taux de consommation pour Analyse de texte
Opération | Unité de mesure d'opération | taux de consommation |
---|---|---|
Détection de langue | 1 000 enregistrements texte | 33 613,45 CU secondes |
Analyse des sentiments | 1 000 enregistrements texte | 33 613,45 CU secondes |
Extraction d’expressions clés | 1 000 enregistrements texte | 33 613,45 CU secondes |
Reconnaissance des entités d'informations d'identification personnelle | 1 000 enregistrements texte | 33 613,45 CU secondes |
Reconnaissance d’entité nommée | 1 000 enregistrements texte | 33 613,45 CU secondes |
Liaison d’entités | 1 000 enregistrements texte | 33 613,45 CU secondes |
Résumé | 1 000 enregistrements texte | 67 226,89 CU secondes |
Taux de consommation pour Text Translator
Opération | Unité de mesure de l'opération | taux de consommation |
---|---|---|
Traduire | 1M caractères | 336 134,45 CU secondes |
Transliterate | 1M de caractères | 336 134,45 CU secondes |
Modifications apportées aux services IA dans le taux de consommation Fabric
Les taux de consommation sont susceptibles de changer à tout moment. Microsoft utilise des efforts raisonnables pour fournir une notification par e-mail ou par le biais d’une notification dans le produit. Les modifications seront effectives à la date indiquée dans les notes de publication Microsoft ou le blog Microsoft Fabric. Si une modification apportée à un service IA dans le taux de consommation Fabric entraîne une augmentation significative des unités de capacité (CU) nécessaires pour l'utilisation, les clients peuvent utiliser les options d'annulation disponibles pour le mode de paiement choisi.
Surveiller l’utilisation
Le compteur de charge de travail associé à la tâche détermine les frais pour les services IA prédéfinis dans Fabric. Par exemple, si l’utilisation du service IA est dérivée d’une charge de travail Spark, l’utilisation de l’IA est regroupée et facturée sous le compteur de facturation Spark sur application Les Métriques de capacité Fabric.
Exemple
Un propriétaire de magasin en ligne utilise SynapseML et Spark pour catégoriser des millions de produits en catégories pertinentes. Actuellement, le propriétaire du magasin applique une logique codée en dur pour nettoyer et mapper le « type de produit » brut aux catégories. Toutefois, le propriétaire prévoit de passer à l’utilisation des nouveaux points de terminaison Fabric OpenAI LLM (grand modèle de langage) natifs. Cela traite de manière itérative les données par rapport à un LLM pour chaque ligne, puis classe les produits en fonction de leur « nom de produit », « description », « détails techniques », et ainsi de suite.
Le coût attendu pour l’utilisation de Spark est de 1 000 unités de calcul. Le coût attendu pour l'utilisation d'OpenAI est d'environ 300 CUs.
Pour tester la nouvelle logique, commencez par l’itérer dans une exécution interactive de notebook Spark. Pour le nom de l’opération de l’exécution, utilisez « Exécution interactive du notebook ». Le propriétaire s’attend à voir une utilisation totale de 1300 unités de calcul sous « Exécution interactive du notebook », avec le compteur de facturation Spark prenant en compte toute l’utilisation.
Une fois que le propriétaire du magasin valide la logique, il configure l’exécution régulière et s’attend à voir une utilisation totale de 1300 CUs sous le nom d’opération « Exécution planifiée du Spark Job », avec le compteur Spark qui comptabilise l’ensemble de l’utilisation.