Recommandations de gouvernance pour les charges de travail d’IA sur Azure
Cet article offre des recommandations de gouvernance pour les organisations exécutant des charges de travail d’IA sur Azure. Il se concentre sur les solutions de plateforme en tant que service (PaaS) Azure AI, y compris Azure AI Studio, Azure OpenAI, Azure Machine Learning, et Azure AI Services. Il couvre à la fois les charges de travail d’IA générative et non générative.
Une gouvernance efficace soutient l’utilisation responsable de l’IA. Elle permet aux entreprises d’optimiser leurs investissements en IA tout en réduisant les risques associés à la sécurité, aux coûts, et à la conformité réglementaire.
Gouvernez les modèles d’IA
La gouvernance des modèles d’IA se réfère aux processus de gestion des modèles d’IA pour assurer qu’ils produisent des résultats fiables, sûrs, et éthiques. Les contrôles sur les entrées et les sorties des modèles aident à atténuer les risques. Ces risques incluent les contenus nuisibles et les usages involontaires de l’IA. Les deux peuvent affecter les utilisateurs et l’organisation. Ces processus soutiennent un déploiement d’IA responsable, et ils protègent contre des défis juridiques et éthiques potentiels.
Établissez un processus pour détecter les risques liés à l’IA. Utilisez des outils comme Defender pour le cloud pour découvrir les charges de travail d’IA générative et explorer les risques associés aux artefacts d’IA générative avant le déploiement. Établissez une politique pour régulièrement red team les modèles d’IA générative. Documentez les risques identifiés et mettez continuellement à jour vos politiques de gouvernance de l’IA pour atténuer les problèmes émergents.
Définissez des filtres de contenu de base pour les modèles d’IA générative. Utilisez Azure AI Content Safety pour définir un filtre de contenu de base pour vos modèles d’IA approuvés. Ce système de sécurité fait passer à la fois l’invite et la complétion de votre modèle par un groupe de modèles de classification. Ces modèles de classification détectent et aident à prévenir la production de contenus nuisibles dans diverses catégories. Content Safety fournit des fonctionnalités telles que des protections d’invite, la détection d’une base solide (groundedness detection), et la détection de texte de matériel protégé. Il scanne les images et les textes. Créez un processus pour que les équipes d’applications communiquent les différents besoins de gouvernance.
Ancrez les modèles d’IA générative. Utilisez des messages système et le modèle de génération augmentée par récupération (RAG) pour gouverner les sorties des modèles d’IA générative. Testez l’efficacité de l’ancrage en utilisant des outils comme le flux d’invite ou le framework open-source de red teaming PyRIT.
Gouvernez les coûts liés à l’IA
La gouvernance des coûts d’IA consiste à gérer les dépenses associées aux charges de travail d’IA pour maximiser l’efficacité et réduire les dépenses inutiles. Un contrôle efficace des coûts garantit que les investissements en IA sont alignés avec les objectifs commerciaux, ce qui empêche les coûts imprévus liés au surapprovisionnement ou à la sous-utilisation. Ces pratiques permettent aux organisations d’optimiser leurs opérations IA financièrement.
Utilisez le bon modèle de facturation. Si vous avez des charges de travail prévisibles, utilisez les niveaux d’engagement en IA dans les services d’IA Azure. Pour les modèles Azure OpenAI, utilisez des unités de débit provisionnées (PTU), qui peuvent être moins chères que la tarification à l’usage (basée sur la consommation). Il est courant de combiner des points de terminaison PTU avec des points de terminaison basés sur la consommation pour optimiser les coûts. Utilisez des PTU sur le point de terminaison principal du modèle d’IA et un point de terminaison secondaire, basé sur la consommation, pour gérer les débordements. Pour plus d’informations, veuillez consulter la section Introduire une passerelle pour plusieurs instances Azure OpenAI.
Choisissez le bon modèle pour votre cas d’utilisation. Sélectionnez le modèle d’IA qui répond à vos besoins sans entraîner de coûts excessifs. Utilisez des modèles moins chers à moins que le cas d’utilisation ne nécessite un modèle plus coûteux. Pour l’ajustement, maximisez l’utilisation du temps dans chaque période de facturation pour éviter des frais supplémentaires. Pour plus d’informations, veuillez consulter la section modèles Azure OpenAI et tarification. Veuillez également consulter la section catalogue de modèles d’Azure AI Studio et informations de facturation pour les déploiements de modèles.
Définissez les limites d’approvisionnement. Allouez des quotas d’approvisionnement pour chaque modèle en fonction des charges de travail prévues afin d’éviter les coûts inutiles. Surveillez continuellement les quotas dynamiques pour vous assurer qu’ils correspondent à la demande réelle et ajustez-les en conséquence pour maintenir un débit optimal sans dépenses excessives.
Utilisez le bon type de déploiement. Les modèles Azure OpenAI vous permettent d’utiliser différents types de déploiement. Le déploiement global offre une tarification par token inférieure pour certains modèles OpenAI.
Évaluez les options d’hébergement. Choisissez la bonne infrastructure d’hébergement, selon les besoins de votre solution. Par exemple, pour les charges de travail d’IA générative, les options incluent les points de terminaison gérés en ligne, Azure Kubernetes Service (AKS) et Azure App Service, chacun ayant son propre modèle de facturation. Sélectionnez l’option qui offre le meilleur équilibre entre performance et coût pour vos exigences spécifiques.
Contrôlez le comportement du client dans les services basés sur la consommation. Limitez l’accès du client à votre service IA en appliquant des protocoles de sécurité comme les contrôles de réseau, les clés, et le contrôle d’accès basé sur les rôles (RBAC). Assurez-vous que les clients utilisent des contraintes API comme max tokens et max completions. Lorsque cela est possible, regroupez les requêtes pour optimiser l’efficacité. Gardez les invites concises, mais fournissez le contexte nécessaire pour réduire la consommation de tokens.
Envisagez d’utiliser une passerelle d’IA générative. Une passerelle d’IA générative vous permet de suivre l’utilisation des tokens, de limiter l’utilisation des tokens, d’appliquer des disjoncteurs et de diriger vers différents points de terminaison IA pour contrôler les coûts.
Créez une politique pour éteindre les instances de calcul. Définissez et appliquez une politique stipulant que les ressources IA doivent utiliser la fonction d’arrêt automatique sur les machines virtuelles et les instances de calcul dans Azure AI Studio et Azure Machine Learning. L’arrêt automatique s’applique aux environnements non-production et aux charges de travail de production que vous pouvez mettre hors ligne pendant certaines périodes.
Pour plus d’orientation sur la gestion des coûts, veuillez consulter la section Gestion des coûts d’IA et optimisation des coûts dans l’architecture de base Azure OpenAI.
Gouvernez les plateformes d’IA
La gouvernance des plateformes d’IA comprend l’application de contrôles de politique à divers services IA sur Azure, tels qu’Azure AI Studio et Azure Machine Learning. L’utilisation de la gouvernance au niveau de la plateforme applique des politiques de sécurité, de conformité, et opérationnelles cohérentes dans tout l’écosystème IA. Cette cohérence soutient une supervision efficace, renforçant ainsi la gestion globale et la fiabilité de l’IA.
Utilisez les politiques de gouvernance intégrées. Utilisez Azure Policy pour appliquer des définitions de politique intégrées pour chaque plateforme IA que vous utilisez. Cela inclut Azure AI Studio, Azure Machine Learning, Azure AI services, Azure AI Search, et d’autres.
Activez les politiques d’IA pour la zone d’atterrissage d’Azure. Pour les utilisateurs de la zone d’atterrissage d’Azure, le déploiement inclut un ensemble recommandé de politiques intégrées pour les services de plateforme IA Azure. Sélectionnez l’initiative de politique que vous souhaitez utiliser sous la catégorie Conformité spécifique aux charges de travail lors d’un déploiement de zone d’atterrissage Azure. Les ensembles de politiques incluent Azure OpenAI, Azure Machine Learning, et Azure AI Search, et Azure Bot services.
Gouvernez la sécurité IA
La gouvernance de la sécurité IA répond au besoin de protéger les charges de travail IA contre les menaces pouvant compromettre les données, les modèles, ou l’infrastructure. Des pratiques de sécurité solides protègent ces systèmes contre les accès non autorisés et les violations de données. Cette protection assure l’intégrité et la fiabilité des solutions IA, essentielles pour maintenir la confiance des utilisateurs et la conformité réglementaire.
Activez Defender pour le cloud sur chaque abonnement. Defender pour le cloud offre une approche économique pour détecter les configurations non sécurisées dans vos ressources déployées. Vous devez également activer la protection contre les menaces IA.
Configurer le contrôle d’accès. Attribuez des accès à privilège minimal aux utilisateurs sur les ressources IA centralisées. Par exemple, commencez avec le rôle Azure Reader, et passez au rôle Azure Contributor si les permissions limitées ralentissent le développement des applications.
Utiliser des identités managées. Utilisez une identité managée sur tous les services Azure pris en charge. Attribuez un accès à privilège minimal aux ressources d’application qui nécessitent un accès aux points de terminaison du modèle IA.
Utilisez l’accès juste-à-temps. Utilisez la gestion des identités privilégiées (PIM) pour un accès juste-à-temps.
Gouvernez les opérations d’IA
La gouvernance des opérations d’IA se concentre sur la gestion et le maintien de services IA stables. Ces opérations soutiennent la fiabilité et la performance à long terme. Une supervision centralisée et des plans de continuité aident les organisations à éviter les temps d’arrêt, ce qui garantit la valeur commerciale continue de l’IA. Ces efforts contribuent à un déploiement d’IA efficace et à une efficacité opérationnelle durable.
Passez en revue et gérez les modèles d’IA. Développez une politique pour gérer le contrôle de version des modèles, en particulier lorsque les modèles sont mis à niveau ou retirés. Vous devez maintenir la compatibilité avec les systèmes existants et assurer une transition en douceur entre les versions des modèles.
Définissez un plan de continuité des activités et de récupération d’urgence. Établissez une politique de continuité des activités et de récupération d’urgence pour vos points de terminaison IA et les données IA. Configurez une récupération d’urgence de base pour les ressources qui hébergent vos points de terminaison de modèles IA. Ces ressources incluent Azure AI Studio, Azure Machine Learning, Azure OpenAI, ou les services IA d’Azure. Tous les magasins de données Azure, tels que Azure Blob Storage, Azure Cosmos DB, et Azure SQL Database, fournissent des conseils sur la fiabilité et la récupération d’urgence que vous devez suivre.
Définissez des métriques de base pour les ressources IA. Activez des règles d’alerte recommandées pour recevoir des notifications de déviations indiquant une baisse de la santé des charges de travail. Pour des exemples, veuillez consulter la section Azure AI Search, Azure Machine Learning, déploiements de flux d’invite dans Azure AI Studio, et les conseils sur les services IA Azure individuels.
Gouvernez la conformité réglementaire de l’IA
La conformité réglementaire en IA exige que les organisations respectent les normes industrielles et les obligations légales, ce qui réduit les risques liés aux responsabilités et renforce la confiance. Les mesures de conformité aident les organisations à éviter les pénalités et à améliorer leur crédibilité auprès des clients et des régulateurs. Le respect de ces normes établit une base solide pour une utilisation responsable et conforme de l’IA.
Automatisez la conformité. Utilisez Microsoft Purview Compliance Manager pour évaluer et gérer la conformité dans les environnements cloud. Utilisez les initiatives de conformité réglementaire applicables dans Azure Policy pour votre industrie. Appliquez d’autres politiques en fonction des services IA que vous utilisez, tels que Azure AI Studio et Azure Machine Learning.
Développez des listes de vérification de conformité spécifiques à l’industrie. Les règlements et les normes diffèrent selon l’industrie et la localisation. Vous devez connaître vos exigences réglementaires et compiler des listes de vérification qui reflètent les exigences réglementaires pertinentes pour votre industrie. Utilisez des normes, telles que ISO/IEC 23053:2022 (Framework pour les systèmes d’intelligence artificielle utilisant l’apprentissage automatique), pour auditer les politiques appliquées à vos charges de travail IA.
Gouvernez les données d’IA
La gouvernance des données d’IA implique des politiques pour s’assurer que les données alimentant les modèles IA sont appropriées, conformes, et sécurisées. La gouvernance des données protège la vie privée et la propriété intellectuelle, ce qui améliore la fiabilité et la qualité des sorties IA. Ces mesures aident à atténuer les risques liés à l’utilisation inappropriée des données, et elles s’alignent sur les normes réglementaires et éthiques.
Établissez un processus pour cataloguer les données. Utilisez un outil comme Microsoft Purview pour mettre en œuvre un catalogue de données unifié et un système de classification dans toute votre organisation. Intégrez ces politiques dans vos pipelines CI/CD pour le développement IA.
Maintenez les frontières de sécurité des données. Le catalogage des données aide à s’assurer que vous n’alimentez pas des données sensibles dans des points de terminaison IA ouverts au public. Lorsque vous créez des index à partir de certaines sources de données, le processus d’indexation peut supprimer les frontières de sécurité autour des données. Assurez-vous que toutes les données intégrées dans les modèles IA sont classifiées et vérifiées conformément aux normes centralisées.
Empêchez les violations de droits d’auteur. Utilisez un système de filtrage de contenu tel que la détection de matériel protégé dans Azure AI Content Safety pour filtrer le matériel protégé par droit d’auteur. Si vous ancrez, entraînez, ou ajustez un modèle d’IA, assurez-vous d’utiliser des données obtenues légalement et sous licence appropriée, et mettez en place des protections pour empêcher le modèle de violer les droits d’auteur. Examinez régulièrement les sorties pour vérifier la conformité en matière de propriété intellectuelle.
Implémentez le contrôle de version pour les données d’ancrage. Établissez un processus de contrôle de version pour les données d’ancrage, par exemple, dans le RAG. Le contrôle de version garantit que vous pouvez suivre tout changement dans les données sous-jacentes ou leur structure. Vous pouvez revenir en arrière si nécessaire, contribuant ainsi à la cohérence dans les déploiements.