Gérer l’IA : Recommandations pour la gestion de l’IA
Cet article présente le processus organisationnel pour la gestion des charges de travail IA. Il fournit des recommandations pour gérer les charges de travail IA, de leur développement à leur déploiement et exploitation. Une gestion efficace de l’IA nécessite une approche structurée, de la phase de développement au déploiement et aux opérations continues. Les entreprises ont besoin de pratiques normalisées et d’une surveillance régulière pour éviter des problèmes tels que la dérive des données et des modèles, garantissant ainsi la précision et la fiabilité de l’IA au fil du temps.
Gérer les opérations courantes de l’IA
La gestion des opérations IA garantit la visibilité et la cohérence tout au long du cycle de vie de l’IA. En adoptant des cadres opérationnels tels que MLOps, en créant des environnements de bac à sable et en établissant des pipelines CI/CD, vous pouvez superviser le développement, les tests et le déploiement.
Adoptez un cadre opérationnel IA. Implémentez MLOps (opérations de machine learning) pour les workflows de machine learning traditionnels et GenAIOps pour les charges de travail d’IA générative. Ces cadres organisent le cycle de bout en bout du développement IA.
Normalisez les outils de développement IA. Définissez et normalisez l’utilisation des SDK et API pour garantir la cohérence entre les équipes de développement. Des outils tels que Azure SDK pour les charges de travail IA fournissent des bibliothèques et des API optimisées pour le passage à l’échelle et l’intégration des modèles IA dans les applications. Pour l’IA générative, normalisez votre plateforme IA et les orchestrateurs, comme Semantic Kernel, LangChain, et Prompt Flow.
Utilisez un environnement de bac à sable pour les expérimentations IA. Utilisez un environnement de bac à sable pour les expérimentations de l’IA. Une cohérence entre les environnements de développement, de test et de production est préférable. Par conséquent, l’environnement de sandbox doit être distinct des environnements de développement, de test et de production dans le cycle de vie du développement IA. Changer les modèles de déploiement et de gouvernance entre ces environnements peut dissimuler et introduire des changements disruptifs.
Établissez des pipelines d’intégration continue et de livraison continue pour le déploiement. Assurez-vous que vos pipelines de données couvrent les contrôles de qualité du code, y compris le linting et l’analyse statique. Les pipelines doivent aussi inclure des tests unitaires et d’intégration, ainsi que des flux d’expérimentation et d’évaluation. Enfin, incorporez les étapes de déploiement en production, comme la promotion des versions vers les environnements de test et de production après approbations manuelles. Maintenez une séparation entre les modèles, les flux d’invite et l’interface utilisateur client pour que les mises à jour d’un composant n’affectent pas les autres. Chaque flux doit avoir son propre cycle de vie pour une promotion indépendante.
Superviser le déploiement de l’IA
La gestion du déploiement IA consiste à définir qui peut déployer des ressources IA et qui gère ces points de terminaison. Une approche structurée, dirigée par un centre d’excellence IA, aide les entreprises à décider si les équipes de charges de travail ou une équipe centrale doivent gérer les ressources, en équilibrant la rapidité de développement et les exigences de gouvernance. Le Centre d’excellence IA (AI CoE) doit diriger les efforts pour déterminer la meilleure approche.
Utilisez la gestion des ressources IA par les équipes de charges de travail pour un développement plus rapide. Lorsque les équipes de charges de travail gèrent les ressources IA, elles ont l’autonomie de déployer et gérer les ressources IA conformément aux politiques de gouvernance. Utilisez Azure Policy pour appliquer la gouvernance de manière cohérente sur tous les environnements de charge de travail. Créez et communiquez des politiques IA que les équipes de charge de travail doivent suivre pour combler les lacunes de gouvernance. Par exemple, créez des politiques pour l’IA générative afin d’imposer des paramètres de filtrage de contenu et d’empêcher l’utilisation de modèles non autorisés. Faites en sorte que ces stratégies sont clairement connues des équipes de charge de travail et auditent régulièrement.
Figure 1 : Gestion des ressources IA par l’équipe de charge de travail.
Utilisez une gestion partagée des ressources IA pour une gouvernance accrue de l’IA. Dans une approche de gestion partagée de l’IA, une équipe centrale gère les ressources IA pour toutes les charges de travail IA. Cette équipe déploie les ressources IA essentielles et configure la sécurité et la gouvernance pour toutes les équipes de charge de travail. Cette approche est recommandée si vous souhaitez qu’une seule équipe contrôle les déploiements IA et la gouvernance dans toutes les charges de travail.
Figure 2 : Gestion centralisée des ressources IA par l’équipe IA.
Gérer le partage des points de terminaison en IA
Le partage des points de terminaison IA entre charges de travail peut simplifier la gestion, mais il nécessite une attention particulière à la gouvernance et aux exigences des modèles. Les entreprises doivent partager les points de terminaison uniquement au sein d’une même charge de travail avec des besoins cohérents, car le partage entre des besoins différents peut compliquer la gouvernance et augmenter les coûts.
Évitez de partager les points de terminaison IA lorsque les besoins de gouvernance et de modèle varient. Les charges de travail nécessitant des paramètres de filtrage de contenu différents ne doivent pas partager de point de terminaison. De même, n’utilisez pas un seul point de terminaison IA si un modèle différent serait plus économique pour répondre aux besoins de charge de travail.
Partagez les points de terminaison IA uniquement au sein d’une charge de travail unique. Le partage d’un point de terminaison IA fonctionne mieux lorsqu’une équipe de charge de travail a plusieurs applications faisant partie de la même charge de travail. Le partage de points de terminaison nécessite une gestion minimale et simplifie le déploiement. Ces applications doivent partager les mêmes besoins de gouvernance et les mêmes besoins en matière de modèle IA. Le partage de points de terminaison peut vous amener à atteindre les limites de débit et les limitations de quota. La plupart des services Azure ont des limites par abonnement. Dans un abonnement, chaque région a des limites de quota.
Gérer les modèles IA
La gestion des modèles IA consiste à établir des structures de gouvernance, une surveillance continue et un ré-entraînement pour maintenir la performance dans le temps. Ce processus aide les entreprises à aligner les modèles sur les normes éthiques, suivre les performances des modèles et garantir que les systèmes IA restent efficaces et conformes aux objectifs de l’entreprise.
Établissez une structure de gouvernance pour la supervision de l’IA. Créez un centre d’excellence IA (AI CoE) ou nommez un responsable IA. Ils doivent s’assurer de l’adhésion aux normes IA responsables. Ils doivent décider des ajustements à apporter en fonction des rapports pour prendre leurs décisions. Utilisez le Tableau de bord IA responsable pour générer des rapports sur les sorties des modèles.
Définissez une base de mesure IA. Établissez une base de mesure pour garantir l’alignement des modèles IA sur les objectifs commerciaux et les normes éthiques. Utilisez des indicateurs de performance clés (KPI) liés aux principes d’IA responsable tels que l’équité, la transparence et la précision. Mettez en œuvre une surveillance continue. Les charges de travail IA peuvent évoluer en fonction des données, des mises à jour de modèles ou des changements dans le comportement des utilisateurs. Pour effectuer ces mesures, commencez par les outils utilisés dans le tableau de bord IA responsable.
Implémentez une surveillance continue. Les charges de travail IA peuvent changer au fil du temps en raison de l’évolution des données, des mises à jour de modèle ou des changements de comportement de l’utilisateur. Surveillez les modèles IA, ressources IA et données IA pour garantir que ces charges de travail restent alignées sur les KPI. Effectuez des audits pour évaluer les systèmes IA par rapport aux principes et métriques d’IA définis.
Identifiez les causes des problèmes de performance. Déterminez la source des problèmes lorsque la performance ou la précision baisse en surveillant l’IA. Assurez-vous d’avoir une visibilité à chaque étape de l’interaction pour isoler le problème et appliquer des actions correctives rapidement. Par exemple, si un chatbot de service client génère des réponses inexactes, la surveillance doit vous aider à déterminer si l’erreur se trouve dans l’élaboration d’invites (prompt) ou la compréhension du contexte du modèle. Utilisez des outils intégrés comme Azure Monitor et Application Insights pour identifier de manière proactive les goulots d’étranglement et les anomalies des performances.
Suivez la retraite des modèles. Suivez la fin de vie des modèles pré-entraînés pour éviter les problèmes de performance lorsque le support du fournisseur prend fin. Par exemple, un modèle d’IA générative peut être déconseillé. Vous devrez donc le mettre à jour pour gérer les fonctionnalités. Studio montre la date de retrait du modèle pour tous les déploiements.
Ré-entraînez les modèles IA selon les besoins. Prévoyez une dégradation des modèles dans le temps en raison des changements de données. Planifiez un ré-entraînement régulier en fonction des performances du modèle ou de l’entreprise pour vous assurer que le système d’intelligence artificielle reste pertinent. Le ré-entraînement peut être coûteux. Évaluez donc le coût d’entraînement initial et utilisez ce coût pour évaluer la fréquence à laquelle vous devez ré-entraîner les modèles IA. Conservez le contrôle de version pour les modèles et assurez-vous d’un mécanisme de restauration pour les versions sous-performantes.
Établissez le processus de promotion de modèle. Utilisez des portes de qualité pour promouvoir des modèles entraînés, affinés et ré-entraînés vers des environnements supérieurs en fonction des critères de performance. Les critères de performances sont uniques à chaque application.
Maîtriser les coûts de l’IA
La gestion des coûts IA nécessite une compréhension claire des dépenses liées aux ressources comme le calcul, le stockage et le traitement des tokens. Vous devez implémenter les bonnes pratiques de gestion des coûts, surveiller l’utilisation et configurer des alertes automatisées pour éviter les dépenses inattendues et optimiser l’efficacité des ressources.
Suivez les bonnes pratiques de gestion des coûts pour chaque service. Chaque service Azure a des fonctionnalités et des bonnes pratiques spécifiques qui optimisent l’optimisation des coûts. Familiarisez-vous avec les conseils suivants pour planifier et gérer les coûts dans Azure AI Studio, Azure OpenAI Service et Azure Machine Learning.
Surveillez et optimisez l’efficacité de la facturation. Comprendre les points d’arrêt des coûts pour éviter les frais inutiles. Par exemple, on peut citer l’utilisation complète des seuils à prix fixe pour la génération d’images ou le réglage horaire. Suivez vos modèles d’utilisation, y compris les jetons par minute (TPM) et les requêtes par minute (RPM), et ajustez les modèles et l’architecture en conséquence. Envisagez un modèle de facturation basé sur l’engagement pour des modèles d’utilisation cohérents.
Configurer des alertes de coût automatisées. Utilisez des alertes budgétaires vous avertissent des frais inattendus et établissez des stratégies de budget pour contrôler et prédire vos dépenses d’IA.
Pour les applications IA génératives à l’aide d’Azure OpenAI, consultez ces recommandations d’optimisation des coûts.
Gérer les flux de données en IA
La gestion efficace des données IA garantit la précision, l’intégrité et la sensibilité des données tout au long du cycle de vie IA. Lorsque vous sélectionnez des ensembles de données de haute qualité et sécurisez les flux de données, votre organisation peut garantir la fiabilité des données et la conformité avec les exigences réglementaires en évolution.
Maintenir l’exactitude des données et créer des ensembles de données de référence. Développez un ensemble de données faisant autorité pour les tests et validations réguliers des deux types d’IA. Organisez continuellement cet ensemble de données afin qu’il reflète des informations à jour et précises.
Assurer l’intégrité des flux de données. Développez et maintenez des flux de données personnalisés pour garantir l’intégrité des données depuis la collecte jusqu’au prétraitement et au stockage. Chaque étape du flux de données doit être sécurisée pour maintenir la performance et la fiabilité des applications IA, qu’elles soient génératives ou non génératives.
Gérer les changements de sensibilité des données. Comprenez que la classification de la sensibilité des données peut évoluer au fil du temps. Vous pourriez avoir besoin de re-classifier des données de faible sensibilité en données hautement sensibles en raison de changements commerciaux ou réglementaires. Développez des processus pour supprimer ou remplacer les données sensibles dans les systèmes en aval. Microsoft Defender pour le cloud et Microsoft Purview peuvent vous aider à étiqueter et gérer les données sensibles. Ce processus commence par un bon catalogue de données avant l’ingestion dans les systèmes d’IA. Lors de changements, identifiez tous les modèles ou systèmes utilisant les données sensibles. Si possible, ré-entraînez les modèles IA en utilisant des ensembles de données qui excluent les données re-classifiées comme sensibles.
Assurer la continuité des opérations en IA
La continuité d’activité et la récupération d’urgence pour l’IA impliquent de créer des déploiements multi-régions et de tester régulièrement les plans de récupération. Ces stratégies garantissent que les systèmes IA restent opérationnels en cas de perturbations et réduisent le risque de pannes prolongées ou de perte de données.
Utiliser des déploiements multi-régions pour l’IA. Implémentez des déploiements multi-régions pour assurer une haute disponibilité et une résilience des systèmes IA génératifs et non génératifs. Ces stratégies minimisent les interruptions et garantissent que les applications IA critiques restent opérationnelles lors de pannes régionales ou de défaillances d’infrastructure. Assurez-vous de mettre en place la redondance nécessaire pour les modèles entraînés et affinés afin d’éviter la nécessité de ré-entraînement en cas de panne.
Tester et valider régulièrement les plans de récupération d’urgence. Effectuez des tests réguliers des plans de récupération d’urgence pour vérifier que vous pouvez restaurer efficacement les systèmes IA génératifs et non génératifs. Incluez des tests des processus de restauration de données et des procédures de validation pour garantir que tous les composants IA fonctionnent correctement après la récupération. Une validation régulière assure que l’organisation est préparée aux incidents réels et minimise le risque de défaillances pendant la récupération.
Gérer et suivre les changements des systèmes IA. Assurez-vous que tous les changements de modèles, de données et de configurations sont gérés via des systèmes de contrôle de version tels que Git. Cela est essentiel pour suivre les modifications et permettre la restauration des versions précédentes en cas de récupération. Pour les IA génératives et non génératives, un audit automatisé des changements de modèles et de systèmes doit être en place pour que vous puissiez identifier rapidement et annuler les modifications non planifiées.