Recommandations de gestion pour les charges de travail en IA sur Azure
Cet article fournit des recommandations de gestion pour les organisations exécutant des charges de travail en IA sur Azure. Il se concentre sur les solutions de plateforme en tant que service (PaaS) Azure AI, y compris Azure AI Studio, Azure OpenAI, Azure Machine Learning, et Azure AI Services. Il couvre à la fois les charges de travail d’IA générative et non générative.
La gestion efficace des charges de travail en IA sur Azure implique de superviser le déploiement, la performance des modèles, les opérations, les données et la récupération d’urgence pour soutenir vos charges de travail en IA. Une gestion appropriée aide à garantir que les charges de travail en IA sont fiables, dignes de confiance et sécurisées tout au long de leur cycle de vie.
Gérer les déploiements d’IA
Gérer les déploiements d’IA aide les équipes de charge de travail à passer des étapes de preuve de concept aux environnements de production avec des configurations cohérentes qui améliorent la sécurité et la conformité au sein des équipes. Azure propose des outils comme les hubs et projets d’Azure AI Studio pour renforcer la gouvernance et la sécurité. Azure Machine Learning dispose de capacités similaires avec ses espaces de travail hub. Pour plus d’informations, veuillez consulter la section Gérer les déploiements d’IA.
Gérer les modèles IA
La gestion des modèles d’IA comprend la surveillance de leurs résultats, de leurs performances et de leur alignement avec les principes d’IA Responsable. Les modèles d’IA peuvent dériver au fil du temps en raison de changements de données, de comportements des utilisateurs ou d’autres facteurs externes. Ces changements peuvent entraîner des résultats inexacts ou des préoccupations éthiques s’ils ne sont pas traités.
Surveiller les sorties des modèles Mettez en place un processus de surveillance et de test pour garantir que ces charges de travail restent alignées sur vos objectifs d’IA Responsable.
Surveillance de l’IA générative Pour les charges de travail en IA générative, utilisez les capacités intégrées d’évaluation et de surveillance manuelle d’Azure AI Studio. Si vous utilisez un flux d’invite, surveillez les déploiements de flux d’invite. Envisagez également d’utiliser des outils d’IA Responsable pour compléter la surveillance des modèles.
Surveillance de l’IA non générative Pour les charges de travail en IA non générative, surveillez les étapes de traitement des données et les métriques de performance des modèles pour garantir que les prédictions restent précises et fiables. Activez la surveillance des modèles dans Azure Machine Learning. Pour les services Azure AI, activez la surveillance pour chaque service IA que vous utilisez.
Surveiller la performance des modèles. Lorsqu’une baisse de performance ou de précision est détectée, la surveillance aide à identifier la source du problème. Comme pour toutes les charges de travail, utilisez Azure Monitor et Application Insights pour surveiller la performance des charges de travail en IA.
Surveillance de la performance de l’IA générative Dans l’IA générative, surveillez la latence des temps de réponse ou la précision des résultats de recherche vectorielle pour améliorer les expériences utilisateur. Dans Azure AI Studio, activez le traçage pour collecter les données de traçage pour chaque demande, les métriques agrégées et les retours utilisateurs.
Surveillance de la performance de l’IA non générative Capturez les métriques de performance des modèles déployés dans Azure Machine Learning. Pour les services Azure AI, activez la journalisation diagnostique pour chaque service Azure AI.
Envisagez une passerelle pour l’IA générative pour la surveillance. Un proxy inverse comme Azure API Management vous permet de mettre en place la journalisation et la surveillance qui ne sont pas natives de la plateforme. API Management vous permet de collecter les IP sources, le texte d’entrée et le texte de sortie. Pour plus d’informations, veuillez consulter la section Implémenter la journalisation et la surveillance pour les modèles de langage Azure OpenAI Service.
Gérer les opérations courantes de l’IA
La gestion des opérations d’IA implique la standardisation des ressources de calcul et la surveillance des ressources de plateforme pour les charges de travail Azure AI. Elle garantit que les équipes utilisent les bonnes ressources de calcul de manière efficace et capturent les métriques et les journaux des ressources de la plateforme.
Surveiller les ressources de la plateforme Utilisez les paramètres de diagnostic pour capturer les journaux et les métriques de tous les services clés, tels que Azure AI Studio, Azure Machine Learning et les services Azure AI. Les services spécifiques doivent capturer les journaux d’audit et les journaux spécifiques aux services concernés. Implémentez des alertes de surveillance personnalisées en fonction des besoins spécifiques de votre architecture. Les exemples incluent des alertes pour les registres de conteneurs, les services Machine Learning et les opérations Azure OpenAI Service.
Standardiser la gestion des calculs Vous avez besoin de ressources de calcul pour certaines actions comme les flux d’invite et la formation des modèles. Un service tel que Machine Learning propose différentes options de calcul, telles que des instances de calcul, des clusters et des options sans serveur. Standardisez le type de calcul, les environnements d’exécution et les périodes d’arrêt. Pour les options de calcul spécifiques aux services, veuillez consulter les sections Azure AI Studio et Machine Learning.
Gérer les flux de données en IA
Des données de haute qualité sont le fondement de modèles d’IA précis. Suivre la dérive des modèles aide à maintenir la pertinence des prédictions d’IA au fil du temps, et cela permet aux organisations d’adapter les modèles si nécessaire pour refléter les conditions actuelles.
Surveiller la dérive des données. Suivez en continu la précision et la dérive des données dans l’IA générative et non générative pour garantir que les modèles restent pertinents. La surveillance peut vous alerter lorsque les prédictions des modèles ou les réponses des grands modèles de langage dévient du comportement attendu. Cette déviation indique un besoin de ré-entraînement ou d’ajustement. Configurez des alertes personnalisées pour détecter les seuils de performance. Cette approche permet une intervention rapide en cas de problème. Utilisez les évaluations dans Azure AI Studio et les métriques prises en charge dans Machine Learning.
Assurer une qualité de traitement des données Pour le machine learning, les données d’entraînement doivent être formatées, propres et prêtes à être consommées par le modèle. Pour l’IA générative, les données de base doivent être dans le bon format et probablement segmentées, enrichies et intégrées pour être consommées par le modèle d’IA. Pour plus d’informations, veuillez consulter le Guide de conception et de développement d’une solution RAG.
Gérer la continuité d'activité
Implémentez des déploiements multi-régions pour garantir une haute disponibilité et une résilience pour les systèmes d’IA générative et non générative. Pour plus d’informations, veuillez consulter la section sur le déploiement multi-régions dans Azure AI Studio, Azure Machine Learning et Azure OpenAI.