Considérations relatives à l’IA responsable pour les charges de travail d’applications intelligentes
Les charges de travail des applications intelligentes doivent respecter les principes de l’IA responsable pour garantir l’équité, la responsabilité, la transparence et un comportement éthique.
Concevez le système d’IA de manière à traiter équitablement tous les utilisateurs, à tenir les développeurs et les utilisateurs responsables de ses performances, à garantir la transparence des opérations d’IA et à respecter des normes éthiques.
Chez Microsoft, nous nous engageons à faire progresser l’IA en nous appuyant sur des principes qui placent l’humain au premier plan. Les modèles génératifs présentent des avantages potentiels significatifs, mais sans une conception minutieuse et des mesures d’atténuation réfléchies, de tels modèles ont le potentiel de générer un contenu incorrect, voire préjudiciable. Microsoft a réalisé des investissements importants pour aider à se protéger contre les abus et les préjudices involontaires, notamment l’incorporation des principes pour une utilisation responsable de l’IA de Microsoft, l’adoption d’un code de conduite, la création de filtres de contenu pour prendren en charge les clients et la fourniture d’informations et de conseils sur l’IA responsable que les clients doivent prendre en compte lorsqu’ils utilisent l’IA générative.
Les copilotes Power Platform et les fonctionnalités d’IA générative suivent un ensemble de pratiques de base pour la sécurité et la confidentialité, ainsi que la Norme sur l’IA responsable de Microsoft. Les données Power Platform sont protégées par des contrôles de conformité, de sécurité et de confidentialité complets et à la pointe du secteur.
En savoir plus :
- Principes Microsoft AI
- Ressources de l’IA responsable de Microsoft
- Microsoft Azure Cours d’apprentissage sur l’IA responsable
- FAQ sur l’IA responsable pour Copilot Studio
- Vue d’ensemble des pratiques d’IA responsable pour les modèles Azure OpenAI
Principes fondamentaux de l’IA responsable
Les principes fondamentaux de l’IA responsable comprennent l’équité, la responsabilité, la transparence et l’éthique. Pour garantir que la charge de travail d’une application intelligente créée avec Power Platform respecte ces principes fondamentaux, plusieurs pratiques clés sont nécessaires :
- Équité : utilisez des données de formation diversifiées et représentatives pour réduire les biais. Mettez régulièrement à jour les données de formation et faites appel à des auditeurs pour valider la justice et l’équité.
- Responsabilité : définissez clairement les rôles et les responsabilités des membres de l’équipe impliqués dans le projet d’IA. Établissez et respectez des normes éthiques qui privilégient l’équité et la responsabilité.
- Transparence : assurez-vous que les utilisateurs savent qu’ils utilisent une charge de travail qui utilise des fonctionnalités d’IA générative. Expliquez clairement pourquoi une solution d’IA a été choisie, comment elle a été conçue, et comment elle est surveillée et mise à jour.
- Éthique : favorisez une main-d’œuvre inclusive et sollicitez la contribution de diverses communautés dès le début du processus de développement. Évaluez et testez régulièrement les modèles pour détecter les préoccupations éthiques et les disparités de performance. Établissez un cadre de gouvernance qui comprend des audits réguliers.
Intégrez ces pratiques dans vos processus de développement et de déploiement pour créer la charge de travail d’une application intelligente qui adhère aux principes fondamentaux de l’IA responsable.
Confidentialité et sécurité des données
Il est essentiel de garantir la confidentialité des données, d’autant plus que la charge de travail de l’application intelligente peut traiter des données sensibles. Lors de la planification de la charge de travail d’une application intelligente Power Platform, il est primordial de prendre en compte plusieurs risques clés et de mettre en œuvre des stratégies d’atténuation efficaces :
- Fonctionnalités de la plateforme : comprenez les contrôles natifs et les fonctionnalités de la plateforme qui protègent vos données. Microsoft Copilot est basé sur le Service Microsoft Azure OpenAI et s’exécute entièrement dans le cloud Azure. Copilot utilise des modèles OpenAI avec toutes les fonctionnalités de sécurité de Microsoft Azure. Copilot est intégré aux services Microsoft comme Dynamics 365 et Power Platform et hérite des précieuses politiques et processus de sécurité, de conformité et de confidentialité de ces produits, telles que l’authentification multifacteur et les limites de confidentialité.
- Chiffrement des données : les technologies côté service chiffrent le contenu organisationnel au repos et en transit pour une sécurité renforcée. Les connexions sont sécurisées avec Transport Layer Security (TLS) et les transferts de données entre Dynamics 365, Power Platform et Azure OpenAI s’effectuent via le réseau fédérateur de Microsoft, garantissant à la fois fiabilité et sécurité. En savoir plus sur le chiffrement dans Microsoft Cloud.
- Contrôles d’accès : les données sont fournies à Copilot (ou à un agent personnalisé) en fonction du niveau d’accès de l’utilisateur actuel. Mettez en œuvre un contrôle d’accès en fonction du rôle (RBAC) à l’aide de Microsoft Entra ID pour garantir que seuls les utilisateurs autorisés peuvent accéder aux données. Appliquez le principe du moindre privilège pour limiter l’accès à ce qui est nécessaire.
- Surveillance et audit : détectez et répondez aux incidents de sécurité potentiels en surveillant régulièrement l’accès et l’utilisation du système d’IA. Tenir à jour des journaux d’audit détaillés pour suivre l’accès aux données et les modifications.
- Conformité et gouvernance : assurez la conformité avec les réglementations pertinentes en matière de confidentialité des données, telles que RGPD (Règlement général sur la protection des données), HIPAA (Health Insurance Portability and Accountability Act) et CCPA (California Consumer Privacy Act). Mettez en œuvre des pratiques d’IA éthiques pour éviter les préjugés et garantissez l’équité dans les résultats de l’IA.
- Éducation et formation des utilisateurs : formez les utilisateurs sur les meilleures pratiques de sécurité et l’importance de la confidentialité des données. Tenez les utilisateurs informés des mises à jour et des modifications apportées aux stratégies et procédures de sécurité.
Pour en savoir plus, voir FAQ sur la sécurité et la confidentialité des données Copilot pour Dynamics 365 et Power Platform
Sensibilisation et atténuation des préjugés
Reconnaissez l’importance de s’attaquer aux préjugés dans le système et assurez l’équité afin d’éviter les préjugés dans les réponses de l’IA.
- Données diversifiées et représentatives : assurez-vous que les données de formation sont diversifiées et représentatives de différents segments démographiques afin de réduire les biais inhérents. Vérifiez régulièrement les données pour détecter les préjugés et les déséquilibres, et prenez des mesures correctives si nécessaire.
- Outils de détection et d’atténuation des biais : utilisez des outils et des techniques pour détecter les biais dans les modèles d’IA, tels que l’analyse statistique et les mesures d’équité. Mettez en œuvre des techniques de débiaisage, y compris le rééchantillonnage, la repondération ou le débiaisage antagoniste, pour réduire les biais dans les modèles.
- Humain dans la boucle : incorporez la révision humaine et les boucles de commentaires pour identifier et corriger les biais que l’IA pourrait introduire. Mettez en place un comité d’éthique ou un conseil de gouvernance pour superviser le développement et le déploiement de l’IA, en veillant à ce que les normes éthiques soient respectées.
- Transparence et confiance : assurez-vous que les utilisateurs savent qu’ils utilisent une charge de travail qui utilise des fonctionnalités d’IA générative. Expliquez clairement pourquoi une solution d’IA a été choisie et fournissez des informations sur la façon dont elle a été conçue, ainsi que sur la manière dont elle est surveillée et mise à jour.
- Surveillance et amélioration continues : surveillez en permanence le système d’IA pour détecter les biais et les problèmes de performance, et mettez à jour les modèles si nécessaire. Assurez-vous que les modèles restent justes et impartiaux en réentraînant régulièrement les modèles avec des données mises à jour et plus diversifiées.
Suivi et évaluation continus
Continuez à améliorer la charge de travail de vos applications intelligentes. Établissez un cadre de surveillance et d’évaluation continus, et intégrez les commentaires des utilisateurs et l’évolution des normes éthiques dans les mises à jour.
- Boucles de commentaires : établissez des mécanismes de commentaires où les utilisateurs peuvent signaler les inexactitudes, qui peuvent ensuite être utilisées pour affiner et améliorer les modèles.
- Surveillance et audit : détectez et répondez aux incidents de sécurité potentiels en surveillant régulièrement l’accès et l’utilisation du système d’IA. Tenir à jour des journaux d’audit détaillés pour suivre l’accès aux données et les modifications.