Considérations sur l’IA responsable pour les charges de travail des applications intelligentes
Les charges de travail des applications intelligentes doivent adhérer aux principes d’IA responsable pour garantir l’équité, la responsabilité, la transparence et le comportement éthique.
Concevez le système d’IA de manière à traiter tous les utilisateurs de manière équitable, à tenir les développeurs et les utilisateurs responsables de ses performances, à garantir la transparence des opérations d’IA et à adhérer aux normes éthiques.
Chez Microsoft, nous nous engageons à faire progresser l’IA en nous appuyant sur des principes qui donnent la priorité aux personnes. Les modèles génératifs présentent des avantages potentiels importants, mais sans une conception soignée et des mesures d’atténuation réfléchies, ces modèles ont le potentiel de générer du contenu incorrect, voire nuisible. Microsoft a réalisé des investissements importants pour aider à se prémunir contre les abus et les dommages involontaires, notamment en intégrant les principes d’utilisation responsable de l’IA de Microsoft, en adoptant un code de conduite, en créant des filtres de contenu pour aider les clients et en fournissant des informations et des conseils sur l’IA responsable que les clients devraient prendre en compte lorsqu’ils utilisent l’IA générative.
Power Platform copilotes et fonctionnalités d’IA générative suivre un ensemble de pratiques de sécurité et de confidentialité de base et la Microsoft norme d’IA responsable. Power Platform les données sont protégées par des contrôles complets de conformité, de sécurité et de confidentialité, à la pointe du secteur.
En savoir plus :
- Microsoft Principes de l’IA
- Microsoft Ressources d’IA responsables
- Microsoft Azure Cours d’apprentissage sur l’IA responsable
- FAQ sur l’IA responsable pour Copilot Studio
- Présentation des pratiques d’IA responsable pour les modèles Azure OpenAI
Principes fondamentaux d’une IA responsable
Les principes fondamentaux de l’IA responsable comprennent l’équité, la responsabilité, la transparence et l’éthique. Pour garantir qu’une charge de travail d’application intelligente conçue avec Power Platform adhère à ces principes fondamentaux, plusieurs pratiques clés sont nécessaires :
- Équité : utiliser des données de formation diverses et représentatives pour minimiser les biais. Mettez régulièrement à jour les données de formation et faites appel à des auditeurs pour valider l’équité et la justice.
- Responsabilité : Définissez des rôles et des responsabilités clairs pour les membres de l’équipe impliqués dans le projet d’IA. Établir et respecter des normes éthiques qui privilégient l’équité et la responsabilité.
- Transparence : assurez-vous que les utilisateurs savent qu’ils utilisent une charge de travail qui utilise des fonctionnalités d’IA générative. Communiquez clairement pourquoi une solution d’IA a été choisie, comment elle a été conçue et comment elle est surveillée et mise à jour.
- Éthique : Favoriser une main-d’œuvre inclusive et solliciter l’avis de diverses communautés dès le début du processus de développement. Évaluer et tester régulièrement les modèles afin de détecter les problèmes éthiques et les disparités de performance. Établir un cadre de gouvernance qui comprend des audits réguliers.
Intégrez ces pratiques à vos processus de développement et de déploiement pour créer une charge de travail d’application intelligente qui adhère aux principes fondamentaux de l’IA responsable.
Confidentialité et sécurité des données
Il est essentiel de garantir la confidentialité des données, en particulier lorsque la charge de travail des applications intelligentes peut gérer des données sensibles. Lors de la planification d’une charge de travail d’application intelligente avec Power Platform, il est essentiel de prendre en compte plusieurs risques clés et de mettre en œuvre des stratégies d’atténuation efficaces :
- Fonctionnalités de la plateforme : Comprenez les contrôles natifs et les fonctionnalités de la plateforme qui protègent vos données. Microsoft Copilot est basé sur le Microsoft Azure OpenAI Service et fonctionne entièrement dans le cloud Azure. Copilot utilise des modèles OpenAI avec toutes les fonctionnalités de sécurité de Microsoft Azure. Copilot est intégré à des services tels que Dynamics 365 et Microsoft et hérite de leurs politiques et processus de sécurité, de confidentialité et de conformité, tels que l’authentification multifacteur et les limites de conformité. Power Platform
- Cryptage des données : les technologies côté service chiffrent le contenu organisationnel au repos et en transit pour une sécurité renforcée. Les connexions sont protégées avec Transport couche Security (TLS) et les transferts de données entre Dynamics 365, Power Platform et Azure OpenAI s’effectuent sur le Microsoft réseau principal, garantissant à la fois fiabilité et sécurité. En savoir plus sur le chiffrement dans le Microsoft cloud.
- Contrôles d’accès : les données sont fournies à Copilot en fonction du niveau d’accès de l’utilisateur actuel. Implémentez le contrôle d’accès basé sur les rôles (RBAC) à l’aide de l’ID pour garantir que seuls les utilisateurs autorisés peuvent accéder aux données. Microsoft Entra Appliquez le principe du moindre privilège pour limiter l’accès à ce qui est nécessaire uniquement.
- Surveillance et audit : Détectez et répondez aux incidents de sécurité potentiels en surveillant régulièrement l’accès et l’utilisation du système d’IA. Maintenez des journaux d’audit détaillés pour suivre l’accès et les modifications des données.
- Conformité et gouvernance : Assurez la conformité avec les réglementations pertinentes en matière de confidentialité des données telles que RGPD (Règlement général sur la protection des données), HIPAA (Health Insurance Portability and Accountability Act) et CCPA (California Consumer Privacy Act). Mettre en œuvre des pratiques d’IA éthiques pour éviter les biais et garantir l’équité dans les résultats de l’IA.
- Éducation et formation des utilisateurs : Formez les utilisateurs aux meilleures pratiques de sécurité et à l’importance de la confidentialité des données. Tenez les utilisateurs informés des mises à jour et des modifications apportées aux politiques et procédures de sécurité.
En savoir plus : FAQ sur la sécurité et la confidentialité des données Copilot pour Dynamics 365 et Power Platform
Sensibilisation et atténuation des préjugés
Reconnaître l’importance de s’attaquer aux biais dans le système et de garantir l’équité pour éviter les biais dans les réponses de l’IA.
- Données diverses et représentatives : Assurez-vous que les données de formation sont diverses et représentatives de différentes données démographiques afin de minimiser les biais inhérents. Vérifiez régulièrement les données pour détecter les biais et les déséquilibres, et prenez les mesures correctives nécessaires.
- Outils de détection et d’atténuation des biais : utilisez des outils et des techniques pour détecter les biais dans les modèles d’IA, tels que l’analyse statistique et les mesures d’équité. Mettre en œuvre des techniques de correction des biais, notamment le rééchantillonnage, la repondération ou la correction des biais contradictoires, pour réduire les biais dans les modèles.
- Intervention humaine : intégrez des boucles de révision et de rétroaction humaines pour identifier et corriger les biais que l’IA pourrait introduire. Créer un comité d’éthique ou un conseil de gouvernance pour superviser le développement et le déploiement de l’IA, en veillant à ce que les normes éthiques soient respectées.
- Transparence et confiance : assurez-vous que les utilisateurs savent qu’ils utilisent une charge de travail qui utilise des capacités d’IA générative. Communiquez clairement pourquoi une solution d’IA a été choisie et fournissez des informations sur la manière dont elle a été conçue et comment elle est surveillée et mise à jour.
- Surveillance et amélioration continues : Surveillez en permanence le système d’IA pour détecter les biais et les problèmes de performances, et mettez à jour les modèles si nécessaire. Assurez-vous que les modèles restent justes et impartiaux en les recyclant régulièrement avec des données mises à jour et plus diversifiées.
Suivi et évaluation continus
Continuez à améliorer votre charge de travail d’application intelligente. Établir un cadre de suivi et d’évaluation continus et intégrer les commentaires des utilisateurs et l’évolution des normes éthiques dans les mises à jour.
- Boucles de rétroaction : Établir des mécanismes de rétroaction où les utilisateurs peuvent signaler des inexactitudes, qui peuvent ensuite être utilisées pour affiner et améliorer les modèles.
- Surveillance et audit : Détectez et répondez aux incidents de sécurité potentiels en surveillant régulièrement l’accès et l’utilisation du système d’IA. Maintenez des journaux d’audit détaillés pour suivre l’accès et les modifications des données.