Examiner comment Microsoft 365 Copilot répond aux exigences de conformité réglementaire

Effectué

À mesure que la réglementation évolue dans l’espace IA, Microsoft continue de s’adapter et de répondre aux exigences réglementaires futures. Microsoft 365 Copilot s’aligne sur les engagements actuels de Microsoft en matière de sécurité et de confidentialité des données dans l’entreprise. Ces engagements ne sont pas modifiés. Microsoft 365 Copilot est intégré à Microsoft 365 et respecte tous les engagements existants en matière de confidentialité, de sécurité et de conformité envers Microsoft 365 clients professionnels. Pour plus d’informations, consultez Conformité Microsoft.

Au-delà du respect des réglementations, Microsoft hiérarchise un dialogue ouvert avec ses clients, partenaires et autorités réglementaires pour mieux comprendre et résoudre les problèmes. Ce dialogue permet de favoriser un environnement de confiance et de coopération. Microsoft reconnaît que la confidentialité, la sécurité et la transparence ne sont pas seulement des fonctionnalités, mais aussi des prérequis dans le paysage piloté par l’IA chez Microsoft.

Exigences de conformité réglementaire

En tant que système d’intelligence artificielle, Microsoft 365 Copilot doit respecter les lois et réglementations pertinentes régissant l’intelligence artificielle. Microsoft s’assure que Microsoft 365 Copilot est conforme aux principales exigences réglementaires suivantes :

  • Confidentialité des données

    • Microsoft renforce le contrôle client sur ses données en s’engageant à se conformer aux lois sur la confidentialité et aux normes de confidentialité largement applicables. Par exemple, ISO/IEC 27018, premier code de pratique international au monde pour la confidentialité du cloud.
    • Microsoft utilise une sécurité physique rigoureuse, un filtrage en arrière-plan et une stratégie de chiffrement multicouche pour protéger la confidentialité et l’intégrité du contenu client.
    • Pour le contenu accessible via les plug-ins Microsoft 365 Copilot, le chiffrement peut exclure l’accès programmatique, ce qui limite l’accès au contenu par le plug-in. Pour plus d’informations, consultez Configurer des droits d’utilisation pour Azure Information Protection.
  • Transparence

    • Microsoft fournit une documentation détaillée sur GitHub qui explique comment elle a conçu Microsoft 365 Copilot, quelles sont ses capacités et ses limites dans la génération de suggestions. Pour plus d’informations, consultez Vue d’ensemble Microsoft 365 Copilot.
    • Microsoft fournit également des informations sur les options d'extension de Copilot, comme un échantillon de code pour le connecteur Microsoft Graph TypeScript GitHub. Pour plus d’informations, consultez Options d’extensibilité de Microsoft 365 Copilot.
    • Microsoft permet à l'utilisateur de contrôler l'adoption des suggestions de Microsoft 365 Copilot afin de garantir la transparence. Les utilisateurs ont un contrôle total sur l’acceptation ou le rejet des suggestions Microsoft 365 Copilot. Cette conception garantit la transparence dans l’adoption des contributions de Microsoft 365 Copilot.
  • Équité

    • Pendant son développement, Microsoft a évalué Microsoft 365 Copilot à l’aide de tests conçus pour détecter les biais démographiques, les résultats injustes ou les préjudices. Ce test permet d’éviter un traitement injuste.
    • Microsoft dispose d’un processus de surveillance continu afin d'évaluer en permanence les suggestions de Microsoft 365 Copilot en ce qui concerne les problèmes d'équité. Ce processus permet de détecter et de corriger les problèmes.
    • Les utilisateurs peuvent rejeter les suggestions biaisées ou non équitables et les signaler à Microsoft. Vous pouvez rejeter les suggestions biaisées et en informer Microsoft.
  • Responsabilité

    • Microsoft propose des canaux comme les discussions GitHub et le support Microsoft 365 Copilot afin de faire des commentaires, de déposer des plaintes ou d'obtenir de l'aide concernant pour Microsoft 365 Copilot.
    • Microsoft procède régulièrement à des examens internes de Microsoft 365 Copilot pour vérifier la conformité aux réglementations et aux principes éthiques de l'IA.
    • Microsoft s’engage auprès de ses clients à utiliser les services Copilot et les résultats qu’ils génèrent sans se soucier des revendications de droits d’auteur. Si les clients font l’objet d’une requête de copyright, Microsoft assume la responsabilité des risques juridiques potentiels impliqués. Pour plus d’informations, consultez Microsoft annonce un nouvel engagement de copyright Copilot pour les clients.