FAQ sur la sécurité et la confidentialité des données Copilot pour Dynamics 365 et Power Platform
Les fonctionnalités Copilot pour Dynamics 365 et Power Platform suivent un ensemble de pratiques de sécurité de base et de confidentialité ainsi que la Norme relative à l’IA responsable de Microsoft. Les données de Dynamics 365 et Power Platform sont protégées par des contrôles de conformité, de sécurité et de confidentialité complets et à la pointe du secteur.
Copilot repose sur le Microsoft Azure OpenAI Service et est entièrement exécuté dans le cloud Azure. Azure OpenAI offre une disponibilité régionale et un filtrage de contenu IA responsable. Copilot utilise des modèles OpenAI avec toutes les fonctionnalités de sécurité de Microsoft Azure. OpenAI est une organisation indépendante. Nous ne partageons pas vos données avec OpenAI.
Les fonctionnalités Copilot ne sont pas disponibles dans toutes les zones géographiques et langues Azure. Selon l’endroit où votre environnement est hébergé, vous devrez peut-être autoriser le déplacement des données entre les zones géographiques pour les utiliser. Pour plus d’informations, consultez les articles répertoriés sous Déplacement des données entre zones géographiques.
Qu’arrive-t-il à mes données lorsque j’utilise Copilot ?
Vous avez le contrôle de vos données. Microsoft ne partage pas vos données avec un tiers, sauf si vous en avez donné l’autorisation. De plus, nous n’utilisons pas vos données client pour former ou améliorer Copilot ou ses fonctionnalités d’IA, sauf si vous nous avez donné votre consentement pour le faire. Copilot adhère aux autorisations et stratégies de données existantes, et ses réponses à vous sont basées uniquement sur les données auxquelles vous avez personnellement accès. Pour en savoir plus sur la manière de contrôler vos données et comment vos données sont traitées, consultez les articles répertoriés sous Copilot dans les applications Dynamics 365 et Power Platform.
Copilot surveille les utilisations abusives ou nuisibles du service avec un traitement transitoire. Nous ne stockons ni n’effectuons d’examen oculaire des entrées et sorties de Copilot à des fins de surveillance des abus.
Comment Copilot utilise-t-il mes données ?
Chaque service ou fonctionnalité utilise Copilot en fonction des données que vous fournissez ou configurez pour traitement par Copilot.
Vos invites (entrées) et les réponses de Copilot (sorties ou résultats) :
Ne sont PAS disponibles pour les autres clients.
Ne sont PAS utilisées pour former ou améliorer des produits ou services tiers (tels que les modèles OpenAI).
Ne sont PAS utilisées pour former ou améliorer les modèles Microsoft AI, sauf si votre administrateur client opte pour le partage de données avec nous. Pour en savoir plus, consultez la FAQ sur le partage de données facultatif pour les fonctionnalités d’IA de Copilot dans Dynamics 365 et Power Platform.
En savoir plus sur les données, la confidentialité et la sécurité dans Azure OpenAI Service. Pour en savoir plus sur la manière dont Microsoft protège et utilise vos données de manière plus générale, lisez notre Déclaration de confidentialité.
Où vont mes données ?
Microsoft repose sur la confiance. Nous nous engageons à garantir la sécurité, la confidentialité et la conformité dans tout ce que nous faisons, et notre approche de l’IA n’est pas différente. Les données client, y compris les entrées et sorties Copilot, sont stockées dans la limite de confiance Microsoft Cloud.
Dans certains scénarios, tels que les fonctionnalités optimisées par Bing et les plug-ins copilotes tiers, les données client peuvent être transmises en dehors de la limite de confiance Microsoft Cloud.
Copilot peut-il accéder au contenu crypté ?
Les données sont fournies à Copilot en fonction du niveau d’accès de l’utilisateur actuel. Si un utilisateur a accès aux données chiffrées dans Dynamics 365 et Power Platform et que l’utilisateur les fournit à Copilot, Copilot peut alors y accéder.
Comment Copilot protège-t-il les données des clients ?
Microsoft est particulièrement bien placé pour fournir une IA adaptée à l’entreprise. Optimisé par Azure OpenAI Service, Copilot est conforme à nos engagements réglementaires existants en matière de confidentialité, de sécurité et de conformité envers nos clients.
Basé sur l’approche globale de Microsoft en matière de sécurité, de confidentialité et de conformité. Copilot est intégré aux services Microsoft comme Dynamics 365 et Power Platform et hérite des précieux processus et stratégies de sécurité, de conformité et de confidentialité, telles que l’authentification multifacteur et les limites de conformité.
Plusieurs formes de protection pour sauvegarder les données de l’organisation. Les technologies côté service chiffrent le contenu organisationnel au repos et en transit pour une sécurité renforcée. Les connexions sont sécurisées avec Transport Layer Security (TLS) et les transferts de données entre Dynamics 365, Power Platform et Azure OpenAI s’effectuent via le réseau fédérateur de Microsoft, garantissant à la fois fiabilité et sécurité. En savoir plus sur le chiffrement dans Microsoft Cloud.
Conçu pour protéger vos données au niveau du client et de l’environnement. Nous savons que la fuite de données est une préoccupation pour les clients. Les modèles IA de Microsoft ne sont pas formés et n’apprennent pas de vos données de client ou de vos invites, sauf si votre administrateur client a choisi de partager des données avec nous. Au sein de vos environnements, vous pouvez contrôler l’accès via les autorisations que vous configurez. Les mécanismes d’authentification et d’autorisation séparent les demandes adressées au modèle partagé entre les clients. Copilot utilise des données auxquelles vous seul pouvez accéder en utilisant la même technologie que nous utilisons depuis des années pour sécuriser les données des clients.
Les réponses de Copilot sont-elles toujours factuelles ?
Comme avec l’IA générative, les réponses produites par Copilot ne sont pas 100 % factuelles. Bien que nous continuions à améliorer les réponses aux demandes factuelles, vous devez toujours faire preuve de jugement lors de l’examen des résultats avant de les transmettre. Copilot fournit des brouillons et des résumés utiles pour vous aider à en faire plus, mais cela est entièrement automatique. Vous avez toujours la possibilité de consulter le contenu généré par l’IA.
Nos équipes améliorent en continu les algorithmes pour résoudre de manière proactive les problèmes comme la mésinformation et la désinformation, le blocage de contenu, la sécurité des données et la promotion de contenu préjudiciable ou discriminatoire conformément à nos principes d’IA responsable.
Nous offrons également des conseils dans le cadre de l’expérience utilisateur pour renforcer l’utilisation responsable du contenu et des actions suggérées par l’IA.
Instructions et invites. Lors de l’utilisation de Copilot, des invites et autres éléments d’information vous indiquent comment utiliser de manière responsable le contenu et les actions suggérés, y compris des invites pour examiner et modifier les réponses si nécessaire avant utilisation, et pour vérifier manuellement l’exactitude des faits, des données et du texte avant d’utiliser le contenu généré par l’IA.
Sources citées. Le cas échéant, Copilot cite ses sources d’informations, qu’elles soient publiques ou internes, afin que vous puissiez les consulter vous-même pour confirmer ses réponses.
Pour plus d’informations, consultez FAQ sur l’IA responsable pour votre produit sur Microsoft Learn.
Comment Copilot bloque-t-il les contenus nuisibles ?
Azure OpenAI Service comprend un système de filtrage de contenu qui fonctionne parallèlement aux modèles de base. Les modèles de filtrage de contenu pour les catégories Haine et équité, Sexualité, Violence et Auto-mutilation ont été spécifiquement formés et testés dans plusieurs langues. Ce système fonctionne en exécutant à la fois l’invite de saisie et la réponse via des modèles de classification conçus pour identifier et bloquer la sortie de contenu nuisible.
Les préjudices liés à la haine et à l’équité font référence à tout contenu utilisant un langage péjoratif ou discriminatoire basé sur des attributs tels que la race, l’origine ethnique, la nationalité, l’identité et l’expression de genre, l’orientation sexuelle, la religion, le statut d’immigration, les capacités, l’apparence personnelle et la taille. L’équité consiste à garantir que les systèmes d’IA traitent équitablement tous les groupes de personnes sans contribuer aux inégalités sociétales existantes. Le contenu sexuel implique des discussions sur les organes reproducteurs humains, les relations amoureuses, les actes décrits en termes érotiques ou affectueux, la grossesse, les actes sexuels physiques, y compris ceux présentés comme une agression ou un acte forcé de violence sexuelle, la prostitution, la pornographie et les abus. La violence décrit le langage lié aux actions physiques destinées à blesser ou à tuer, y compris les actions, les armes et les entités associées. Le langage de l’auto-mutilation fait référence à des actions délibérées visant à se blesser ou à se suicider.
En savoir plus sur le filtrage de contenu Azure OpenAI.
Copilot bloque-t-il les injections d’invites (attaques de jailbreak) ?
Les attaques de jailbreak sont des invites utilisateur conçues pour inciter le modèle IA génératif à présenter des comportements pour lesquels il a été entraîné à éviter ou à enfreindre les règles définies à suivre. Les services dans Dynamics 365 et Power Platform doivent protéger contre les injections de commande. En savoir plus sur les attaques de jailbreak et sur la façon d’utiliser Azure AI Content Safety pour les détecter.
Copilot bloque-t-il les injections d’invites indirectes (attaques indirectes) ?
Les attaques indirectes, également appelées attaques par invite indirecte ou attaques par injection d’invite inter-domaines constituent une vulnérabilité potentielle où des tiers placent des instructions malveillantes à l’intérieur de documents auxquels le système d’IA générative peut accéder et traiter. Les services dans Dynamics 365 et Power Platform doivent protéger contre les injections d’invite indirectes. Apprenez-en davantage sur les attaques indirectes et sur la façon d’utiliser Azure AI Content Safety pour les détecter.
Comment Microsoft teste-t-il et valide-t-il la qualité de Copilot, y compris la protection contre les injections rapides et les réponses fondées ?
Chaque nouvelle itération de produit Copilot et de modèle de langage doit passer un examen interne de contenu IA responsable avant son lancement. Avant la mise en production, nous utilisons un processus appelé « red-teaming » (dans lequel une équipe simule une attaque ennemie, trouvant et exploitant les faiblesses pour aider l’organisation à améliorer ses défenses) pour évaluer les risques potentiels liés aux contenus nuisibles, aux scénarios de jailbreak et aux réponses fondées. Après la mise en production, nous utilisons des tests automatisés et des outils d’évaluation manuels et automatisés pour évaluer la qualité des réponses Copilot.
Comment Microsoft améliore-t-il le modèle de base et mesure-t-il les améliorations des réponses fondées ?
Dans le contexte de l’IA, en particulier de l’IA qui traite des modèles de langage comme celui sur lequel Copilot est basé, l’ancrage permet à l’IA à générer des réponses plus pertinentes et plus logiques dans le vrai monde. L’ancrage permet de garantir que les réponses de l’IA sont basées sur des informations fiables et sont aussi précises et pertinentes que possible. Les mesures de réponse fondée évaluent avec quelle précision les faits énoncés dans le contenu de base fourni au modèle sont représentés dans la réponse finale.
Les modèles de fondation comme GPT-4 sont améliorés par les techniques de génération augmentée de récupération (RAG). Ces techniques permettent aux modèles d’utiliser plus d’informations que celles sur lesquelles ils ont été formés pour comprendre le scénario d’un utilisateur. RAG fonctionne en identifiant d’abord les données pertinentes pour le scénario, de la même manière qu’un moteur de recherche identifie les pages Web pertinentes pour les termes de recherche de l’utilisateur. Il fait appel à plusieurs approches pour identifier le contenu pertinent pour l’invite de l’utilisateur et doit être utilisé pour étayer la réponse. Les approches incluent la recherche sur différents types d’index, tels que les index inversés utilisant des techniques de récupération d’informations telles que la correspondance de termes, ou les index vectoriels utilisant des comparaisons de distances vectorielles pour la similarité sémantique. Après avoir identifié les documents pertinents, la technique de RAG transmet les données au modèle avec la conversation en cours, donnant au modèle plus de contexte pour mieux comprendre les informations dont il dispose déjà et générer une réponse ancrée dans le monde réel. Enfin, la RAG vérifie la réponse pour s’assurer qu’elle est prise en charge par le contenu source fourni au modèle. Les fonctionnalités d’IA générative de Copilot intègrent la RAG de plusieurs manières. Un exemple n’est autre que la conversation instantanée avec utilisation de données, où un chatbot est basé sur les propres sources de données du client.
Une autre méthode pour améliorer les modèles fondamentaux est connue sous le nom de réglage affiné. Un important jeu de données de paires requête-réponse est présenté à un modèle fondamental pour augmenter sa formation d’origine avec de nouveaux échantillons ciblés sur un scénario spécifique. Le modèle peut alors être déployé en tant que modèle distinct, à savoir un modèle peaufiné pour ce scénario. Tandis que l’ancrage consiste à rendre les connaissances de l’IA pertinentes pour le monde réel, le réglage affiné consiste à rendre les connaissances de l’IA plus ciblées par rapport à une tâche ou à un domaine spécifique. Microsoft utilise le réglage affiné de plusieurs manières. Par exemple, nous utilisons la création de flux Power Automate à partir de descriptions en langage naturel fournies par l’utilisateur.
Copilot répond-t-il aux exigences de conformité réglementaire ?
Microsoft Copilot fait partie de l’écosystème Dynamics 365 et Power Platform et répond aux mêmes exigences en matière de conformité réglementaire. Pour en savoir plus sur les certifications réglementaires des services Microsoft, accédez au Portail d’approbation de services. De plus, Copilot adhère à notre engagement envers une IA responsable telle que décrit dans notre norme d’IA responsable. À mesure que la réglementation dans le domaine de l’IA évolue, Microsoft continue de s’adapter et de répondre aux nouvelles exigences.
En savoir plus
Copilot dans les applications Dynamics 365 et Power Platform
Pour en savoir plus, consultez la FAQ sur le partage de données facultatif pour les fonctionnalités d’IA de Copilot dans Dynamics 365 et Power Platform.
Disponibilité régionale et linguistique
Disponibilité internationale de Copilot
Déplacement des données entre les zones géographiques
- Comment fonctionne le déplacement des données entre les régions
- Configurer le déplacement des données entre les zones géographiques pour les fonctionnalités d’IA générative en dehors des États-Unis
- Déplacement des données de Copilot entre les zones géographiques dans Dynamics 365 Sales
- Déplacement des données de Copilot entre les zones géographiques dans Dynamics 365 Business Central
Sécurité au sein de Microsoft
- Présentation de la sécurité Azure
- Chiffrement dans Microsoft Cloud
- Données, confidentialité et sécurité pour Azure OpenAI Service – Services Azure AI
Confidentialité chez Microsoft
Déclaration de confidentialité Microsoft