FAQ sur la sécurité et la confidentialité des données Copilot pour Dynamics 365 et Power Platform
Les fonctionnalités Copilot pour Dynamics 365 et Power Platform suivent un ensemble de pratiques de base en matière de sécurité et de confidentialité ainsi que la Norme sur l’IA responsable de Microsoft. Les données Dynamics 365 et Power Platform sont protégées par des contrôles de conformité, de sécurité et de confidentialité complets et à la pointe du secteur.
Copilot est basé sur Microsoft Azure OpenAI Service et est entièrement exécuté dans le cloud Azure. Azure OpenAI offre une disponibilité régionale et un filtre de contenu IA responsable. Copilot utilise des modèles OpenAI avec toutes les fonctionnalités de sécurité de Microsoft Azure. OpenAI est une organisation indépendante. Nous ne partageons pas vos données avec OpenAI.
Les fonctionnalités Copilot ne sont pas disponibles dans toutes les régions géographiques et langues Azure. Selon l’endroit où votre environnement est hébergé, vous devrez peut-être autoriser le déplacement des données entre les zones géographiques pour les utiliser. Pour en savoir plus, consultez les articles répertoriés sous Déplacement des données entre les zones géographiques.
Qu’arrive-t-il à mes données lorsque j’utilise Copilot ?
Vous avez le contrôle de vos données. Microsoft ne partage pas vos données avec un tiers, sauf si vous en avez donné l’autorisation. De plus, nous n’utilisons pas vos données client pour former Copilot ou ses fonctionnalités d’IA, sauf si vous nous donnez votre consentement pour le faire. Copilot adhère aux autorisations et politiques de données existantes, et ses réponses à vous sont basées uniquement sur les données auxquelles vous avez personnellement accès. Pour en savoir plus sur la manière de contrôler vos données et comment vos données sont traitées, consultez les articles répertoriés sous Copilot dans les applications Dynamics 365 et Power Platform.
Copilot surveille les utilisations abusives ou nuisibles du service avec un traitement transitoire. Nous ne stockons ni n’effectuons d’examen oculaire des entrées et sorties de Copilot à des fins de surveillance des abus.
Comment Copilot utilise-t-il mes données ?
Chaque service ou fonctionnalité utilise Copilot en fonction des données que vous fournissez ou configurez pour être traitées par Copilot.
Vos invites (entrées) et les réponses de Copilot (sorties ou résultats) :
Ne sont PAS disponibles pour les autres clients.
Ne sont PAS utilisées pour former ou améliorer des produits ou services tiers (comme les modèles OpenAI).
Ne sont PAS utilisées pour former ou améliorer les modèles Microsoft AI, sauf si votre administrateur client opte pour le partage de données avec nous. Pour en savoir plus, consultez la FAQ sur le partage facultatif de données pour les fonctionnalités d’IA Copilot dans Dynamics 365 et . Power Platform
En savoir plus sur la confidentialité et la sécurité des données de service Azure OpenAI . Pour en savoir plus sur la manière dont Microsoft protège et utilise vos données de manière plus générale, lisez notre Déclaration de confidentialité.
Où vont mes données ?
Microsoft s'appuie sur la confiance. Nous nous engageons à garantir la sécurité, la confidentialité et la conformité dans tout ce que nous faisons, et notre approche de l’IA n’est pas différente. Les données client, y compris les entrées et sorties Copilot, sont stockées dans les limites de confiance Microsoft Cloud.
Dans certains scénarios, tels que les fonctionnalités optimisées par Bing et les plug-ins de copilote tiers, les données client peuvent être transmises en dehors des limites de confiance Microsoft Cloud.
Copilot peut-il accéder au contenu chiffré ?
Les données sont fournies à Copilot en fonction du niveau d’accès de l’utilisateur actuel. Si un utilisateur a accès aux données chiffrées dans Dynamics 365 et Power Platform et que l’utilisateur les fournit à Copilot, Copilot y accède.
Comment Copilot protège-t-il les données des clients ?
Microsoft est particulièrement bien placé pour fournir une IA prête pour l’entreprise. Optimisé par Azure OpenAI Service, Copilot est conforme à nos engagements réglementaires existants en matière de confidentialité, de sécurité et de conformité envers nos clients.
Basé sur l’approche globale de Microsoft en matière de sécurité, de confidentialité et de conformité. Copilot est intégré aux services Microsoft comme Dynamics 365 et Power Platform et hérite des précieuses politiques et processus de sécurité, de conformité et de confidentialité de ces produits, telles que l’authentification multifacteur et les limites de confidentialité.
Plusieurs formes de protection pour sauvegarder les données de l’organisation. Les technologies côté service chiffrent le contenu organisationnel au repos et en transit pour une sécurité renforcée. Les connexions sont sécurisées avec le protocole TLS (Transport Layer Security) et les transferts de données entre Dynamics 365, Power Platform et Azure OpenAI s’effectuent via le réseau fédérateur de Microsoft, garantissant à la fois fiabilité et sécurité. Apprenez-en plus sur le cryptage dans le Cloud Microsoft.
Conçu pour protéger vos données au niveau du client et de l’environnement. Nous savons que la fuite de données est une préoccupation pour les clients. Les modèles IA de Microsoft ne sont pas formés et n’apprennent pas de vos données de client ou de vos invites, sauf si votre administrateur de client a choisi de partager des données avec nous. Au sein de vos environnements, vous pouvez contrôler l’accès via les autorisations que vous configurez. Les mécanismes d’authentification et d’autorisation séparent les demandes adressées au modèle partagé entre les clients. Copilot utilise uniquement les données auxquelles vous seul pouvez accéder en utilisant la même technologie que nous utilisons depuis des années pour sécuriser les données des clients.
Les réponses de Copilot sont-elles toujours factuelles ?
Comme pour toute IA générative, les réponses Copilot ne sont pas 100 % factuelles. Bien que nous continuions à améliorer les réponses aux demandes factuelles, vous devez toujours faire preuve de jugement et examiner les résultats avant de les envoyer à d’autres. Copilot fournit des brouillons et des résumés utiles pour vous aider à en faire plus, mais il est entièrement automatique. Vous avez toujours la possibilité de consulter le contenu généré par l’IA.
Nos équipes s’efforçent de résoudre de manière proactive les problèmes tels que la mésinformation et la désinformation, le blocage de contenu, la sécurité des données et la promotion de contenu préjudiciable ou discriminatoire, conformément à nos principes de l’IA responsable.
Nous offrons également des conseils dans le cadre de l’expérience utilisateur pour renforcer l’utilisation responsable du contenu généré par l’IA et des actions suggérées.
Instructions et invites. Lorsque vous utilisez Copilot, des invites et autres éléments d’information vous rappellent d’examiner et de modifier les réponses si nécessaire, et de vérifier manuellement l’exactitude des faits, des données et du texte avant d’utiliser le contenu généré par l’IA.
Sources citées. Le cas échéant, Copilot cite ses sources d’informations, qu’elles soient publiques ou internes, afin que vous puissiez les consulter vous-même pour confirmer ses réponses.
Pour plus d’informations, consultez la FAQ sur l’IA responsable pour votre produit sur Microsoft Learn.
Comment Copilot bloque-t-il les contenus nuisibles ?
Azure OpenAI Service comprend un système de filtrage de contenu qui fonctionne parallèlement aux modèles de base. Les modèles de filtrage de contenu pour les catégories Haine et équité, Sexualité, Violence et Auto-mutilation ont été spécifiquement formés et testés dans plusieurs langues. Ce système fonctionne en exécutant à la fois l’invite de saisie et la réponse via des modèles de classification conçus pour identifier et bloquer la sortie de contenu nuisible.
Les préjudices liés à la haine et à l’équité font référence à tout contenu utilisant un langage péjoratif ou discriminatoire basé sur des attributs tels que la race, l’origine ethnique, la nationalité, l’identité et l’expression de genre, l’orientation sexuelle, la religion, le statut d’immigration, les capacités, l’apparence personnelle et la taille. L’équité consiste à garantir que les systèmes d’IA traitent équitablement tous les groupes de personnes sans contribuer aux inégalités sociétales existantes. Le contenu sexuel implique des discussions sur les organes reproducteurs humains, les relations amoureuses, les actes décrits en termes érotiques ou affectueux, la grossesse, les actes sexuels physiques, y compris ceux décrits comme une agression ou un acte forcé de violence sexuelle, la prostitution, la pornographie et les abus. La violence décrit le langage lié aux actions physiques destinées à blesser ou à tuer, y compris les actions, les armes et les entités associées. Le langage de l’auto-mutilation fait référence à des actions délibérées visant à se blesser ou à se suicider.
En savoir plus sur le filtrage de contenu Azure OpenAI .
Copilot bloque-t-il les injections d’invites (attaques de jailbreak) ?
Les attaques de jailbreak sont des invites utilisateur conçues pour inciter le modèle d’IA générative à se comporter d’une manière qu’il n’a pas été formé à faire ou à enfreindre les règles qui lui ont été imposées suivre. Les services dans Dynamics 365 et Power Platform sont requis pour protéger contre les injections d’invites. Apprenez-en plus sur les attaques de jailbreak et comment utiliser Azure AI Content Safety pour les détecter.
Copilot bloque-t-il les injections d’invites indirectes (attaques indirectes) ?
Les attaques indirectes, également appelées attaques par invite indirecte ou attaques par injection d’invite inter-domaines constituent une vulnérabilité potentielle où des tiers placent des instructions malveillantes à l’intérieur de documents auxquels le système d’IA générative peut accéder et traiter. Les services dans Dynamics 365 et Power Platform doivent protéger contre les injections d’invite indirectes. Apprenez-en plus sur les attaques indirectes et comment utiliser Azure AI Content Safety pour les détecter.
Comment Microsoft teste-t-il et valide-t-il la qualité de Copilot, y compris la protection contre les injections d’invites et les réponses fondées ?
Chaque nouvelle itération de produit Copilot et de modèle de langage doit passer un examen interne de l’IA responsable avant son lancement. Avant la mise en production, nous utilisons un processus appelé « red-teaming » (dans lequel une équipe simule une attaque ennemie, trouvant et exploitant les faiblesses pour aider l’organisation à améliorer ses défenses) pour évaluer les risques potentiels liés aux contenus nuisibles, aux scénarios de jailbreak et aux réponses fondées. Après la mise en production, nous utilisons des tests automatisés et des outils d’évaluation manuels et automatisés pour évaluer la qualité des réponses Copilot.
Comment Microsoft améliore-t-il le modèle de base et mesure-t-il les améliorations des réponses fondées ?
Dans le contexte de l’IA, en particulier de l’IA qui traite des modèles de langage comme celui sur lequel Copilot est basé, l’ancrage permet à l’IA de générer des réponses plus pertinentes et plus logiques dans le monde réel. L’ancrage permet de garantir que les réponses de l’IA sont basées sur des informations fiables et sont aussi précises et pertinentes que possible. Les mesures de réponse fondée évaluent avec quelle précision les faits énoncés dans le contenu de base fourni au modèle sont représentés dans la réponse finale.
Les modèles de fondation tels que GPT-4 sont améliorés par les techniques de génération augmentée de récupération (RAG). Ces techniques permettent aux modèles d’utiliser plus d’informations que celles sur lesquelles ils ont été formés pour comprendre le scénario d’un utilisateur. La RAG fonctionne en identifiant d’abord les données pertinentes pour le scénario, de la même manière qu’un moteur de recherche identifie les pages Web pertinentes pour les termes de recherche de l’utilisateur. Elle utilise plusieurs approches pour identifier le contenu pertinent pour l’invite de l’utilisateur et doit être utilisé pour étayer la réponse. Les approches incluent la recherche sur différents types d’index, tels que les index inversés utilisant des techniques de récupération d’informations telles que la correspondance de termes, ou les index vectoriels utilisant des comparaisons de distances vectorielles pour la similarité sémantique. Après avoir identifié les documents pertinents, la RAG transmet les données au modèle avec la conversation en cours, donnant au modèle plus de contexte pour mieux comprendre les informations dont il dispose déjà et générer une réponse ancrée dans le monde réel. Enfin, la RAG vérifie la réponse pour s’assurer qu’elle est prise en charge par le contenu source fourni au modèle. Les fonctionnalités d’IA générative de Copilot intègrent la RAG de plusieurs manières. Un exemple n’est autre que la conversation instantanée avec utilisation des données, où un chatbot est ancré avec les propres sources de données du client.
Une autre méthode pour améliorer les modèles fondamentaux est connue sous le nom de réglage affiné. Un important jeu de données de paires requête-réponse est présenté à un modèle fondamental pour augmenter sa formation d’origine avec de nouveaux échantillons ciblés sur un scénario spécifique. Le modèle peut ensuite être déployé en tant que modèle distinct, adapté à ce scénario. Tandis que l’ancrage consiste à rendre les connaissances de l’IA pertinentes pour le monde réel, le réglage affiné consiste à rendre les connaissances de l’IA plus spécifiques à une tâche ou à un domaine particulier. Microsoft a recours au réglage affiné de plusieurs manières. Par exemple, nous utilisons la création de flux Power Automate à partir de descriptions en langage naturel fournies par l’utilisateur.
Copilot répond-t-il aux exigences de conformité réglementaire ?
Microsoft Copilot fait partie de l’écosystème Dynamics 365 et Power Platform et répond aux mêmes exigences de conformité réglementaire. Pour en savoir plus sur les certifications réglementaires des services Microsoft, accédez au Portail d’approbation de services. De plus, Copilot adhère à notre engagement en matière d’IA responsable, qui est mis en œuvre conformément à nos standards d’IA responsable. À mesure que la réglementation dans le domaine de l’IA évolue, Microsoft continue de s’adapter et de répondre aux nouvelles exigences.
En savoir plus
Copilot dans les applications Dynamics 365 et Power Platform
Pour en savoir plus, consultez la FAQ sur le partage facultatif de données pour les fonctionnalités d’IA Copilot dans Dynamics 365 et . Power Platform
Disponibilité régionale et linguistique
Copilot disponibilité internationale
Déplacement des données entre les zones géographiques
- Comment fonctionne le déplacement des données entre régions
- Configurer le déplacement des données entre les emplacements géographiques pour les fonctionnalités d’IA génératives en dehors des États-Unis
- Copilot mouvement de données à travers les zones géographiques dans Dynamics 365 Sales
- Copilot mouvement de données à travers les zones géographiques Dynamics 365 Business Central
La sécurité chez Microsoft
- Introduction à la sécurité Azure
- Chiffrement dans le Cloud Microsoft
- Données, confidentialité et sécurité pour Azure OpenAI Service – Azure Services d’IA
La confidentialité chez Microsoft
Déclaration de confidentialité Microsoft