Données, confidentialité et sécurité pour Microsoft 365 Copilot pour Viva Insights
Les analystes et les dirigeants d’entreprise peuvent tirer parti des nombreuses fonctionnalités de Microsoft 365 Copilot pour Viva Insights, notamment des suggestions pour les métriques, les filtres et les attributs à utiliser dans les requêtes.
Par exemple, Copilot peut aider les analystes à créer des requêtes en suggérant des métriques utiles qui seraient pertinentes pour leurs requêtes. Copilot peut également générer des insights pour aider les dirigeants à voir plus facilement les tendances de productivité des employés au sein de leur entreprise.
Comment fonctionne-t-il sur le back-end ?
Copilot pour Viva Insights utilise la technologie LLM (Large Language Model), qui permet aux utilisateurs d’effectuer des tâches basées sur le langage en demandant des invites dans leur langage naturel.
Microsoft utilise ces llms pour faire correspondre les invites de l’utilisateur à un ensemble de métriques et de « récits ». Un « article » est un groupe de calculs définis par le produit basé sur des métriques, des agrégations et d’autres variables.
Quelles données Copilot utilise-t-il pour générer ses réponses ?
Copilot pour Viva Insights utilise des données déjà existantes dans Viva Insights et les invites que le client demande quand ils utilisent la fonctionnalité. Il ne collecte pas de nouvelles données.
Copilot pour Viva Insights enregistre-t-elle ou stocke-t-elle les données qu’elle utilise ?
Copilot pour Viva Insights n’enregistre aucune des invites de l’utilisateur. Il enregistre uniquement les métadonnées pour chaque appel d’API, telles que la date et l’heure de chaque invite. Le meta journal est uniquement accessible aux développeurs Viva Insights et aux utilisateurs restreints.
Comment Copilot pour Viva Insights interagit-il avec Microsoft Graph et d’autres services Microsoft 365 ?
Copilot pour Viva Insights n’interagit en aucune façon avec les Microsoft 365 Copilot, Microsoft Graph et d’autres services Microsoft 365.
Comment Copilot gère-t-il la résidence des données, les droits des personnes concernées et la suppression des données ?
Copilot pour Viva Insights suit les mêmes protocoles de résidence des données actuellement en place pour Microsoft Viva. Pour plus d’informations, consultez la stratégie de sécurité pour Microsoft Viva et les protocoles de conformité Microsoft Viva.
Comment Copilot pour Viva Insights est-il conforme au RGPD et à d’autres réglementations en matière de confidentialité ?
Copilot pour Viva Insights suit les mêmes réglementations relatives au RGPD et à la confidentialité que Viva Insights. Pour plus d’informations, consultez le guide de confidentialité Viva Insights pour organization insights.
Quels sont les facteurs et paramètres opérationnels qui permettent une utilisation efficace et responsable de Copilot dans Insights ?
Une clause d’exclusion de responsabilité : « Le contenu généré par l’IA peut être incorrect » s’affiche à l’utilisateur après chaque réponse.
Option permettant à l’utilisateur d’envoyer un Pouce haut/bas et de laisser un commentaire.
Quelles sont les mesures de protection fournies par Copilot pour répondre aux questions ou réponses potentiellement offensantes ou aux informations sensibles ?
Copilot pour Viva Insights est conçu avec un système de filtre robuste en place pour bloquer de manière proactive le langage offensant et empêcher la génération de suggestions dans des contextes sensibles. Notre engagement envers l’amélioration continue nous pousse à améliorer ce système de filtre, ce qui le rend plus intelligent dans la détection et la suppression du contenu offensant généré par Copilot pour Viva Insights. Cela comprend la résolution des résultats biaisés, discriminatoires ou abusifs. Nous encourageons les utilisateurs à signaler les suggestions offensantes qu’ils rencontrent lors de l’utilisation de Copilot pour Viva Insights directement dans le produit.
Il existe plusieurs cas d’utilisation à haut risque et sensibles que nous visons à éviter :
Cas d’usage sensibles : Étant donné que les données & insights que Viva Insights peuvent fournir se trouvent dans une zone sensible, il est difficile d’évaluer objectivement si Copilot doit répondre ou non à une question de requête d’analyste particulière liée aux performances des employés ou aux modèles de comportement de l’espace de travail. Bien que nous nous attendons à ce que Copilot réponde à une question comme « Comment les employés en Chine collaborent-ils ? », une requête telle que « Les employés en Chine travaillent-ils plus dur que les employés aux États-Unis ? » peut appartenir à la catégorie « Impartialité ». Nous nous engageons à résoudre ces complexités en bloquant les questions qui peuvent soutenir la prise d’un « jugement », tout en autorisant les questions qui aident les utilisateurs à obtenir des « faits ».
Problèmes de confidentialité : si la fonctionnalité d’IA n’est pas correctement sécurisée, elle peut présenter un risque d’exposer des données utilisateur, y compris des thèmes de tendances privées et des informations personnelles, à des parties non autorisées. Garantir le niveau de confidentialité et de sécurité le plus élevé pour nos utilisateurs est une priorité absolue.
Biais : L’équité et l’impartialité des systèmes d’IA comme Copilot pour Viva Insights dépendent de la qualité et du biais des données sur lesquelles ils sont formés. Si les données d’apprentissage contiennent des biais, la fonctionnalité d’IA peut générer involontairement du contenu qui reflète ces biais, ce qui peut causer un préjudice ou une offense. Nous nous engageons à résoudre les biais dans les systèmes d’IA et à travailler à fournir des résultats plus équitables et inclusifs.
En traitant activement ces scénarios à haut risque et en travaillant en collaboration avec notre communauté d’utilisateurs, nous nous engageons à offrir une expérience d’IA plus sûre, plus responsable et éthiquement saine avec Copilot pour Viva Insights.