Partager via


FAQ sur l’IA responsable pour Copilot dans Customer Service

S’applique à : Dynamics 365 Contact Center - intégré, Dynamics 365 Contact Center - autonome et Dynamics 365 Customer Service

Cet article de la FAQ aide à répondre aux questions concernant l’utilisation responsable de l’IA dans les fonctionnalités de copilote dans Customer Service.

Définition de Copilot dans Dynamics 365 Customer Service

Copilot est un outil alimenté par l’IA qui révolutionne l’expérience des assistants dans Dynamics 365 Customer Service. Il fournit une assistance en temps réel alimentée par l’IA qui aide les assistants à résoudre les problèmes plus rapidement, à gérer les incidents plus efficacement et à automatiser les tâches chronophages. Les assistants peuvent alors se concentrer sur la fourniture d’un service de haute qualité à leurs clients.

Quelles sont les capacités des systèmes ?

Copilot offre les principales fonctionnalités suivantes :

  • Poser une question : premier onglet que les assistants voient lorsqu’ils activent le volet d’aide de Copilot. C’est une interface conversationnelle avec Copilot, qui permet d’apporter des réponses contextuelles aux questions des assistants. Les réponses de Copilot sont basées sur des sources de connaissances internes et externes fournies par votre organisation lors de la configuration.

  • Rédiger un courrier électronique : deuxième onglet du volet d’aide de Copilot permet aux agents de créer rapidement des réponses par courrier électronique en fonction du contexte de l’incident, réduisant ainsi le temps que les utilisateurs doivent consacrer à la création de courriers électroniques.

  • Rédiger une réponse de conversation instantanée : permet aux agents de créer une réponse en un seul clic à la conversation de messagerie numérique en cours à partir de sources de connaissances configurées par votre organisation.

  • Résumer un incident : Copilot fournit aux agents un résumé d’un incident directement sur le formulaire d’incident, afin qu’ils puissent rapidement rattraper les détails importants d’un incident.

  • Résumer une conversation : Copilot fournit aux agents un résumé d’une conversation à des moments clés tout au long du parcours du client, tels que les transferts d’agents virtuels, les transferts et à la demande.

  • Générer une ébauche de connaissances à partir de l’incident (version préliminaire) : Copilot génère une ébauche d’article de connaissances sous la forme d’une proposition basée sur les informations relatives à l’incident. Les assistants peuvent réviser et affiner le brouillon en donnant des instructions de révision à Copilot, puis en l’enregistrant.

  • Résumer un enregistrement personnalisé : Copilot fournit aux représentants un résumé d’un enregistrement basé sur les champs que l’administrateur configure pour la table personnalisée afin que les agents puissent rapidement rattraper les détails importants d’un enregistrement de support.

  • Générer des notes de résolution : Copilot fournit aux assistants un résumé des détails de l’incident, des courriers électroniques et des notes liés à l’incident dans l’onglet Poser une question, afin qu’ils puissent fermer rapidement le cas ou l’incident.

Quelle est l’utilisation prévue du système ?

Copilot dans Customer Servie est destiné à aider les représentants du service clientèle à travailler plus efficacement. Les représentants du service clientèle peuvent utiliser les réponses basées sur les connaissances de Copilot pour gagner du temps lors de la recherche d’articles de connaissances et de la rédaction de réponses. Les résumés Copilot sont conçus pour aider les assistants à traiter rapidement les requêtes et les conversations. Le contenu généré par Copilot dans Customer Service n’est pas destiné à être utilisé sans examen ou supervision humaine.

Comment évalue-t-on Copilot in Customer Service ? Quelles mesures sont utilisées pour évaluer les performances ?

Copilot dans Customer Service a été évalué par rapport à des scénarios réels avec des clients du monde entier à chaque phase de sa conception, de son développement et de sa sortie. En utilisant une combinaison de recherches et d’études d’impact sur les entreprises, nous avons évalué diverses mesures quantitatives et qualitatives sur Copilot, y compris sa précision, son utilité et la confiance des assistants. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.

Quelles sont les limites de Copilot dans Customer Service ? Comment les utilisateurs peuvent-ils minimiser l’impact des limitations de Copilot ?

Les capacités basées sur les connaissances de Copilot, telles que poser une question, écrire un courrier électronique et rédiger une réponse de conversation instantanée, dépendent d’articles de connaissances de haute qualité et à jour pour la fondation. Sans ces articles de la base de connaissances, les utilisateurs sont plus susceptibles de rencontrer des réponses Copilot qui ne sont pas factuelles.

Pour minimiser la probabilité de voir des réponses non factuelles de la part de Copilot, il est important que Microsoft utilise des pratiques robustes de gestion des connaissances pour s’assurer que les connaissances commerciales qui se connectent à Copilot sont de haute qualité et à jour.

Quels facteurs et paramètres opérationnels permettent une utilisation efficace et responsable du système ?

Toujours vérifier les résultats de Copilot

Copilot est construit sur la technologie des grands modèles de langage, qui est de nature probabiliste. Lorsqu’il est présenté avec un morceau de texte d’entrée, le modèle calcule la probabilité de chaque mot dans ce texte compte tenu des mots qui l’ont précédé. Le modèle choisit ensuite le mot qui est le plus susceptible de suivre. Cependant, puisque le modèle est basé sur des probabilités, il ne peut pas dire avec une certitude absolue quel est le mot suivant correct. Au lieu de cela, il nous donne sa meilleure estimation basée sur la distribution de probabilité qu’il a apprise à partir des données sur lesquelles il a été formé. Copilot utilise une approche appelée fondation, qui consiste à ajouter des informations supplémentaires à l’entrée pour contextualiser la sortie dans votre organisation. Il utilise la recherche sémantique pour comprendre les entrées et récupérer les documents organisationnels internes pertinents et les résultats de recherche Web publics fiables, et guide le modèle linguistique pour répondre en fonction de ce contenu. Bien que cela soit utile pour s’assurer que les réponses de Copilot adhèrent aux données de l’organisation, il est important de toujours examiner les résultats produits par Copilot avant de les utiliser.

Tirer le meilleur parti de Copilot

Lorsque vous interagissez avec Copilot, il est important de garder à l’esprit que la structure des questions peut grandement affecter la réponse donnée par Copilot. Pour interagir efficacement avec Copilot, il est crucial de poser des questions claires et précises, de fournir un contexte pour aider l’IA à mieux comprendre votre intention, de poser une question à la fois et d’éviter les termes techniques pour plus de clarté et d’accessibilité.

Poser des questions claires et précises

Une intention claire est essentielle lorsque vous posez des questions, car elle a un impact direct sur la qualité de la réponse. Par exemple, poser une question large comme « Pourquoi la machine à café du client ne démarre-t-elle pas ? » Est moins susceptible de donner une réponse utile par rapport à une question plus spécifique, telle que « Quelles mesures puis-je prendre pour déterminer pourquoi la machine à café du client ne démarre pas ? ».

Cependant, poser une question encore plus détaillée comme « Quelles étapes puis-je suivre pour déterminer pourquoi une machine à café Contoso 900 avec une pression nominale de 5 bars ne démarre pas ? » réduit la portée du problème et fournit plus de contexte, conduisant à des réponses plus précises et ciblées.

Ajouter un contexte

L’ajout de contexte aide le système d’IA conversationnelle à mieux comprendre l’intention de l’utilisateur et à fournir des réponses plus précises et pertinentes. Sans contexte, le système peut mal comprendre la question de l’utilisateur ou fournir des réponses génériques ou non pertinentes.

Par exemple, « Pourquoi la machine à café ne démarre-t-elle pas ? » entraîne une réponse générique par rapport à une question plus contextuelle telle que : « Récemment, le client a lancé le mode de détartrage sur sa machine à café et a terminé le détartrage avec succès. Ils ont même reçu trois flashs du voyant d’alimentation à la fin pour confirmer que le détartrage était terminé. Pourquoi ne peuvent-ils plus démarrer la machine à café ?"

L’ajout de contexte de cette manière est important, car cela aide Copilot à mieux comprendre l’intention de l’utilisateur et à fournir des réponses plus précises et pertinentes.

Éviter les termes techniques si possible

Nous vous recommandons d’éviter d’utiliser des termes et des noms de ressources extrêmement techniques lorsque vous interagissez avec Copilot, car le système peut ne pas toujours les comprendre de manière précise ou appropriée. L’utilisation d’un langage naturel plus simple permet de s’assurer que le système peut comprendre correctement l’intention de l’utilisateur et fournir des réponses claires et utiles. Par exemple :

« Le client ne peut pas se connecter en SSH à la machine virtuelle après avoir modifié la configuration du pare-feu. »

Au lieu de cela, vous pouvez reformuler comme -

« Le client a modifié les règles du pare-feu sur sa machine virtuelle. Cependant, il ne peut plus se connecter via Secure Shell (SSH). Vous pouvez aider ? »

En suivant les suggestions, les assistants peuvent améliorer leurs interactions avec Copilot et augmenter la probabilité de recevoir des réponses précises et confiantes de sa part.

Résumer ou développer une réponse

Parfois, la réponse de Copilot peut être plus longue que prévu. Cela peut être le cas lorsque l’assistant est dans une conversation en direct avec un client et doit envoyer des réponses concises par rapport à l’envoi d’une réponse par e-mail. Dans de tels cas, demander à Copilot de « résumer la réponse » se traduit par une réponse concise à la question. De même, si vous avez besoin de plus de détails, demander à Copilot de « Fournir plus de détails » entraîne une réponse plus détaillée à votre question. Si la réponse est tronquée, taper « continuer » affiche la partie restante de la réponse.

Comment puis-je influencer les réponses générées par copilote ? Puis-je affiner le LLM sous-jacent ?

Il n’est pas possible de personnaliser directement le grand modèle de langue (LLM). Les réponses de Copilot peuvent être influencées par la mise à jour de la documentation source. Tout le contenu des commentaires des réponses Copilot est stocké. Des rapports peuvent être créés à l’aide de ces données pour déterminer les sources de données qui doivent être mises à jour. C’est une bonne idée d’avoir des processus en place pour examiner périodiquement les données de rétroaction et s’assurer que les articles de la base de connaissances fournissent les informations les meilleures et les plus à jour à Copilot.

Quel est le modèle de sécurité des données pour Copilot ?

Copilot applique les contrôles d’accès basés sur les rôles (RBAC) définis et adhère à toutes les constructions de sécurité existantes. Par conséquent, les assistants ne peuvent pas afficher les données auxquelles ils n’ont pas accès. De plus, seules les sources de données auxquelles l’assistant a accès sont utilisées pour la génération de réponses de copilote.

Comment Copilot détermine-t-il si le contenu est offensant ou préjudiciable ?

Copilot détermine si le contenu est préjudiciable grâce à un système d’évaluation de la gravité basé sur des catégories distinctes de contenu répréhensible. Découvrez-en davantage dans la rubrique Catégories de préjudice dans Azure AI Sécurité du Contenu.

Où le traitement et la récupération des données se produisent-ils pour générer des réponses de copilote ?

Copilot n’appelle pas le service OpenAI public qui alimente ChatGPT. Copilot dans Customer Service utilise le Service Microsoft Azure OpenAI dans un locataire géré par Microsoft. L’intégralité du traitement et de la récupération des données s’effectue au sein des locataires gérés par Microsoft. De plus, les données des clients ne sont pas partagées et ne sont pas réinjectées dans les modèles publics.

Quelles sont les limites linguistiques pour les résumés que Copilot génère à partir d’incidents et de conversations ?

De nombreuses langues sont prises en charge dans les résumés générés par Copilot à partir d’incidents et de conversations. On s’attend à ce que la qualité de ces résumés soit la plus élevée en anglais, tandis que dans les autres langues, la qualité devrait s’améliorer avec le temps. En savoir plus sur les langues prises en charge dans Prise en charge des langues pour les fonctionnalités Copilot

Le modèle est-il testé et surveillé de façon continue ? Si oui, à quelle fréquence ? Quels tests sont effectués ?

La qualité du modèle est testée et le contenu nuisible à chaque fois qu’il y a un changement dans l’interaction du modèle ou dans sa version. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

À quelle fréquence le modèle est-il surveillé pour détecter la dégradation des performances ?

Le modèle GPT d’IA générative est hébergé et géré par Azure OpenAI. L’utilisation du modèle dans des scénarios de service clientèle est liée à des pratiques d’IA responsables et aux contrôles du Deployment Safety Board. Toute modification apportée aux versions du modèle ou aux invites sous-jacentes est validée pour sa qualité et son contenu nuisible. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.

Le produit ou le service utilise-t-il plus d’un modèle ou un système de modèles interdépendants ?

Différentes fonctionnalités du système peuvent utiliser différentes versions des modèles Azure OpenAI Service. En savoir plus dans Modèles Azure OpenAI Service.

Copilot utilise-t-il un produit ou un service modèle autre que Microsoft et la documentation de ce modèle est-elle disponible ?

Copilot est créé à l’aide d’Azure OpenAI, un service d’IA entièrement géré qui intègre OpenAI aux modèles de filtrage de contenu et de détection des abus développés par Microsoft. Pour en savoir plus, consultez Note de transparence pour Azure OpenAI.

Existe-t-il un processus défini pour communiquer les modifications apportées aux modèles, aux modèles en amont ou aux résultats utilisés à partir d’autres solutions d’IA/ML ou de modèles ?

Toute modification prévue des fonctionnalités Copilot est communiquée via une documentation publique. Toutefois, les modifications relatives à la version du modèle ou aux invites sont régies par les processus internes d’IA responsable. Ces changements ne sont pas communiqués, car il s’agit d’améliorations fonctionnelles incrémentielles et continues.

Les commentaires des utilisateurs sont-ils disponibles pour Microsoft afin d’améliorer le produit ?

Non

Est-ce que Microsoft a des politiques et des procédures qui définissent et différencient les différents rôles et responsabilités humains lorsqu’ils interagissent avec les systèmes d’IA ou les surveillent ?

Oui. Dans le processus d’IA responsable, toutes les parties prenantes et tous les utilisateurs impliqués sont pris en compte, et leur utilisation ou leur utilisation involontaire du système est discutée. Sur la base des scénarios identifiés, les atténuations requises sont intégrées dans le produit ou via la documentation. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Est-ce que Microsoft identifie et documente des approches pour mobiliser, saisir et intégrer les commentaires d’autres utilisateurs finaux et d’intervenants clés afin d’aider à la surveillance continue des impacts potentiels et des risques émergents ?

Oui. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Est-ce que Microsoft documente, met en pratique et mesure les plans de réponse aux incidents pour les incidents du système d’IA, y compris la mesure de la réponse et des temps d’arrêt?

Oui. Le processus d’IA responsable exige que l’équipe dispose d’un plan de réponse aux incidents pour les problèmes d’IA, similaire à ce qui est fait pour les problèmes fonctionnels. Les équipes de fonctionnalité surveillent en permanence les performances et la fiabilité du système. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Est-ce que Microsoft établit des procédures pour partager l’information sur les incidences d’erreurs et les impacts négatifs avec les intervenants, les exploitants, les praticiens, les utilisateurs et les parties concernées?

Oui. Pour les problèmes de gravité élevée, les équipes de fonctionnalité doivent communiquer la panne aux clients concernés.

Microsoft mesure-t-il et surveille-t-il les performances du système en temps réel pour permettre une réponse rapide lorsqu’un incident du système d’IA est détecté ?

Oui. Les équipes de fonctionnalité surveillent en permanence les performances et la fiabilité du système.

Est-ce que Microsoft teste la qualité des explications des systèmes avec les utilisateurs finaux et les autres parties prenantes ?

Oui. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Microsoft a-t-il établi des politiques et des procédures pour surveiller et traiter les performances et la fiabilité du système de modèle, y compris les problèmes de biais et de sécurité tout au long du cycle de vie du modèle, lors de l’évaluation des risques et des avantages négatifs des systèmes d’IA ?

Oui. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.

Est-ce que Microsoft effectue des évaluations de l’équité pour gérer les formes de biais informatiques et statistiques ?

Oui. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Microsoft surveille-t-il les sorties du système pour détecter des problèmes de performances ou de biais ?

Oui. Les filtres de modération sont appliqués en plusieurs couches, y compris en sortie, pour s’assurer qu’il n’y a pas de contenu nuisible dans la réponse. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Quel est le niveau de résilience du fonctionnement du modèle ? Par exemple, existe-t-il un plan de reprise après sinistre et d’urgence pour les cas où le modèle n’est pas disponible ?

Comme tous les services Azure, la sauvegarde et la récupération sont prises en charge via plusieurs centres de données pour une haute disponibilité.

Le modèle dépend-il d’outils ou de solutions tiers, intégré dans ceux-ci, ce qui rend difficile la migration du modèle vers un environnement différent (y compris des variables telles que le fournisseur d’hébergement, le matériel, les systèmes logiciels) qui entraveraient l’explicabilité du modèle ?

Non

Existe-t-il un modèle établi de politique de gouvernance ?

Oui, il existe une politique de gouvernance établie soutenue par Azure OpenAI. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Existe-t-il des protocoles établis et documentés (autorisation, durée, type) et des contrôles d’accès pour les ensembles de données de formation ou de production contenant des informations personnelles conformément aux politiques de confidentialité et de gouvernance des données ?

Actuellement, il n’y a pas d’entraînement du modèle, donc aucune exigence concernant le jeu de données. Cependant, lorsqu’un représentant du service clientèle interagit avec Copilot, selon la fonctionnalité, les données de contexte (incident ou chat) sont utilisées pour générer une réponse.

Les divulgations d’informations personnelles et l’inférence d’attributs sensibles ou protégés par la loi sont-elles surveillées ?

Oui, un examen de confidentialité est effectué pour chaque fonctionnalité.

Oui. Un examen juridique est effectué pour chaque fonctionnalité afin de répondre aux exigences réglementaires et à d’autres questions juridiques.

Utiliser les fonctionnalités de Copilot
Utiliser Copilot pour générer des brouillons d’articles de base de connaissances à partir des incidents
Disponibilité de Copilot dans la région
FAQ sur la sécurité et la confidentialité des données Copilot dans Microsoft Power Platform