Partager via


FAQ sur l’utilisation orchestration générative

Cette foire aux questions (FAQ) décrit l’impact de l’orchestration générative intégrée sur l’IA pour les agents personnalisés Copilot Studio.

Quoi sur l’orchestration générative ?

L’orchestration générative permet à votre agent personnalisé de répondre aux requêtes des utilisateurs avec des rubriques et/ou des actions pertinentes. L’orchestration générative permet des conversations plus naturelles en complétant les entrées, en utilisant les détails de l’historique des conversations. Par exemple, si vous vous renseignez sur le magasin le plus proche à Kirkland, puis que vous demandez la météo là-bas, l’orchestration suppose que vous voulez demander la météo à Kirkland. Le système peut également enchaîner plusieurs actions ou sujets. Par exemple, il peut répondre à la question « J’ai besoin de connaître les horaires d’ouverture et de trouver le magasin le plus proche. » Lorsque l’agent n’est pas sûr des détails, il peut poser des questions complémentaires pour lever l’ambiguïté.

Que peut faire l’orchestration générative ?

Avec l’orchestration générative, le système crée d’abord un plan pour répondre à la requête de l’utilisateur en utilisant le nom, la description, les entrées et les sorties des rubriques et des actions disponibles. Il fait également référence aux 10 derniers tours de conversation de l’historique. Il essaie ensuite d’exécuter le plan en remplissant les entrées requises à partir de la conversation, en suivant avec l’utilisateur tout détail manquant ou ambigu. Le système vérifie qu’il a trouvé une réponse à la question de l’utilisateur avant de lui répondre. Dans le cas contraire, le processus recommence. Enfin, le système génère un réponse basé sur la sortie du plan à partir des sujets et/ou des actions. Il utilise également toutes les instructions personnalisées pour l’agent lors de la génération de la réponse finale.

Quelles sont les utilisations prévues de l’orchestration générative ?

Vous pouvez utiliser ce mode dans votre agent pour créer un agent qui peut répondre aux requêtes des utilisateurs en fonction de l’historique des conversations, des noms et des descriptions des rubriques, ainsi que des noms, descriptions, entrées et sorties des actions.

Comment l’orchestration générative est-elle évaluée ? Quelles mesures sont utilisées pour évaluer les performances ?

L’orchestration générative est évaluée pour la qualité de bout en bout à chaque étape du processus. La qualité se mesure en fonction de la capacité du système à créer et à exécuter un plan qui répond avec succès à la requête de l’utilisateur. Notre équipe étiquette manuellement les scores de mesure de la qualité lors de l’ajustement. Nous évaluons la qualité sur diverses requêtes, invites et actions des utilisateurs. Nous évaluons également dans quelle mesure le système parvient à ignorer les contenus malveillants provenant d’utilisateurs et d’auteurs, et dans quelle mesure il évite de produire du contenu nuisible.

Quelles sont les limitations de l’orchestration générative ? Comment les utilisateurs peuvent-ils minimiser l’impact de ces limites de l’orchestration générative pour le projet lors de l’utilisation du système ?

Pour de meilleurs résultats, assurez-vous que vos rubriques et actions incluent des descriptions de haute qualité. Nous fournissons des conseils sur la façon de rédiger des descriptions de haute qualité dans la Copilot Studio documentation.

Quels facteurs et paramètres opérationnels permettent une utilisation efficace et responsable dans l’orchestration générative ?

L’orchestration générative est actuellement disponible uniquement en anglais. Une fois que vous avez activé le mode génératif dans votre agent, vous pouvez tester le système pour voir comment il fonctionne à l’aide du panneau de test. Vous pouvez également ajouter des instructions personnalisées pour votre agent afin de vous aider à générer la réponse finale.

Que sont les actions et comment votre agent, avec le mode génératif activé, les utilise-t-il ?

Vous pouvez ajouter des actions à votre agent personnalisé pour répondre aux requêtes des utilisateurs. Vous pouvez utiliser des actions développées par Microsoft ou des tiers, ou vous pouvez créer vos propres actions. Vous configurez les actions à configurer que l’agent personnalisé doit utiliser. Vous pouvez également modifier le nom, la description, les entrées et les sorties utilisées par le système.

Quelles données peuvent être fournies aux actions Copilot Studio ? Quelles sont les autorisations dont disposent les actions Copilot Studio ?

Lorsque votre agent appelle une action, celle-ci reçoit les valeurs d’entrée spécifiées par l’action. Les valeurs d’entrée peuvent inclure une partie de l’historique des conversations avec l’utilisateur.

Quels types de problèmes peuvent survenir lors de l’utilisation de Copilot Studio activé avec des actions ?

Les actions peuvent ne pas toujours fonctionner comme prévu. Des erreurs peuvent se produire lors de la préparation de l’entrée pour l’action ou lors de la génération d’une réponse basée sur la sortie de l’action. Votre agent peut également appeler la mauvaise action pour la requête de l’utilisateur. Pour atténuer le risque de telles erreurs lors de l’utilisation d’actions, assurez-vous que vous avez configuré des descriptions de haute qualité, pertinentes et sans ambiguïté pour les actions dans votre agent personnalisé.

Quelles sont les protections Copilot Studio mises en place pour une IA responsable ?

De nombreuses mesures d’atténuation ont été mises en place pour protéger vos agents. Vous pouvez configurer votre agent avec un ensemble de connaissances, d’actions et de sujets. Les agents n’effectuent jamais d’action qui ne fait pas partie de leur configuration. Les administrateurs peuvent interdire des actions pour les agents de votre organisation. Si vous craignez qu’une action soit déclenchée sans confirmation, vous pouvez configurer une action pour qu’elle ne soit appelée que lorsqu’un utilisateur accepte de l’appeler.

De plus, nous avons des classificateurs qui examinent les entrées du système pour détecter les contenus nuisibles et les attaques de jailbreak. Selon nos tests, ces classificateurs ont un taux de réussite élevé pour bloquer les contenus nuisibles et les attaques de jailbreak, tout en ayant un succès élevé pour ne pas bloquer le contenu qui n’est pas nuisible ou une attaque de jailbreak. Cependant, les classificateurs ne peuvent pas être parfaits, il y a donc des risques qu’un agent produise du contenu nuisible ou réponde à une attaque de jailbreak. Ces risques incluent des attaques par injection d’invites entre domaines, où des instructions peuvent être ajoutées à la sortie d’une action ou d’une source de connaissances que l’agent essaie ensuite de suivre.

Enfin, il est recommandé de communiquer aux utilisateurs que l’agent utilise l’intelligence artificielle ; par conséquent, le message par défaut suivant informe les utilisateurs : « Juste pour que vous le sachiez, j’utilise parfois l’IA pour répondre à vos questions. »