Freigeben über


Häufig gestellte Fragen zur Verwendung der generativen Orchestrierung

Diese häufig gestellten Fragen (FAQ) beschreiben die KI-Auswirkungen der generativen Orchestrierung für in Copilot Studio erstellte benutzerdefinierte Agenten.

Was ist die generative Orchestrierung?

Die generative Orchestrierung erlaubt Ihrem benutzerdefinierten Agenten, Benutzeranfragen mit relevanten Themen und/oder Aktionen zu beantworten. Die generative Orchestrierung ermöglicht natürlichere Unterhaltungen, indem Eingaben ausgefüllt und dabei Details aus dem Unterhaltungsverlauf verwendet werden. Wenn Sie z. B. nach dem nächstgelegenen Geschäft in Kirkland und dann nach dem Wetter dort fragen, leitet die Orchestrierung daraus ab, dass Sie das Wetter in Kirkland wissen möchten. Das System kann auch mehrere Aktionen oder Themen miteinander verketten. Beispielsweise kann es antworten: „Ich muss die Öffnungszeiten abfragen und das nächstgelegene Geschäft finden.“ Wenn der Agent sich der Details nicht sicher ist, kann er weitere Folgefragen stellen.

Was kann die generative Orchestrierung tun?

Bei der generativen Orchestrierung erstellt das System zunächst einen Plan, um die Benutzerabfrage mithilfe des Namens, der Beschreibung, der Eingaben und Ausgaben der verfügbaren Themen und Aktionen zu beantworten. Es verweist auch auf die letzten zehn Abschnitte des Unterhaltungsverlaufs. Anschließend versucht es, den Plan auszuführen, indem es die erforderlichen Eingaben aus der Unterhaltung ergänzt und bei dem Benutzenden nach noch fehlenden oder mehrdeutigen Details fragt. Das System überprüft, ob es eine Antwort auf die Frage des Benutzenden gefunden hat, bevor es dem Benutzenden antwortet. Wenn nicht, wird der Vorgang erneut durchgeführt. Schließlich generiert das System eine Antwort basierend auf der Ausgabe des Plans aus den Themen und/oder Aktionen. Es verwendet auch alle benutzerdefinierten Anweisungen für den Agenten, wenn die endgültige Antwort generiert wird.

Was sind die beabsichtigten Verwendungszwecke der generativen Orchestrierung?

Sie können diesen Modus in Ihrem Agenten verwenden, um einen Agenten zu erstellen, der Benutzeranfragen basierend auf dem Unterhaltungsverlauf, Namen und Beschreibungen für Themen sowie Namen, Beschreibungen, Eingaben und Ausgaben für Aktionen beantworten kann.

Wie wird die generative Orchestrierung bewertet? Welche Metriken werden verwendet, um die Leistung zu messen?

Die generative Orchestrierung wird bei jedem Schritt des Prozesses auf End-to-End-Qualität hin bewertet. Die Qualität wird daran gemessen, wie gut das System einen Plan erstellt und ausführt, der die Benutzerabfrage erfolgreich beantwortet. Unser Team legt während der Feinabstimmung manuell Qualitätswerte fest. Wir bewerten die Qualität anhand verschiedener Benutzerabfragen, Eingabeaufforderungen und Aktionen. Wir bewerten auch, wie gut das System darin abschneidet, bösartige Inhalte von Benutzern und Autoren zu ignorieren, und wie gut das System die Produktion schädlicher Inhalte vermeidet.

Welche Einschränkungen gibt es für die generative Orchestrierung? Wie können Benutzende die Auswirkungen der Einschränkungen der generativen Orchestrierung minimieren, wenn sie das System nutzen?

Um optimale Ergebnisse zu erzielen, stellen Sie sicher, dass Ihre Themen und Aktionen qualitativ hochwertige Beschreibungen enthalten. Wir stellen in der Copilot Studio Dokumentation Anleitungen zum Verfassen hochwertiger Beschreibungen bereit.

Welche betrieblichen Faktoren und Einstellungen ermöglichen eine effektive und verantwortungsbewusste Nutzung der generativen Orchestrierung?

Die generative Orchestrierung ist derzeit nur auf Englisch verfügbar. Sobald Sie den generativen Modus in Ihrem Agenten aktiviert haben, können Sie das System mithilfe des Testbereichs testen, um zu sehen, wie gut es funktioniert. Sie können auch benutzerdefinierte Anweisungen für Ihren Agenten hinzufügen, um die Generierung der endgültigen Antwort zu unterstützen.

Was sind Aktionen und wie verwendet Ihr Agent sie, wenn der generative Modus aktiviert ist?

Sie können Ihrem benutzerdefinierten Agenten Aktionen hinzufügen, um Benutzerfragen zu beantworten. Sie können von Microsoft oder Drittanbietern entwickelte Aktionen verwenden oder eigene erstellen. Sie konfigurieren, welche Aktionen für den benutzerdefinierten Agenten konfiguriert werden sollen. Sie können auch den Namen, die Beschreibung sowie die vom System verwendeten Ein- und Ausgaben bearbeiten.

Welche Daten kann Copilot Studio zu Aktionen bereitstellen? Welche Berechtigungen haben Copilot Studio-Aktionen?

Wenn Ihr Agent eine Aktion aufruft, empfängt die Aktion die von der Aktion angegebenen Eingabewerte. Die Eingabewerte können einen Teil des Gesprächsverlaufs mit dem Benutzenden enthalten.

Welche Probleme können bei der Verwendung von für Copilot Studio aktivierten Aktionen auftreten?

Aktionen funktionieren möglicherweise nicht immer wie beabsichtigt. Beim Vorbereiten der Eingabe für die Aktion oder beim Generieren einer Antwort basierend auf der Ausgabe der Aktion können Fehler auftreten. Ihr Agent kann auch die falsche Aktion für die Benutzerabfrage aufrufen. Um das Risiko solcher Fehler bei der Verwendung von Aktionen einzudämmen, stellen Sie sicher, dass Sie in Ihrem benutzerdefinierten Agent qualitativ hochwertige, relevante und eindeutige Beschreibungen für die Aktionen konfiguriert haben.

Welche Schutzmaßnahmen gibt es in Copilot Studio für die verantwortungsvolle KI?

Es gibt viele Features zur Risikominderung, um Ihre Agenten zu schützen. Sie können Ihren Agenten mit einer Reihe von Kenntnissen, Aktionen und Themen konfigurieren. Agenten führen niemals eine Aktion aus, die nicht zu ihrer Konfiguration gehört. Fachkräfte für die Administration können Aktionen für Agenten in Ihrer Organisation verbieten. Wenn es Ihnen Sorgen macht, dass eine Aktion ohne Bestätigung ausgelöst werden könnte, können Sie eine Aktion so konfigurieren, dass sie nur aufgerufen wird, wenn ein Benutzender dem Aufruf zustimmt.

Darüber hinaus haben wir Klassifikatoren, die die Eingaben in das System untersuchen, um schädliche Inhalte und Jailbreak-Angriffe zu erkennen. Unsere Test haben ergeben, dass diese Klassifikatoren eine hohe Erfolgsquote beim Blockieren schädlicher Inhalte und Jailbreak-Angriffe haben, und gleichzeitig erfolgreich Inhalte, die nicht schädlich sind oder keinen Jailbreak-Angriff darstellen, nicht blockieren. Klassifikatoren können jedoch nicht perfekt sein, sodass trotzdem das Risiko besteht, dass ein Agent schädliche Inhalte produziert oder auf einen Jailbreak-Angriff reagiert. Zu diesen Risiken gehören domänenübergreifende Prompt-Injection-Angriffe, bei denen der Ausgabe einer Aktion oder einer Wissensquelle Anweisungen hinzugefügt werden könnten, denen der Agent dann zu folgen versucht.

Letztendlich ist es eine bewährte Methode, den Benutzenden zu sagen, dass der Agent künstliche Intelligenz verwendet. Daher informiert die folgende Standardnachricht die Benutzenden: „Nur damit Sie es wissen: Ich verwende manchmal KI, um Ihre Fragen zu beantworten.“