Freigeben über


FAQ zum ersten Gesprächserlebnis

Diese häufig gestellten Fragen (FAQ) beschreiben den KI-Effekt des Konversationserlebnisses beim ersten Ausführen Copilot Studio.

Wie ist das Gesprächserlebnis beim ersten Durchlauf?

Die konversationsorientierte erste Ausführungserfahrung wird verwendet, um Ihnen bei der Erstellung eines benutzerdefinierten Agent oder Copilot-Agent zu helfen. Während der Konversation sagt es den Namen, die Beschreibung, Anweisungen, alle hinzugefügten Web-Wissensquellen und Startaufforderungen (für Copilot-Agenten) voraus.

Welche Möglichkeiten gibt es für das erste Gesprächserlebnis?

Sie können schnell mit der benutzerdefinierten Konfiguration von Agent oder Copilot-Agent über eine natürliche Sprachschnittstelle beginnen. Das System aktualisiert die Konfiguration basierend auf den Eingaben des Herstellers während des Gesprächs.

Was ist der beabsichtigte Nutzen der ersten Konversationserfahrung?

Sie können diese Erfahrung nutzen, um mit Ihrer ersten Agent-Konfiguration zu beginnen.

Wie wurde das Gesprächserlebnis beim ersten Durchlauf bewertet und welche Kennzahlen werden zur Leistungsmessung verwendet?

Um die Qualität sicherzustellen, haben wir das System auf Genauigkeit geprüft und geprüft, wie gut die vorhergesagte Konfiguration die Anfragen im Gespräch darstellte. Wir haben außerdem Tests durchgeführt, um sicherzustellen, dass das System keine schädlichen oder bösartigen Inhalte produziert.

Welche Einschränkungen gibt es beim ersten Ausführen der Konversation und wie können Benutzer die Auswirkungen dieser Einschränkungen bei der Verwendung minimieren?

  • Die Konversationsfunktion wird beim ersten Ausführen auf Englisch ausgeführt, ist jedoch nicht für die Unterstützung anderer Sprachen vorgesehen.

    Die aktuelle Liste der unterstützten Sprachen für diese und andere generative KI-Funktionen finden Sie unter Sprachunterstützung .
    Sie können möglicherweise andere Sprachen verwenden, aber die generierten Antworten sind möglicherweise inkonsistent und Agent reagiert möglicherweise nicht richtig oder wie erwartet.

  • Diese Erfahrung kann Ihnen nicht dabei helfen, Ihr Agent zu testen, und kann nur zum Konfigurieren von Folgendem verwendet werden:

    • Der Name
    • Die Beschreibung
    • Anweisungen zum Erstellen von Agent
    • Web-Wissensquellen
    • Starten von Eingabeaufforderungen für Copilot-Agenten
  • Weitere Überlegungen und Einschränkungen bei der Verwendung generativer Antworten in Agenten, die Sie mit dieser Funktion erstellen, finden Sie in den FAQs zu „Responsible AI“ für generative Antworten .

Welche betrieblichen Faktoren und Einstellungen ermöglichen eine effektive und verantwortungsvolle Nutzung der Konversations-First-Run-Erfahrung?

Sie können in natürlicher Sprache per Chat mit dem System kommunizieren oder die Konfiguration direkt manuell in der Seitenleiste bearbeiten. Wenn Sie manuell Änderungen vornehmen, wird das System im weiteren Verlauf des Gesprächs möglicherweise mit zusätzlichen Informationen aktualisiert.

Welche Schutzmaßnahmen gibt es innerhalb Copilot Studio für eine verantwortungsvolle KI?

Generative Antworten umfassen verschiedene Schutzmaßnahmen, um sicherzustellen, dass Administratoren, Entwickler und Benutzer eine sichere und konforme Erfahrung machen. Administratoren haben die volle Kontrolle über die Funktionen in ihrem Mandanten und können jederzeit die Möglichkeit deaktivieren, Agenten mit generativen Antworten in Ihrer Organisation zu veröffentlichen . Hersteller können benutzerdefinierte Anweisungen hinzufügen, um die Art der Antworten zu beeinflussen, die ihre Agenten zurückgeben. Weitere Informationen zu Best Practices für das Schreiben benutzerdefinierter Anweisungen finden Sie unter Verwenden Sie die Eingabeaufforderungsmodifikation, um Ihrem Agent benutzerdefinierte Anweisungen bereitzustellen.

Hersteller können auch die Wissensquellen einschränken, die Agenten zum Beantworten von Fragen verwenden können. Um Agenten die Beantwortung von Fragen außerhalb des Umfangs ihrer konfigurierten Wissensquellen zu ermöglichen, können Hersteller die Funktion AI General Knowledge aktivieren. Um die Agenten darauf zu beschränken, nur Fragen im Rahmen ihrer konfigurierten Wissensquellen zu beantworten, sollten die Hersteller diese Funktion deaktivieren.

Copilot Studio wendet außerdem Richtlinien zur Inhaltsmoderation auf alle generativen KI-Anfragen an schützen-Administratoren, -Ersteller und -Benutzer gegen anstößige oder schädliche Inhalte an. Diese Richtlinien zur Inhaltsmoderation erstrecken sich auch auf böswillige Versuche des Jailbreakings, der sofortigen Injektion, der sofortigen Exfiltration und von Urheberrechtsverletzungen. Der gesamte Inhalt wird zweimal überprüft: zuerst während der Benutzereingabe und erneut, wenn Agent antworten möchte. Wenn das System schädliche, anstößige oder bösartige Inhalte findet, verhindert es, dass Ihr Agent antwortet.

Schließlich empfiehlt es sich, den Benutzern mitzuteilen, dass Agent künstliche Intelligenz verwendet. Daher werden sie mit der folgenden Standardnachricht informiert: „Nur damit Sie es wissen: Ich verwende manchmal KI, um Ihre Fragen zu beantworten.“