Freigeben über


Häufig gestellte Fragen zur ersten Ausführung von Unterhaltungen

Diese häufig gestellten Fragen (FAQ) beschreiben die Auswirkungen von KI auf die Erfahrung bei der ersten Ausführung von Unterhaltungen in Copilot Studio.

Was ist die Erfahrung bei der ersten Ausführung von Unterhaltungen?

Die Erfahrung bei der ersten Ausführung von Unterhaltungen wird verwendet, um Sie beim Erstellen eines benutzerdefinierten Agenten oder Copilot-Agenten zu unterstützen. Während der Konversation werden der Name, die Beschreibung, die Anweisungen, alle hinzugefügten Webwissensquellen und Startaufforderungen (für Copilot-Agenten) vorhergesagt

Welche Funktionen gibt es für die Erfahrung bei der ersten Ausführung von Unterhaltungen?

Sie können schnell mit der benutzerdefinierten Konfiguration von Agent oder Copilot-Agent über eine natürlichsprachliche Schnittstelle beginnen. Das System aktualisiert die Konfiguration basierend auf den Eingaben des Erstellers während des Gesprächs.

Was ist der Verwendungszweck der ersten dialogorientierten Erfahrung?

Sie können diese Umgebung verwenden, um mit der Erstkonfiguration von Agent zu beginnen.

Wie wurde die erste Ausführung der Konversation ausgewertet und welche Metriken werden zur Messung der Leistung verwendet?

Wir bewerteten das System auf Genauigkeit, wie gut die vorhergesagte Konfiguration die Anforderungen während des Gesprächs darstellte, um die Qualität sicherzustellen. Wir haben auch getestet, um sicherzustellen, dass das System keine schädlichen oder bösartigen Inhalte produziert.

Was sind die Einschränkungen der Erfahrung bei der ersten Ausführung von Unterhaltungen und wie können Benutzende die Auswirkungen der Einschränkungen bei der Verwendung minimieren?

  • Die Erfahrung bei der ersten Ausführung von Unterhaltungen unterstützt nur bestimmte Sprachen. Möglicherweise können Sie andere Sprachen verwenden, aber die generierten Antworten sind möglicherweise inkonsistent, und der Agent reagiert möglicherweise nicht richtig oder nicht wie erwartet.

  • Diese Erfahrung kann Ihnen nicht dabei helfen, Ihre Agent zu testen, und sie kann nur verwendet werden, um Folgendes zu konfigurieren:

    • Der Name
    • Die Beschreibung
    • Anweisungen zum Erstellen des Agenten
    • Web-Wissensquellen
    • Start-Prompts für Copilot-Agenten
  • Informationen zu weiteren Überlegungen und Einschränkungen bei der Verwendung generativer Antworten in Agenten, die Sie mit diesem Feature erstellen, finden Sie in den FAQ zu verantwortungsvoller KI für generative Antworten.

Welche betrieblichen Faktoren und Einstellungen ermöglichen eine effektive und verantwortungsvolle Nutzung der ersten Gesprächserfahrung?

Sie können natürliche Sprache verwenden, um sich mit dem System per Chat zu unterhalten, oder Sie können die Konfiguration direkt manuell im Seitenbereich bearbeiten. Wenn Sie die Konversation manuell bearbeiten, wird das System möglicherweise mit zusätzlichen Informationen aktualisiert, wenn Sie die Konversation fortsetzen.

Welche Schutzmaßnahmen gibt es in Copilot Studio für verantwortungsvolle KI?

Generative Antworten umfassen verschiedene Schutzmaßnahmen, um sicherzustellen, dass Administratoren, Entwickler und Benutzer eine sichere und konforme Erfahrung genießen. Fachkräfte für die Administration haben die volle Kontrolle über die Features in ihrem Mandanten und können die Veröffentlichung von Agenten mit generativen Antworten in Ihrer Organisation jederzeit deaktivieren. Ersteller können benutzerdefinierte Anweisungen hinzufügen, um die Art der Antworten zu beeinflussen, die ihre Agenten zurückgeben. Weitere Informationen zu Best Practices zum Schreiben benutzerdefinierter Anweisungen finden Sie unter Die Änderung von Eingabeaufforderungen nutzen, um Ihrem Agent individuelle Anweisungen zu geben.

Erstellende können auch die Wissensquellen einschränken, die Agenten zur Beantwortung von Fragen verwenden können. Damit Agenten Fragen beantworten können, die außerhalb des Bereichs ihrer konfigurierten Wissensquellen liegen, können Erstellende das Feature KI-Allgemeinwissen aktivieren. Damit Agenten sich bei der Beantwortung von Fragen strikt an ihre konfigurierten Wissensquellen halten müssen, sollten Erstellende dieses Feature deaktivieren.

Copilot Studio wendet außerdem Richtlinien zur Inhaltsmoderation auf alle generativen KI-Anfragen an, um Fachkräfte für die Administration, Erstellende und Benutzende vor anstößigen oder schädlichen Inhalten zu schützen. Diese Richtlinien zur Moderation von Inhalten erstrecken sich auch auf böswillige Versuche des Jailbreaks, der Prompt Injection, der prompten Exfiltration und der Urheberrechtsverletzung. Alle Inhalte werden zweimal überprüft: zuerst während der Benutzereingabe und erneut, wenn der Agent im Begriff ist, zu antworten. Wenn das System schädliche, anstößige oder bösartige Inhalte findet, verhindert es, dass Ihr Agent reagiert.

Letztendlich ist es eine bewährte Methode, den Benutzenden zu sagen, dass der Agent künstliche Intelligenz verwendet. Daher informiert die folgende Standardnachricht die Benutzenden: „Nur damit Sie es wissen: Ich verwende manchmal KI, um Ihre Fragen zu beantworten.“