Freigeben über


Vocie-Funktionen konfigurieren

Dieser Artikel beschreibt die verfügbaren Funktionen in Copilot Studio für interaktive Sprache Antwort mit Dynamics 365 Kundenservice.

Informationen zum Vorbereiten Ihres Agent für Sprachdienste finden Sie unter Integrieren eines sprachfähigen Agent mit Dynamics 365 Kundenservice.

Eine Übersicht über die Sprachdienste finden Sie unter Verwenden Sie interaktive Sprache Antwort in Ihren Agenten.

Sprach- und MFV-Modalität

Ein sprachgesteuertes Agent unterscheidet sich von einem chatbasierten Agent. Das sprachfähige Agent enthält spezifische Sprachsystemthemen für die Handhabung von Sprachszenarien. Ein chatbasiertes Agent verwendet standardmäßig die Textmodalität. Ein sprachgesteuertes Agent verwendet die Sprach- und DTMF-Modalität. Die beiden Modalitäten sind nicht miteinander kompatibel.

Durch die Optimierung für Sprache können Sie sprachgesteuerte Agenten über verschiedene Modalitäten hinweg Autor verwenden und sicherstellen, dass sprachbezogene Funktionen korrekt erstellt werden.

Für Sprachanrufe optimieren

Wenn Sie Ihr Agent nicht mit der Sprachvorlage gestartet haben, müssen Sie die Option Für Sprache optimieren in den Einstellungen von Agent aktivieren.

  1. Gehen Sie bei geöffnetem Agent zu Einstellungen>Sprache.

  2. Wählen Sie Für Sprache optimieren aus. Die Option Sprache als primären Erstellungsmodus verwenden ist ebenfalls standardmäßig aktiviert.

Ihr Agent erhält die folgenden Aktualisierungen, wenn Sie die Optionen Für Sprache optimieren und Sprache als primäre Authoringmodus-Optionen verwenden aktivieren:

  • Die Möglichkeit, Sprachfunktionen zu erstellen, wenn von Text auf Sprache und MFV umgeschaltet wird.
  • Die Sprachsystemthemen Stilleerkennung, Sprache nicht erkannt und Unbekannter Tastendruck werden automatisch hinzugefügt, um sprachbezogene Szenarien zu verarbeiten.
  • Erhöhen Sie die Genauigkeit mit Agent-Daten (standardmäßig aktiviert), wodurch die Genauigkeit der Spracherkennung verbessert wird.
  • Am vorhandenen Agent-Ablauf, wie etwa dem Hauptmenü Thema zum Starten von Gesprächen mit zugeordneten DTMF-Triggern, gibt es keine Änderungen.

Wichtig

  • Die Einstellung Für Sprache optimieren ändert nur die Funktionen zur Spracherstellung, nicht die Kanaleinstellung. Schalten Sie den Telefoniekanal für ein vollständig sprachgestütztes Agent ein.
  • Darüber hinaus bedeutet die Einstellung Für Sprache optimieren auf einem Agent, das ursprünglich nicht für Sprachfunktionen konfiguriert wurde, dass das Agent nicht über das Hauptmenü (Vorschauversion) Thema verfügt. Sie müssen Thema bei Bedarf neu erstellen.

Deaktivieren Sie die Optimierung für Sprache

Sie können die Für Sprache optimieren bei der Erstellung von Agent deaktivieren, wenn Sie den Telefoniekanal nicht aktivieren. Nachdem Sie Für Sprache optimieren deaktiviert haben, ergeben sich die folgenden Änderungen:

  • Kein Agent-Authoring für Sprachfunktionen wie DTMF und Barge-In.
  • Die Standardmodalität ist auf Text festgelegt.
  • Keine Verbesserung der Spracherkennung, da keine Spracherkennung vorhanden ist.
  • Keine Sprachsystemthemen oder globales MFV Thema.

    Anmerkung

    Bei einigen Themen werden während der Veröffentlichung möglicherweise Fehler gemeldet, wenn in anderen Themen auf das deaktivierte MFV Thema verwiesen wird.

  • Keine Änderung an Ihrem Agent-Flow und Ihren Kanaleinstellungen, da durch die Deaktivierung der Optimierung der Telefoniekanal nicht ausgeschaltet wird.
  • Das Aktivieren oder Deaktivieren der Option Für Sprache optimieren wird erst wirksam, wenn Sie Ihr Agent veröffentlichen. Wenn Agent versehentlich aktiviert oder deaktiviert wird und zwischen den Modalitäten wechselt, haben Sie Zeit, das Problem zu beheben.

Wichtig

Wenn Ihre Telefoniekanäle aktiviert sind, kann das Deaktivieren der Für Sprache optimieren Ihr Agent beschädigen, da alle DTMF-Trigger automatisch deaktiviert werden.

Verwenden Sie die Sprache als primären Erstellungsmodus

Die Sprach- und MFV-Modalität sollte für jeden Knoten bei der Sprachfunktionserstellung ausgewählt werden. Sie können die Auswählen-Erstellungseinstellung Agent so festlegen: Stimme als primäre Authoringmodus verwenden. Diese Einstellung stellt sicher, dass alle Eingabefelder die richtige Modalität haben. Wenn Sie Für Sprache optimieren bereits aktiviert haben, wird Verwenden Sie die Stimme als primären Erstellungsmodus standardmäßig aktiviert.

Meldungs-Verfügbarkeit

Die Verwendung der Text- oder Sprachmodalität kann sich unterschiedlich auf Ihren Kanal auswirken.

Textmodalität Sprachmodalität Agent Text- und Sprachkanal
Meldung verfügbar Meldung leer Meldung verfügbar
Meldung leer Meldung verfügbar Meldung nicht verfügbar

Benutzerdefinierte automatische Spracherkennung

Sprachgesteuerte Agenten für einen bestimmten Bereich, beispielsweise Medizin oder Finanzen, stellen möglicherweise fest, dass Benutzer Finanzbegriffe oder medizinischen Fachjargon verwenden. Die sprachgesteuerte App Agent kann manche Begriffe und Fachausdrücke nur schwer von Sprache in Text umwandeln.

Um eine korrekte Erkennung der Spracheingabe zu gewährleisten, können Sie die Spracherkennung verbessern:

  1. Öffnen Sie Ihr Agent und gehen Sie zu Auswählen Einstellungen>Sprache.

  2. Auswählen Erhöhen Sie die Genauigkeit mit Agent-Daten um die standardmäßigen, benutzerdefinierten Einstellungen zur automatischen Spracherkennung von Agent zu aktivieren.

  3. Wählen Sie Speichern aus, um Ihre Änderungen zu übernehmen.

  4. Veröffentlichen Sie Ihr Agent, um die neuen Änderungen zu sehen.

Referenz für Sprachoptionen auf Agentenebene

Auf der Einstellungsseite Agent-Details können Sie Timeouts für verschiedene sprachbezogene Funktionen konfigurieren. Die auf dieser Seite angewendeten Einstellungen werden zur Standardeinstellung für Themen, die in Ihrem Agent erstellt werden.

So nehmen Sie Änderungen an den Timeout-Optionen auf Agentenebene vor:

  1. Bei geöffnetem Agent Auswählen Einstellungen>Stimme.

    Screenshot der Spracheinstellungen für ein sprachfähiges Agent.

  2. Auswählen die gewünschten Einstellungen und Anpassen die Standardeinstellungen von Agent.

  3. Wählen Sie Speichern aus, um Ihre Änderungen zu übernehmen.

Einstellungen auf Agentebene

In der folgenden Tabelle sind die einzelnen Optionen und ihre Beziehung zu den Einstellungen auf Knotenebene aufgeführt.

Abschnitt auf Agentenebene mit Sprachunterstützung Einstellungen Eigenschaft Default value Knoten-Ebene außer Kraft setzen
MFV Zwischenziffer-Timeout Maximal zulässige Zeit (Millisekunden), während auf die nächste MFV-Tasteneingabe gewartet wird. Wendet mehrstellige MFV-Eingaben nur an, wenn Benutzer die maximale Eingabelänge nicht einhalten. 3000 ms Frageknoten mit Spracheigenschaften für mehrstellige MFV-Eingabe
MFV Beendigungs-Timeout Maximale Dauer (Millisekunden), die auf eine MFV-Beendigungstaste gewartet werden soll. Die Begrenzung gilt, wenn der Benutzer die maximale Eingabelänge erreicht und die Beendigungstaste nicht gedrückt hat. Gilt nur für mehrstellige MFV-Eingaben.

Wenn das Limit überschritten wird und die beendende DTMF-Taste nicht eintrifft, beendet Agent die Erkennung und gibt das Ergebnis bis dahin zurück zeigen.

Wenn auf „Fortfahren ohne Warten“ eingestellt, wartet Agent nicht auf den Beendigungsschlüssel. Agent wird sofort zurückgegeben, nachdem der Benutzer die maximale Länge eingegeben hat.
2000 ms Frageknoten mit Spracheigenschaften für mehrstellige MFV-Eingabe
Stille-Erkennung Timeout bei automatischer Erkennung Maximal zulässige Stille (Millisekunden), während auf die nächste Benutzereingabe gewartet wird. Die Begrenzung gilt, wenn Agent keine Benutzereingabe erkennt. Die Standardeinstellung ist „kein Timeout bei Stille“. Agent wartet unendlich auf die Eingabe des Benutzers.

Die Sprachstilleerkennung misst die Zeitspanne, nachdem die Stimme zu Ende gesprochen hat.
Kein Stille-Timeout Frageknoten mit Spracheigenschaften für mehrstellige MFV-Eingabe

Systemthema (Stilleerkennung Trigger-Eigenschaften) für Stilleerkennung und Timeouts konfigurieren
Spracherfassung Äußerungsende-Timeout Die Begrenzung gilt, wenn der Benutzer während oder nach der Rede eine Pause macht. Wenn die Pause länger als das Zeitüberschreitungslimit ist, geht Agent davon aus, dass der Benutzer zu Ende gesprochen hat.

Der Maximalwert für das Timeout am Äußerungsende beträgt 3000 Millisekunden. Alles über 3000 ms reduziert sich auf 3000 Millisekunden.
1500 ms Fragenknoten mit Spracheigenschaften
Spracherfassung Spracherkennungs-Timeout Bestimmt, wie viel Zeit Agent dem Benutzer für seine Eingaben einräumt, nachdem er mit dem Sprechen begonnen hat. Der Standardwert ist 12000 Millisekunden (ca. 12 Sekunden). Kein Erkennungs-Timeout bedeutet unendliche Zeit. Agent stellt die Frage erneut. Wenn keine Antwort erfolgt, ist das Timeout der Spracherkennung überschritten. 12,000 ms Fragenknoten mit Spracheigenschaften
Latenznachrichten Verzögerungsnachricht senden Bestimmt, wie lange Agent wartet, bevor die Latenzmeldung übermittelt wird, nachdem eine Hintergrundvorgangsanforderung gestartet wurde. Die Zeit wird in Millisekunden eingestellt. 500 ms Aktionsknoteneigenschaften für lang andauernde Vorgänge
Latenznachrichten Minimale Wiedergabezeit Die Latenznachricht wird für eine Mindestzeit abgespielt, auch wenn der Hintergrundvorgang während der Wiedergabe der Nachricht abgeschlossen wird. Die Zeit wird in Millisekunden eingestellt. 5000 ms Aktionsmoduseigenschaften für lang andauernde Vorgänge
Sprachsensitivität Sensitivität Steuert, wie das System die Erkennung von Sprache und Hintergrundgeräuschen ausgleicht. Verringern Sie die Sensitivität für laute Umgebungen, öffentliche Orte undy den Freisprechbetrieb. Erhöhen Sie die Sensitivität für ruhige Umgebungen, leise sprechende Benutzende oder die Erkennung von Sprachbefehlen. Die Standardeinstellung ist 0.5. 0.5 Für dieses Steuerelement gibt es keine Überschreibungen auf Knotenebene.

Barge-In aktivieren

Durch die Aktivierung der Barge-In-Funktion können Ihre Agent-Benutzer Ihr Agent unterbrechen. Diese Funktion kann nützlich sein, wenn der Benutzer Agent nicht die gesamte Nachricht hören muss. Beispielsweise ist es möglich, dass Anrufer die Menüoptionen bereits kennen, da sie diese schon einmal gehört haben. Mit Barge-In kann der Agent-Benutzer die gewünschte Option eingeben, auch wenn Agent noch nicht mit der Auflistung aller Optionen fertig ist.

Szenarien zum Deaktivieren des Barge-In

  • Deaktivieren Sie die Barge-In-Funktion, wenn Sie kürzlich eine Agent-Nachricht aktualisiert haben oder wenn die Compliance-Nachricht nicht unterbrochen werden soll.
  • Deaktivieren Sie das Einsteigen für die erste Agent-Nachricht, um sicherzustellen, dass Agent-Benutzer über neue oder wichtige Informationen informiert sind.

Spezifikationen

  • Barge-in unterstützt DTMF-basierte und sprachbasierte Unterbrechungen durch den Benutzer Agent.

  • Das Aufschalten kann mit jeder einzelnen Nachricht in einem Batch gesteuert werden. barge-in-disabled Knoten in der Reihenfolge vor jedem Knoten platzieren, bei dem ein Barge-In zulässig ist. Andernfalls wird „Barge-In deaktiviert“ als „Barge-In zulassen“-Nachricht behandelt.

    Screenshot der Barge-In- und Barge-In-Deaktivierungsplatzierungen in Nachrichtenknoten.

    Sobald eine Batch-Warteschlange fertig ist, wird die automatische Barge-In-Einstellung für den nächsten Batch zurückgesetzt und bei jeder nachfolgenden Nachricht durch das Barge-In-Flag gesteuert. Sie können deaktivierte Barge-In-Knoten platzieren, wenn die Sequenz erneut gestartet wird.

Tipp

Wenn aufeinanderfolgende Nachrichtenknoten vorhanden sind, gefolgt von einem Fragenknoten, werden Sprachnachrichten für diese Knoten als ein Batch definiert. Ein Batch beginnt mit einem Nachrichtenknoten und endet beim Fragenknoten, der auf die Eingabe des Benutzers wartet.

Deaktivieren Sie die Aufschaltung bei längeren Nachrichten nicht, insbesondere wenn Sie davon ausgehen, dass Agent-Benutzer häufig mit Agent interagieren. Wenn Ihr Agent-Benutzer die Menüoptionen bereits kennt, lassen Sie ihn selbst dorthin gelangen, wo er hin möchte.

Barge-In einrichten

  1. Mit einem ausgewählten Nachricht oder Frage-Knoten legen Sie die gewünschte Modalität auf Sprache und MFV fest.

  2. Symbol Mehr im () des Knotens auswählen und dann Eigenschaften auswählen.

    1. Für Nachrichten.Knoten wird der Bereich Eigenschaften der Sendeaktivität an der Seite der Erstellungsfläche geöffnet.

      Wählen Sie Barge-in zulassen aus.

    2. Für Fragen Knoten wird das Fenster Frageneigenschaften geöffnet. Wählen Sie dort Sprache aus.

      Wählen Sie in den Voice Eigenschaften die Option Barge-in zulassen aus.

  3. Das Thema speichern, um Ihre Änderungen zu übernehmen.

Konfigurieren der Stilleerkennung und Zeitüberschreitungen

Mit der Stilleerkennung können Sie konfigurieren, wie lange Agent auf Benutzereingaben wartet und welche Aktion ausgeführt wird, wenn keine Eingabe empfangen wird. Die Stilleerkennung ist in Antwort am nützlichsten bei einer Frage auf Knotenebene oder wenn Agent auf ein Systemthema wartet, um ein neues Thema zu beginnen.

Sie können die Standard-Timeouts für Themen konfigurieren.

Zum Überschreiben des Standards für einen Knoten:

  1. Symbol Mehr im () des Knotens auswählen und dann Eigenschaften auswählen.

    Der Bereich Frageeigenschaften wird geöffnet.

  2. Wählen Sie Voice aund und nehmen Sie die folgenden Einstellungen vor:

    Timeout-Option für Stilleerkennung Eigenschaft
    Verwenden Sie die Einstellung Agent Node verwendet die globale Einstellung zur Stilleerkennung.
    Für diesen Knoten deaktivieren Der Agent wartet unbegrenzt auf einen Antwort.
    Millisekunden anpassen Agent wartet eine bestimmte Zeit, bevor die Frage wiederholt wird.

Ausweichaktion

Sie können einige Verhaltensweisen als Fallback-Aktion konfigurieren:

  • Wie oft soll Agent eine Frage wiederholen?
  • Was die erneute Eingabeaufforderung enthalten soll
  • Was Agent nach einer bestimmten Anzahl von Wiederholungen tun soll

Spracheingabe

Für die Spracheingabe können Sie angeben:

  • Timeout für Äußerungsende: Wie lange Agent wartet, nachdem der Benutzer zu Ende gesprochen hat
  • Timeout für die Spracherkennung: Wie viel Zeit Agent dem Benutzer gibt, sobald er mit der Antwort beginnt

Um das Verhalten bei der Stilleerkennung zu konfigurieren, wenn Ihr Agent auf ein Triggerausdruck, Anpassen wartet, nehmen Sie die Einstellungen unter Bei Stille Agent vor.

Eine Meldung zur Latenz für einen zeitintensiven Vorgang hinzufügen

Bei langen Backend-Operationen kann Ihr Agent eine Nachricht an die Benutzer senden, um sie über die längeren Prozesse zu benachrichtigen. Agenten in einem Nachrichtenkanal können auch eine Latenznachricht senden.

Latenznachrichten-Audiowiedergabe Latenzmeldung im Chat
Die Schleife wird fortgesetzt, bis der Vorgang abgeschlossen ist. Wird nur einmal gesendet, wenn die angegebene Latenz erreicht wird.

In Copilot Studio kann Ihr Agent eine Nachricht wiederholen, nachdem ein Power Automate Flow ausgelöst wurde:

  1. Fügen Sie einen Aktionsknoten hinzu, der einen Flow auslöst.

  2. Symbol Mehr im () des Knotens auswählen und dann Eigenschaften auswählen. Der Bereich Aktionseigenschaften wird geöffnet.

  3. Wählen Sie Nachricht senden.

  4. Geben Sie im Abschnitt Nachricht ein, was Agent sagen soll. Sie können SSML verwenden, um den Ton der Nachricht zu ändern. Agent wiederholt die Nachricht, bis der Flow abgeschlossen ist.

Im Abschnitt Verzögerung können Sie festlegen, wie lange Anpassen warten soll, bevor die Nachricht wiederholt wird. Sie können eine Mindestwartezeit festlegen, auch wenn der Flow abgeschlossen ist.

Anrufbeendigung konfigurieren

Um Ihr Agent so zu konfigurieren, dass der Anruf beendet und aufgelegt wird, fügen Sie einen neuen Knoten (+) hinzu und dann Auswählen Thema-Verwaltung>Gespräch beenden.

Screenshot eines neuen Knotenmenüs mit hervorgehobener Option „Thema-Verwaltung“ und „Unterhaltung beenden“.

Formatieren der Sprachsynthese mit SSML

Sie können die Speech Synthesis Markup Language (SSML) verwenden, um die Klangqualität beim Vorlesen von Nachrichten von Agent zu ändern. So können Sie beispielsweise die Tonhöhe bzw. Frequenz der gesprochenen Wörter, die Geschwindigkeit und die Lautstärke verändern.

SSML verwendet Tags, um den zu ändernden Text einzuschließen, ähnlich wie HTML. Sie können Copilot Studio für die folgenden Aufgaben verwenden:

SSML-Tag Beschreibung Link zur Dokumentation des Sprachdiensts
<audio src="_URL to an audio file_"/> Fügen Sie innerhalb des Tags die URL zu einer Audiodatei hinzu. Der Benutzer Agent muss auf die Datei zugreifen können. Aufgezeichnetes Audio hinzufügen
<break /> Fügen Sie Pausen oder Unterbrechungen zwischen Wörtern ein. Fügen Sie Unterbrechungsoptionen innerhalb des Tags ein. Pause hinzufügen
<emphasis>Text, den Sie ändern möchten</emphasis> Fügen Sie Wörtern oder Sätzen Stress hinzu. Fügen Sie im öffnenden Tag Hervorhebungsoptionen hinzu. Fügen Sie das schließende Tag nach dem Text hinzu, den Sie ändern möchten. Hervorhebungsoptionen anpassen
<prosody>Text, den Sie ändern möchten</prosody> Geben Sie Änderungen an Tonhöhe, Kontur, Bereich, Rate und Lautstärke an. Fügen Sie Prosodie-Optonen im öffnenden Tag hinzu. Fügen Sie das schließende Tag nach dem Text hinzu, den Sie ändern möchten. Prosodie-Optionen anpassen
<lang xml:lang="xx-XX">Text, den Sie ändern möchten</lang> Anpassen die gesprochene Sprache innerhalb derselben Nachricht bei Verwendung einer mehrsprachigen neuronalen Stimme. Anpassen sprechende Sprachen

Screenshot einer Sprachnachricht mit hinzugefügten SSML-Tags

Suchen und Verwenden eines Tags

SSML verwendet Tags, um den zu ändernden Text einzuschließen, ähnlich wie HTML.

Sie können Copilot Studio für die folgenden Aufgaben verwenden:

  1. Mit einem ausgewählten Nachrichten oder Frage-Knoten legen Sie die gewünschte Modalität auf Sprache und MFV fest.

  2. Wählen Sie das Menü SSML-Tags und wählen Sie dann ein Tag aus.

    Das Nachrichtenfeld wird mit dem Tag gefüllt. Wenn das Nachrichtenfeld bereits Text enthält, wird der Code des Tags an das Ende Ihrer Nachricht angehängt.

  3. Umgeben Sie den Text, den Sie ändern möchten, mit den öffnenden und schließenden Tags. Dabei können Sie mehrere Tags kombinieren und einzelne Teile der Nachricht durch individuelle Tags individualisieren.

Tipp

Sie können SSML-Tags, die nicht im Hilfsmenü angezeigt werden, manuell eingeben. Weitere Informationen zu anderen verwendbaren Tags finden Sie unter Verbessern Sie die Synthese mit Speech Synthesis Markup Language.

Anruf an einen Mitarbeitenden oder an eine externe Telefonnummer weiterleiten

Sie können den Anruf von Agent an eine externe Telefonnummer weiterleiten lassen. In Copilot Studio wird die Blindweiterleitung an eine PSTN-Telefonnummer und die direkte Routing-Nummer unterstützt.

Anrufweiterleitung an externe Telefonnummer:

  1. Fügen Sie in der Thema, die Sie ändern möchten, einen neuen Knoten (+) hinzu. Wählen Sie im Knotenmenü Themenverwaltung und wählen Sie dann Unterhaltung übertragen.

  2. Wählen Sie unter Weiterleitungsart die Option Externe Rufnummernweiterleitung aus und geben Sie die Weiterleitungsnummer ein.

  3. (Optional) Fügen Sie Telefonanruf einen SIP-UUI-Header hinzu.

    Dieser Header ist eine Zeichenfolge aus key=value-Paaren ohne Leerzeichen oder Sonderzeichen, die für das Lesen durch externe Systeme angezeigt wird.

    1. Symbol Mehr im () des Knotens auswählen und dann Eigenschaften auswählen. Der Bereich Unterhaltungseigenschaften übertragen wird geöffnet.

    2. Geben Sie unter SIP-UUI-Header die Informationen ein, die Sie mit der Anrufweiterleitung senden möchten. Bei der Weiterleitung auf eine externe Rufnummer werden Variablen nicht unterstützt.

    Vorsicht

    Es werden nur die ersten 128 Zeichen der Zeichenfolge gesendet.

    In der Kopfzeile sind nur Zahlen, Buchstaben, Gleichheitszeichen (=) und Semikolons (;) zulässig. Alle anderen Zeichen, einschließlich Leerzeichen, Klammern und eckige Klammern sowie Formeln werden nicht unterstützt und können dazu führen, dass die Übertragung fehlschlägt.

Tipp

Fügen Sie in Ihrer Telefonnummer ein + für die entsprechende Landesvorwahl ein.

Für die ausgehende Übertragung mit SIP-UUI für die Zieltelefonnummer muss das direkte Routing verwendet werden. Telefonnummern im öffentlichen Telefonnetz (PSTN) unterstützen keine SIP-UUI-Header-Übertragungen.

Informationen zum Übertragen an einen Mitarbeitenden finden Sie unter Explizite Trigger.

Nur Voice-Variablen

Copilot Studio unterstützt die Besetzung von Variablen. Sie können vordefinierte Variablen verwenden oder benutzerdefinierte erstellen.

Anmerkung

  • Weitere Informationen über die Verwendung und Erstellung von Variablen in Copilot Studio finden Sie unter Mit Variablen arbeiten.
  • Informationen zu zusätzlichen Aktivitäts- und Konversationsvariablen, die für sprachgesteuerte Agenten verfügbar sind, finden Sie unter Variablen für sprachgesteuerte Agenten.

Ein sprachgesteuertes Agent in Copilot Studio unterstützt Kontextvariablen. Diese Variablen helfen Ihnen, Ihre Agent-Gespräche mit Dynamics 365 Kundenservice zu integrieren, wenn Sie einen Anruf weiterleiten.

Weitere Informationen zu Kontextvariablen in Dynamics 365 Kundenservice, finden Sie unter Kontextvariablen für Copilot Studio Bots.

Diese Integration unterstützt diese Szenarios mit den folgenden Variablen beim Übertragen:

Variable typ Eigenschaft
System.Activity.From.Name String Die Anrufer-ID des Benutzers Agent
System.Activity.Recipient.Name String Die Nummer, die zum Anrufen oder Verbinden an Agent verwendet wird
System.Conversation.SipUuiHeaderValue String SIP-Headerwert bei der Weiterleitung über eine direkt weitergeleitete Rufnummer
System.Activity.UserInputType String Ob der Benutzer Agent im Gespräch DTMF oder Sprache verwendet hat
System.Activity.InputDTMFKey String Die unverarbeitete DTMF-Eingabe des Benutzers Agent
System.Conversation.OnlyAllowDTMF Boolesch Wenn die Einstellung auf true gesetzt ist, ignoriert Voice die Spracheingabe
System.Activity.SpeechRecognition.Confidence Number Der Konfidenzwert (zwischen 0 und 1) des letzten Spracherkennungsereignisses
System.Activity.SpeechRecognition.MinimalFormattedText String Spracherkennungsergebnisse (als Rohtext) vor Copilot Studio Anwendung des speziellen Modells zum Verständnis natürlicher Sprache

Anmerkung

  • Die Veröffentlichung eines Agent mit großen Trigger-Phrasen und Entitätsgrößen dauert länger.
  • Wenn mehrere Benutzer gleichzeitig dasselbe Agent veröffentlichen, wird Ihre Veröffentlichungsaktion blockiert. Sie müssen Agent erneut veröffentlichen, nachdem andere ihre vorhandenen Agent-Bearbeitungen abgeschlossen haben.

Weitere Informationen zu den Grundlagen des Veröffentlichens finden Sie unter Schlüsselkonzepte – Veröffentlichen und Bereitstellen Ihres Agent.