Vanliga frågor och svar för upplevelsen för att skapa konversationshandläggare
Dessa vanliga frågor och svar (FAQ) beskriver AI-effekten av upplevelsen för att skapa konversationshandläggare i Copilot Studio.
Vad är upplevelsen för att skapa konversationshandläggare?
Upplevelsen för att skapa konversationshandläggare används för att hjälpa dig att skapa en anpassad handläggare eller Copilot-agent. Genom konversationen förutser den namn, beskrivning, instruktioner, eventuella tillagda webbkunskapskällor och startprompter (för Copilot-agenter)
Vilka är funktionerna för att skapa konversationshandläggare?
Du kan snabbt komma igång med anpassad agent- eller Copilot-agent-konfiguration via ett gränssnitt med naturligt språk. Systemet kommer att uppdatera konfigurationen baserat på utvecklarens indata under konversationen.
Vad är den avsedda användningen av upplevelsen för att skapa konversationshandläggare?
Du kan använda den här upplevelsen för att påbörja din första agentkonfiguration.
Hur utvärderades upplevelsen av att skapa konversationshandläggare och vilka mått används för att mäta prestanda?
Vi utvärderade systemet för noggrannhet i hur väl den förutsagda konfigurationen representerade förfrågningarna genom konversationen för att säkerställa kvalitet. Vi testade också för att säkerställa att systemet inte producerar skadligt innehåll.
Vilka är begränsningarna för att skapa konversationshandläggare och hur kan användarna minimera effekten av begränsningar när de använder den?
Upplevelsen för att skapa konversationshandläggare stöder endast vissa språk. Du kanske kan använda andra språk, men svaren som genereras kan vara inkonsekventa och agent kanske inte svarar korrekt eller som du förväntar dig.
Den här upplevelsen kan inte hjälpa dig att testa din agent och den kan bara användas för att konfigurera:
- Namnet
- Beskrivningen
- Instruktioner som skapar agent
- Webbkunskapskällor
- Starta prompter för Copilot-agent
Se Vanliga frågor och svar om ansvarsfull AI för generativa svar för ytterligare överväganden och begränsningar när du använder generativa svar i agenten som du skapar med den här funktionen.
Vilka operativa faktorer och inställningar möjliggör effektiv och ansvarsfull användning av upplevelsen för att skapa konversationshandläggare?
Du kan använda naturligt språk för att konversera med systemet via chatt, eller så kan du redigera konfigurationen manuellt i sidopanelen. Om du redigerar manuellt kan systemet uppdateras med ytterligare information när du fortsätter konversationen.
Vilka skydd finns på plats i Copilot Studio för ansvarsfull AI?
Generativa svar omfattar olika skydd för att säkerställa att administratörer, utvecklare och användare får en säker och kompatibel upplevelse. Administratörer har fullständig kontroll över funktionerna i sin klientorganisation och kan alltid inaktivera möjligheten att publicera agenter med generativa svar i din organisation. Utvecklare kan lägga till anpassade instruktioner för att påverka vilka typer av svar deras agenter returnerar. Mer information om metodtips för att skriva anpassade instruktioner finns i Använda promptändring för att ge anpassade instruktioner till din agent.
Skapare kan också begränsa de kunskapskällor som agenter kan använda för att besvara frågor. För att göra det möjligt för agenter att besvara frågor utanför omfattningen för deras konfigurerade kunskapskällor kan skapare aktivera funktionen Allmän AI-kunskap . Om du vill begränsa agenter till att endast besvara frågor inom ramen för deras konfigurerade kunskapskällor bör skapare inaktivera den här funktionen.
Copilot Studio tillämpar även policyer för innehållsmoderering på alla generativa AI-förfrågningar för att skydda administratörer, utvecklare och användare mot stötande eller skadligt innehåll. Dessa policyer för innehållsmoderering omfattar även skadliga försök till jailbreaking, promptinjektion, promptexfiltrering och upphovsrättsintrång. Allt innehåll kontrolleras två gånger: först under användarinmatning och igen när agenten är på väg att svara. Om systemet hittar skadligt, stötande eller ondskefullt innehåll hindrar det din agenten från att svara.
Slutligen är det bästa praxis att kommunicera till användarna att agenten använder artificiell intelligens och därför informerar följande standardmeddelande användarna: ”Bara så att du är medveten om att jag ibland använder AI för att svara på dina frågor”.