Veelgestelde vragen over de ervaring voor het maken van een gespreksagent
Deze veelgestelde vragen (FAQ) beschrijven het AI-effect van de ervaring van het maken van een gespreksagent in Copilot Studio.
Wat is de ervaring voor het maken van een gespreksagent?
De ervaring van maken van een gespreksagent wordt gebruikt om u te helpen een aangepaste agent of Copilot-agent te maken. Via het gesprek voorspelt het de naam, beschrijving, instructies, eventuele toegevoegde bronnen van webkennis en startprompts (voor Copilot-agenten)
Welke mogelijkheden biedt de ervaring van het aanmaken van een conversationele agent?
U kunt snel aan de slag met aangepaste agent- of Copilot-agentconfiguratie via een natuurlijke taalinterface. Het systeem werkt de configuratie bij op basis van de invoer van de maker tijdens het gesprek.
Wat is het beoogde gebruik van de conversationele agentcreatie-ervaring?
U kunt deze ervaring gebruiken om uw eerste agentconfiguratie te starten.
Hoe werd de ervaring met het aanmaken van een conversational agent geëvalueerd en welke statistieken worden gebruikt om de prestaties te meten?
Om de kwaliteit te waarborgen, hebben we het systeem geëvalueerd op nauwkeurigheid en hoe goed de voorspelde configuratie de verzoeken tijdens het gesprek weergeeft. We hebben ook tests uitgevoerd om ervoor te zorgen dat het systeem geen schadelijke of kwaadaardige inhoud produceert.
Wat zijn de beperkingen bij het aanmaken van een conversationele agent en hoe kunnen gebruikers de impact van deze beperkingen minimaliseren?
De ervaring voor het maken van een gespreksagent ondersteunt slechts bepaalde talen. U kunt wellicht andere talen gebruiken, maar de antwoorden die u krijgt, zijn mogelijk inconsistent en de agent reageert mogelijk niet correct of zoals u verwacht.
Met deze ervaring kunt u uw agent niet testen en kunt u alleen het volgende configureren:
- De naam
- De beschrijving
- Instructies voor het maken van de agent
- Webkennisbronnen
- Startprompts voor Copilot-agenten
Zie de Veelgestelde vragen over verantwoorde AI voor generatieve antwoorden voor aanvullende overwegingen en beperkingen bij het gebruik van generatieve antwoorden in agenten die u met deze functie maakt.
Welke operationele factoren en instellingen zorgen voor een effectief en verantwoord gebruik van de ervaring van het aanmaken van conversationele agenten?
U kunt via chat natuurlijke taal met het systeem communiceren, maar u kunt de configuratie ook handmatig bewerken in het zijpaneel. Als u handmatig bewerkt, kan het systeem worden bijgewerkt met aanvullende informatie terwijl u het gesprek voortzet.
Welke beschermingsmaatregelen zijn er binnen Copilot Studio voor verantwoorde AI?
Generatieve antwoorden bevatten verschillende beschermingsmaatregelen om ervoor te zorgen dat beheerders, makers en gebruikers een veilige, conforme ervaring hebben. Beheerders hebben volledige controle over de functies in hun tenant en kunnen altijd de mogelijkheid uitschakelen om agenten met generatieve antwoorden te publiceren in uw organisatie. Makers kunnen aangepaste instructies toevoegen om het type reacties te beïnvloeden dat hun agenten terugsturen. Zie voor meer informatie over best practices voor het schrijven van aangepaste instructies Promptaanpassing gebruiken om aangepaste instructies te geven aan uw agent.
Makers kunnen ook de kennisbronnen beperken die agenten kunnen gebruiken om vragen te beantwoorden. Om agenten in staat te stellen vragen te beantwoorden die buiten het bereik van hun geconfigureerde kennisbronnen vallen, kunnen makers de functie Algemene AI-kennis inschakelen. Om ervoor te zorgen dat agenten alleen vragen beantwoorden die binnen het bereik van hun geconfigureerde kennisbronnen vallen, moeten makers deze functie uitschakelen.
Copilot Studio past ook beleidsregels voor inhoudsmoderatie toe op alle generatieve AI-verzoeken om beheerders, makers en gebruikers te beschermen tegen aanstootgevende of schadelijke content. Deze beleidsregels voor contentmoderatie gelden ook voor kwaadaardige pogingen tot jailbreaking, directe injectie, directe exfiltratie en inbreuk op het auteursrecht. Alle inhoud wordt twee keer gecontroleerd: eerst tijdens de invoer door de gebruiker en nog een keer wanneer de agent op het punt staat te reageren. Als het systeem schadelijke, aanstootgevende of kwaadaardige inhoud vindt, voorkomt het dat uw agent reageert.
Tot slot is het een goede gewoonte om gebruikers te laten weten dat de agent gebruikmaakt van kunstmatige intelligentie. Daarom wordt gebruikers in het volgende standaardbericht geïnformeerd: "Ter informatie: ik gebruik soms AI om uw vragen te beantwoorden."