Domande frequenti sull'esperienza di creazione di un agente per le conversazioni
Queste domande frequenti (FAQ) descrivono l'effetto dell'IA dell'esperienza di creazione di agenti per le conversazioni in Copilot Studio.
Che cos'è l'esperienza di creazione di un agente conversazionale?
L'esperienza di creazione di agenti per le conversazioni viene usata per aiutarti a creare un agente personalizzato o un agente Copilot. Attraverso la conversazione, prevede il nome, la descrizione, le istruzioni, eventuali fonti di conoscenza Web aggiunte e le richieste iniziali (per gli agenti Copilot)
Quali sono le funzionalità per l'esperienza di creazione di un agente conversazionale?
È possibile iniziare rapidamente con la configurazione dell'agente personalizzato o dell'agente Copilot tramite un'interfaccia in linguaggio naturale. Il sistema aggiornerà la configurazione in base agli input dell'autore durante la conversazione.
Qual è la destinazione d'uso dell'esperienza di creazione di agenti conversazionali?
Puoi utilizzare questa esperienza per iniziare la configurazione iniziale dell'agente.
Come è stata valutata l'esperienza di creazione dell'agente conversazionale e quali metriche vengono utilizzate per misurare le prestazioni?
Abbiamo valutato il sistema per verificarne l'accuratezza della rappresentazione delle richieste da parte della configurazione prevista durante la conversazione al fine di garantirne la qualità. Abbiamo anche testato per garantire che il sistema non produca contenuti dannosi.
Quali sono i limiti dell'esperienza di creazione di agenti conversazionali e in che modo gli utenti possono ridurre al minimo l'impatto delle limitazioni durante il suo utilizzo?
L'esperienza di creazione di agenti per le conversazioni supporta solo determinate lingue. Potresti essere in grado di utilizzare altre lingue, ma le risposte generate potrebbero essere incoerenti e l'agente potrebbe non rispondere correttamente o come previsto.
Questa esperienza non può aiutarti a testare il tuo agente e può essere utilizzata solo per configurare:
- Nome.
- Descrizione.
- Istruzioni per la creazione dell'agente
- Fonti di conoscenza Web
- Avvio dei prompt per gli agenti Copilot
Consulta le Domande frequenti sull'intelligenza artificiale responsabile per le risposte generative per ulteriori considerazioni e limitazioni sull'utilizzo delle risposte generative negli agenti creati con questa funzione.
Quali fattori operativi e impostazioni consentono un uso efficace e responsabile dell'esperienza di creazione di agenti conversazionali?
È possibile utilizzare il linguaggio naturale per conversare con il sistema tramite chat oppure modificare manualmente la configurazione direttamente nel pannello laterale. Se modifichi manualmente, il sistema potrebbe aggiornarsi con ulteriori informazioni man mano che prosegui la conversazione.
Quali sono le tutele previste in Copilot Studio per un'IA responsabile?
Le risposte generative includono varie protezioni per garantire ad amministratori, autori e utenti un'esperienza sicura e conforme. Gli amministratori hanno il controllo completo sulle funzionalità del proprio tenant e possono sempre disattivare la possibilità di pubblicare agenti con risposte generative nell'organizzazione. Gli autori possono aggiungere istruzioni personalizzate per influenzare i tipi di risposte restituite dai loro agenti. Per ulteriori informazioni sulle procedure consigliate per la scrittura di istruzioni personalizzate, consulta Utilizzare la modifica delle richieste per fornire istruzioni personalizzate all'agente.
Gli autori possono anche limitare le fonti di conoscenza che gli agenti possono utilizzare per rispondere alle domande. Per consentire agli agenti di rispondere a domande al di fuori dell'ambito delle origini della Knowledge Base configurate, gli autori possono attivare la funzionalità Conoscenza generale dell'intelligenza artificiale. Per limitare gli agenti a rispondere solo alle domande nell'ambito delle origini della conoscenza configurate, gli autori devono disattivare questa funzionalità.
Copilot Studio applica inoltre i criteri di moderazione dei contenuti a tutte le richieste dell'IA generativa per proteggere amministratori, autori e utenti da contenuti offensivi o dannosi. Questi criteri di moderazione dei contenuti si estendono anche ai tentativi dannosi di jailbreak, prompt injection, esfiltrazione di prompt e violazione del copyright. Tutti i contenuti vengono controllati due volte: la prima durante l'input dell'utente e di nuovo quando l'agente sta per rispondere. Se il sistema trova contenuti dannosi, offensivi o nocivi, impedisce all'agente di rispondere.
Infine, è buona norma comunicare agli utenti che l'agente utilizza l'intelligenza artificiale, pertanto il seguente messaggio predefinito informa gli utenti: "Solo perché tu sia consapevole, a volte uso l'intelligenza artificiale per rispondere alle tue domande".