Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Si applica a: Dynamics 365 Contact Center - integrato, Dynamics 365 Contact Center - standalone e Dynamics 365 Customer Service
Questo articolo sulle domande frequenti aiuta a rispondere alle domande sull'uso responsabile dell'intelligenza artificiale nelle funzionalità del copilota in Customer Service.
Cos'è Copilot in Dynamics 365 Customer Service?
Copilot è uno strumento basato sull'intelligenza artificiale che trasforma l'esperienza rappresentante del servizio clienti (rappresentante del servizio o rappresentante) in Dynamics 365 Customer Service. Fornisce assistenza in tempo reale basata sull'intelligenza artificiale che aiuta i rappresentanti a risolvere i problemi più rapidamente, gestire i casi in modo più efficiente e automatizzare le attività che richiedono molto tempo in modo che sia possibile concentrarsi sull'erogazione di un servizio di alta qualità ai propri clienti.
Quali sono le capacità dei sistemi?
Copilot fornisce le seguenti funzionalità principali:
Fai una domanda: è la prima scheda che i rappresentanti del servizio vedono quando attivano il riquadro della guida di Copilot. È un'interfaccia conversazionale con Copilot, che aiuta a fornire risposte contestuali alle domande dei rappresentanti. Le risposte di Copilot si basano su fonti di conoscenza interne ed esterne fornite dalla tua organizzazione durante la configurazione.
Scrivi un'e-mail: la seconda scheda nel riquadro della guida di Copilot aiuta i rappresentanti a creare rapidamente risposte e-mail in base al contesto del caso, riducendo il tempo che gli utenti devono dedicare alla creazione di e-mail.
Bozza di una risposta chat: consente ai rappresentanti di creare una risposta con un solo clic alla conversazione di messaggistica digitale in corso dalle fonti di conoscenza configurate dalla tua organizzazione.
Riepiloga un caso: Copilot fornisce ai rappresentanti un riepilogo di un caso direttamente nel modulo del caso, in modo che possano recuperare rapidamente i dettagli importanti di un caso.
Riepiloga una conversazione: Copilot fornisce ai rappresentanti un riepilogo di una conversazione nei punti chiave del percorso del cliente, come passaggi di rappresentanti virtuali, trasferimenti e richieste.
Generare bozze di articoli della Knowledge Base (anteprima): Copilot genera una bozza di articolo della Knowledge Base come proposta basata sulle informazioni del caso. I rappresentanti possono rivedere e perfezionare la bozza fornendo istruzioni di revisione a Copilot e quindi salvarla.
Riepiloga un record personalizzato: Copilot fornisce ai rappresentanti un riepilogo di un record in base ai campi che l'amministratore configura per la tabella personalizzata, in modo che i rappresentanti possano recuperare rapidamente i dettagli importanti di un record di supporto.
Genera note di risoluzione: Copilot fornisce ai rappresentanti un riepilogo dei dettagli del caso, dei messaggi e-mail e delle note collegati al caso nella scheda Fai una domanda, in modo che possano chiudere rapidamente il caso o l'incidente.
Qual è la destinazione d'uso del sistema?
Copilot in Customer Service ha lo scopo di aiutare i rappresentanti del servizio clienti a lavorare in modo più efficiente ed efficace. I rappresentanti del servizio clienti possono utilizzare le risposte basate sulla conoscenza di Copilot per risparmiare tempo nella ricerca di articoli della conoscenza e nella redazione di risposte. I riepiloghi di Copilot sono progettati per aiutare i rappresentanti dell'assistenza clienti a mettersi velocemente al passo con i casi e le conversazioni. I contenuti generati da Copilot in Customer Service non sono destinati a essere utilizzati senza revisione o supervisione umana.
Come viene valutato Copilot in Customer Service? Quali metriche vengono utilizzate per misurare le prestazioni?
Copilot in Customer Service è stato valutato rispetto a scenari del mondo reale con clienti di tutto il mondo in ogni fase della sua progettazione, sviluppo e rilascio. Utilizzando una combinazione di ricerche e studi sull'impatto aziendale, abbiamo valutato varie metriche quantitative e qualitative di Copilot, ad esempio relative ad accuratezza, utilità e fiducia dei rappresentanti. Altre informazioni in Report sulla trasparenza dell'intelligenza artificiale responsabile.
Quali sono i limiti di Copilot in Customer Service? In che modo gli utenti possono ridurre al minimo l'impatto delle limitazioni di Copilot?
Le funzionalità basate sulla conoscenza di Copilot, come fare una domanda, scrivere un'e-mail e redigere una risposta alla chat, dipendono da articoli della Knowledge Base aggiornati e di alta qualità. Senza questi articoli della Knowledge Base, è più probabile che gli utenti ricevano risposte di Copilot non concrete.
Per ridurre al minimo la probabilità di ricevere risposte non fattuali da Copilot, è importante che Microsoft impieghi solide pratiche di gestione della conoscenza per garantire che la conoscenza aziendale collegata a Copilot sia di alta qualità e aggiornata.
Quali fattori operativi e impostazioni consentono un uso efficace e responsabile del sistema?
Controlla sempre i risultati di Copilot
Copilot si basa sulla tecnologia dei modelli di linguaggio di grandi dimensioni, che è di natura probabilistica. Il modello, alla presentazione di una parte di input di testo, calcola la probabilità di ogni parola in quel testo date le parole che l'hanno preceduta. Il modello sceglie quindi la parola che segue con più probabilità. Tuttavia, poiché il modello si basa sulle probabilità, non può dire con assoluta certezza quale sia la parola successiva corretta. Ci dà la sua ipotesi migliore basata sulla distribuzione di probabilità che ha appreso dai dati su cui è stato istruito. Copilot utilizza un approccio chiamato grounding, che prevede l'aggiunta di ulteriori informazioni all'input per contestualizzare l'output alla tua organizzazione. Utilizza la ricerca semantica per comprendere l'input e recuperare documenti organizzativi interni rilevanti e risultati di ricerca Web pubblici attendibili e guida il modello linguistico a rispondere in base a tale contenuto. Sebbene ciò sia utile per garantire che le risposte di Copilot aderiscano ai dati dell'organizzazione, è importante esaminare sempre i risultati prodotti da Copilot prima di utilizzarli.
Sfruttare al meglio Copilot
Quando si interagisce con Copilot, è importante tenere presente che la struttura delle domande può influenzare notevolmente la risposta fornita da Copilot. Per interagire in modo efficace con Copilot, è fondamentale porre domande chiare e specifiche, fornire un contesto per aiutare l'IA a comprendere meglio le tue intenzioni, porre una domanda alla volta ed evitare termini tecnici per chiarezza e accessibilità.
Fai domande chiare e specifiche
L'intento chiaro è essenziale quando si fanno domande, poiché influisce direttamente sulla qualità della risposta. Ad esempio, porre una domanda generica come "Perché la macchina del caffè del cliente non si avvia?" è meno probabile che produca una risposta utile rispetto a una domanda più specifica, come "Quali passaggi posso eseguire per determinare perché la macchina del caffè del cliente non si avvia?".
Tuttavia, porre una domanda ancora più dettagliata come "Quali passaggi posso eseguire per determinare perché una macchina da caffè Contoso 900 con una pressione nominale di 5 bar non si avvia?" restringe la portata del problema e fornisce più contesto, portando a risposte più accurate e mirate.
Aggiungere Contesto
L'aggiunta di contesto aiuta il sistema di intelligenza artificiale conversazionale a comprendere meglio l'intenzione dell'utente e a fornire risposte più accurate e pertinenti. Senza contesto, il sistema potrebbe fraintendere la domanda dell'utente o fornire risposte generiche o irrilevanti.
Ad esempio "Perché la macchina del caffè non si avvia?" si tradurrà in una risposta generica rispetto a una domanda con più contesto come "Recentemente, il cliente ha avviato la modalità di rimozione del calcare sulla sua macchina da caffè e ha completato la rimozione del calcare con successo. La spia di alimentazione ha lampeggiato tre volte alla fine per confermare che il processo di decalcificazione era stato completato. Perché non riesce più ad avviare la macchina del caffè?"
Aggiungere contesto in questo modo è importante perché aiuta Copilot a comprendere meglio l'intenzione dell'utente e a fornire risposte più accurate e pertinenti.
Evita termini tecnici se possibile
Ti consigliamo di evitare di utilizzare termini e nomi di risorse estremamente tecnici quando interagisci con Copilot perché il sistema potrebbe non comprenderli sempre in modo accurato o appropriato. L'uso di un linguaggio più semplice e naturale aiuta a garantire che il sistema possa comprendere correttamente l'intento dell'utente e fornire risposte chiare e utili. Ad esempio:
"Il cliente non riesce ad accedere tramite SSH alla VM dopo aver modificato la configurazione del firewall."
Puoi riformulare come:
"Il cliente ha cambiato le regole del firewall sulla propria macchina virtuale. Tuttavia, non riesce più a connettersi utilizzando Secure Shell (SSH). Puoi aiutarmi?"
Seguendo i suggerimenti, i rappresentanti possono migliorare le loro interazioni con Copilot e aumentare la probabilità di ricevere risposte accurate e sicure da esso.
Riassumere o espandere una risposta
A volte la risposta di Copilot può essere più lunga del previsto. Questo potrebbe essere il caso in cui il rappresentante è impegnato in una conversazione in chat dal vivo con un cliente e deve inviare risposte concise rispetto all'invio di una risposta via e-mail. In tali casi, chiedere a Copilot di "riassumere la risposta" risulterà in una risposta concisa alla domanda. Allo stesso modo, se sono necessari maggiori dettagli, chiedere a Copilot di "Fornire maggiori dettagli" si tradurrà in una risposta più dettagliata alla tua domanda. Se la risposta viene troncata, digitando "continua" verrà visualizzata la parte restante della risposta.
Come posso influenzare le risposte generate dal copilota? Posso mettere a punto il modello LLM sottostante?
Non è possibile personalizzare direttamente il modello LLM (Large Language Model). Le risposte di Copilot possono essere influenzate aggiornando la documentazione di origine. Tutti i contenuti di feedback delle risposte di Copilot vengono archiviati. È possibile creare report utilizzando questi dati per determinare le origini dati che devono essere aggiornate. È una buona idea disporre di processi per rivedere periodicamente i dati di feedback e garantire che gli articoli della Knowledge Base forniscano le informazioni migliori e più aggiornate a Copilot.
Qual è il modello di sicurezza dei dati per Copilot?
Copilot applica i controlli di accesso basato sui ruoli (RBAC) definiti e aderisce a tutti i costrutti di sicurezza esistenti. Pertanto, i rappresentanti non possono visualizzare dati a cui non hanno accesso. Inoltre, solo le origini dati a cui il rappresentante ha accesso vengono utilizzate per la generazione della risposta di Copilot.
In che modo Copilot determina se il contenuto è offensivo o dannoso?
Copilot determina se il contenuto è dannoso attraverso un sistema di classificazione della gravità basato su categorie distinte di contenuti discutibili. Altre informazioni in Categorie di danni in Sicurezza dei contenuti di Azure AI.
Dove avviene l'elaborazione e il recupero dei dati per generare le risposte del copilota?
Copilot non sta chiamando il servizio OpenAI pubblico che alimenta ChatGPT. Copilot in Customer Service usa il Servizio Microsoft Azure OpenAI in un tenant gestito da Microsoft. Tutta l'elaborazione e il recupero dei dati avviene all'interno dei tenant gestiti da Microsoft. Inoltre, i dati dei clienti non vengono condivisi e non vengono reinseriti in modelli pubblici.
Quali sono le limitazioni linguistiche per i riepiloghi generati da Copilot da casi e conversazioni?
Molte lingue sono supportate nei riepiloghi generati da Copilot da casi e conversazioni. La qualità di questi riassunti dovrebbe essere la più alta in inglese, mentre nelle altre lingue la qualità dovrebbe migliorare nel tempo. Per informazioni sulle lingue supportate, vedi Supporto linguistico per le funzionalità Copilot
Il modello viene testato e monitorato su base continuativa? Se sì, con quale frequenza? Quali test vengono eseguiti?
Il modello viene testato per verificarne la qualità e il contenuto dannoso ogni volta che si verifica una modifica all'interazione o alla versione del modello. Per saperne di più, consulta il Rapporto sulla trasparenza dell'IA responsabile.
Con quale frequenza viene monitorato il modello per rilevare la riduzione delle prestazioni?
Il modello GPT di IA generativa è ospitato e gestito da Azure OpenAI. L'uso del modello negli scenari di servizio clienti è vincolato da pratiche di intelligenza artificiale responsabili e dai controlli del Deployment Safety Board. Eventuali modifiche apportate alle versioni del modello o alle richieste sottostanti vengono convalidate per verificarne la qualità e il contenuto dannoso. Altre informazioni in Report sulla trasparenza dell'intelligenza artificiale responsabile.
Il prodotto o il servizio impiega più di un modello o un sistema di modelli interdipendenti?
Funzionalità diverse del sistema potrebbero utilizzare versioni diverse dei modelli di Servizio OpenAI di Azure. Altre informazioni in Modelli di Servizio OpenAI di Azure.
Copilot utilizza un modello di prodotto o servizio non Microsoft ed è disponibile la documentazione per questo modello?
Copilot viene creato tramite Azure OpenAI, un servizio di IA completamente gestito che integra OpenAI con i modelli di filtro dei contenuti e di rilevamento degli abusi sviluppati da Microsoft. Per ulteriori informazioni, consulta la Nota sulla trasparenza per Azure OpenAI.
Esiste un processo prestabilito per comunicare eventuali modifiche nei modelli, nei modelli a monte o negli output utilizzati da altre soluzioni di IA/ML o modelli?
Eventuali modifiche pianificate alle funzionalità di Copilot vengono comunicate tramite documentazione pubblica. Tuttavia, le modifiche relative alla versione del modello o alle richieste sono regolate dai processi interni di intelligenza artificiale responsabile. Queste modifiche non vengono comunicate, in quanto si tratta di miglioramenti funzionali incrementali e continui.
Il feedback degli utenti è disponibile per Microsoft per migliorare il prodotto?
Nr.
Microsoft ha criteri e procedure che definiscono e differenziano i vari ruoli e responsabilità umani quando interagiscono o monitorano i sistemi di intelligenza artificiale?
Sì. Nel processo di IA responsabile, vengono prese in considerazione tutte le parti interessate e gli utenti coinvolti e viene discusso il loro uso o non previsto del sistema. In base agli scenari identificati, le mitigazioni necessarie vengono introdotte all'interno del prodotto o tramite la documentazione. Per saperne di più, consulta il Rapporto sulla trasparenza dell'intelligenza artificiale responsabile.
Microsoft identifica e documenta gli approcci per coinvolgere, acquisire e incorporare i contributi di altri utenti finali e stakeholder chiave per assistere nel monitoraggio continuo dei potenziali impatti e dei rischi emergenti?
Sì. Per saperne di più, consulta il Rapporto sulla trasparenza dell'intelligenza artificiale responsabile.
Microsoft documenta, pratica e misura i piani di risposta agli incidenti dei sistemi di intelligenza artificiale, inclusa la misurazione della risposta e dei tempi di inattività?
Sì. Il processo di intelligenza artificiale responsabile richiede che il team disponga di un piano di risposta agli incidenti per i problemi correlati all'IA, analogamente a quanto avviene per i problemi funzionali. I team delle funzionalità monitorano costantemente le prestazioni e l'affidabilità del sistema. Per saperne di più, consulta il Rapporto sulla trasparenza dell'intelligenza artificiale responsabile.
Microsoft stabilisce procedure per condividere le informazioni sull'incidenza degli errori e sugli impatti negativi con le parti interessate, gli operatori, i professionisti, gli utenti e le parti colpite?
Sì. Per i problemi di gravità elevata, i team delle funzionalità devono comunicare l'interruzione ai clienti interessati.
Microsoft misura e monitora le prestazioni del sistema in tempo reale per consentire una risposta rapida quando viene rilevato un incidente del sistema di intelligenza artificiale?
Sì. I team delle funzionalità monitorano costantemente le prestazioni e l'affidabilità del sistema.
Microsoft testa la qualità delle spiegazioni dei sistemi con gli utenti finali e le altre parti interessate?
Sì. Per saperne di più, consulta il Rapporto sulla trasparenza dell'intelligenza artificiale responsabile.
Microsoft ha stabilito politiche e procedure per monitorare e affrontare le prestazioni e l'affidabilità del sistema del modello, compresi i pregiudizi e i problemi di sicurezza durante l'intero ciclo di vita del modello, quando valuta i sistemi di IA per rischi e benefici negativi?
Sì. Altre informazioni in Report sulla trasparenza dell'intelligenza artificiale responsabile.
Microsoft conduce valutazioni di equità per gestire le forme computazionali e statistiche di bias?
Sì. Per saperne di più, consulta il Rapporto sulla trasparenza dell'intelligenza artificiale responsabile.
Microsoft monitora gli output del sistema per verificare la presenza di problemi di prestazioni o di distorsione?
Sì. I filtri di moderazione vengono applicati a più livelli, anche sull'output, per assicurarsi che non vi siano contenuti dannosi nella risposta. Per saperne di più, consulta il Rapporto sulla trasparenza dell'intelligenza artificiale responsabile.
Qual è il livello di resilienza nel funzionamento del modello? Ad esempio, esiste un piano di ripristino di emergenza e un piano di contingenza per le istanze in cui il modello non è disponibile?
Come tutti i servizi Azure, il backup e il ripristino sono supportati tramite più data center per garantire l'alta disponibilità.
Il modello dipende da, è incorporato in strumenti o soluzioni di terze parti che rende difficile la migrazione del modello a un ambiente diverso (comprese variabili come provider di hosting, hardware, sistemi software) che impedirebbero la spiegabilità del modello?
Nr.
Esistono criteri di governance del modello consolidati?
Sì, esistono criteri di governance consolidati supportati da Azure OpenAI. Per saperne di più, consulta il Rapporto sulla trasparenza dell'intelligenza artificiale responsabile.
Esistono protocolli stabiliti e documentati (autorizzazione, durata, tipo) e controlli di accesso per i set di dati di training o di produzione contenenti informazioni personali in conformità con i criteri di privacy e governance dei dati?
Attualmente, non esiste alcun training del modello, quindi nessun requisito relativo al set di dati. Tuttavia, quando un rappresentante del servizio clienti interagisce con Copilot, a seconda della funzionalità, i dati contestuali (caso o chat) vengono utilizzati per generare una risposta.
Le divulgazioni di informazioni personali e l'inferenza di attributi sensibili o protetti dalla legge vengono monitorate?
Sì, la revisione della privacy viene eseguita per ogni funzionalità.
Microsoft ha un processo per prendere in considerazione le questioni legali e normative e i requisiti specifici per il suo settore, lo scopo aziendale e l'ambiente applicativo dei sistemi di intelligenza artificiale distribuiti?
Sì. La revisione legale viene eseguita per ogni funzionalità per aiutare con i requisiti normativi e altre questioni legali.
Informazioni correlate
Usare le funzionalità di Copilot
Usare Copilot per generare bozze di file di caratteristiche dai casi
Regione di disponibilità di Copilot
Domande frequenti per la sicurezza e la privacy dei dati di Copilot in Microsoft Power Platform