Časté dotazy k odpovědné AI pro Copilota v Customer Service
Platí pro: Dynamics 365 Contact Center - integrované, Dynamics 365 Contact Center - samostatné a Dynamics 365 Customer Service
Tento článek s nejčastějšími dotazy pomáhá odpovědět na otázky týkající se zodpovědného používání umělé inteligence ve funkcích kopilota v Customer Service.
Co je Copilot v aplikaci Dynamics 365 Customer Service?
Copilot je nástroj s umělou inteligencí, který přináší revoluci do prostředí agentů v Dynamics 365 Customer Service. Poskytuje pomoc s umělou inteligencí v reálném čase, která agentům pomůže rychleji řešit problémy, efektivněji řešit případy a automatizovat časově náročné úkoly. Poté se agenti mohou zaměřit na poskytování vysoce kvalitních služeb svým zákazníkům.
Jaké jsou možnosti systémů?
Copilot poskytuje následující hlavní funkce:
Položit otázku: Je první karta, kterou agenti uvidí, když aktivují podokno nápovědy Copilota. Jedná se o konverzační rozhraní s Copilotem, které pomáhá poskytovat kontextové odpovědi na otázky agentů. Odpovědi Copilota jsou založeny na interních i externích zdrojích znalostí poskytnutých vaší organizací během nastavování.
Napsat e-mail: Tato druhá karta v podokně nápovědy Copilota pomáhá agentům rychle vytvářet e-mailové odpovědi na základě kontextu případu, čímž zkracuje čas, který uživatelé potřebují strávit vytvářením e-mailů.
Návrh odpovědi chatu: Umožňuje agentům vytvořit jediným kliknutím odpověď na probíhající konverzaci prostřednictvím digitálních zpráv ze zdrojů znalostí nakonfigurovaných vaší organizací.
Shrnutí případu: Copilot poskytuje agentům shrnutí případu přímo na formuláři případu, takže mohou rychle dohnat důležité detaily případu.
Shrnutí konverzace: Copilot poskytuje agentům shrnutí konverzace v klíčových bodech cesta zákazníka, jako jsou předávání virtuálních agentů, převody a na vyžádání.
Generovat znalostní koncept z případu (Preview): Copilot vygeneruje koncept článku ve znalostní bázi jako návrh, který je založen na informacích z případu. Agenti mohou zkontrolovat a upřesnit koncept zadáním pokynů Copilotovi k revizi a poté jej uložit.
Shrnutí vlastního záznamu: Copilot poskytuje agentům souhrn záznamu na základě polí, která správce nakonfiguruje pro vlastní tabulku, aby agenti mohli rychle dohnat důležité informace ze záznamu podpory.
Generování poznámek k řešení: Copilot poskytuje agentům podrobnosti o případu, e-maily a poznámky spojené s případem na kartě Položte dotaz, aby mohli případ nebo incident rychleji uzavřít.
Jaké je zamýšlené použití systému?
Copilot v Customer Service má pomoci zástupcům služeb zákazníkům pracovat efektivněji a efektivněji. Zástupci služeb zákazníkům mohou používat odpovědi založené na znalostech Copilota, aby ušetřili čas při hledání znalostních článků a vytváření odpovědí. Souhrny Copilota jsou navrženy tak, aby podporovaly agenty v rychlém náběhu na případy a konverzace. Obsah generovaný Copilotem v služby zákazníkům není určen k použití bez lidské kontroly nebo dohledu.
Jak se vyhodnocuje Copilot v Customer Service? Jaké metriky se používají k měření výkonu?
Copilot v Customer Service byl hodnocen podle scénářů reálného světa se zákazníky po celém světě v každé fázi návrhu, vývoje a vydání. Pomocí kombinace výzkumu a studií dopadu na podnikání jsme vyhodnotili různé kvantitativní a kvalitativní metriky o Copilotu, včetně jeho přesnosti, užitečnosti a důvěryhodnosti. Další informace najdete ve zprávě o transparentnosti odpovědné AI.
Jaká jsou omezení Copilota v Customer Service? Jak mohou uživatelé minimalizovat dopad omezení Copilota?
Znalostní schopnosti Copilotu, jako je položit otázku, napsat e-mail a navrhnout odpověď na chat, závisí na vysoce kvalitních a aktuálních znalostních článcích. Bez těchto znalostních článků se uživatelé s větší pravděpodobností setkají s odpověďmi Copilota, které nejsou věcné.
Aby se minimalizovala pravděpodobnost, že se od Copilot zobrazí nevěcné odpovědi, je důležité, aby Microsoft používal robustní postupy správy znalostí, aby se zajistilo, že obchodní znalosti, které se připojují k Copilot, jsou vysoce kvalitní a aktuální.
Jaké provozní faktory a nastavení umožňují efektivní a odpovědné využívání systému?
Vždy zkontrolujte výsledky z Copilota
Copilot je postaven na technologii velkých jazykových modelů, která má pravděpodobnostní povahu. Když je model prezentován s částí vstupního textu, vypočítává pravděpodobnost každého slova v tomto textu s ohledem na slova, která před ním byla. Model pak zvolí slovo, které bude s největší pravděpodobností následovat. Protože je však model založen na pravděpodobnostech, nemůže s naprostou jistotou říci, jaké je správné následující slovo. Místo toho nám dává svůj nejlepší odhad na základě rozdělení pravděpodobnosti, které se naučil z dat, na kterých byl trénován. Copilot používá přístup zvaný uzemnění, který zahrnuje přidání dalších informací ke vstupu, aby byl výstup uveden do kontextu vaší organizace. Využívá sémantické vyhledávání k pochopení vstupu a načtení relevantních interních organizačních dokumentů a důvěryhodných veřejných výsledků vyhledávání na webu a vede jazykový model tak, aby na základě tohoto obsahu reagoval. I když to pomáhá zajistit, aby odpovědi Copilota odpovídaly datům organizace, je důležité vždy zkontrolovat výsledky vytvořené Copilotem, než je použijete.
Získejte z Copilota to nejlepší
Při interakci s Copilotem je důležité mít na paměti, že struktura otázek může výrazně ovlivnit odpověď, kterou Copilot poskytuje. Pro efektivní interakci s Copilotem je zásadní klást jasné a konkrétní otázky, poskytovat kontext, který AI pomůže lépe porozumět vašemu záměru, klást jednu otázku po druhé a vyhýbat se technickým výrazům kvůli jasnosti a dostupnosti.
Pokládejte jasné a konkrétní otázky
Při kladení otázek je zásadní jasný záměr, protože přímo ovlivňuje kvalitu odpovědi. Například položením široké otázky typu „Proč se kávovar zákazníka nespouští?“ je méně pravděpodobné, že přinese užitečnou odpověď ve srovnání s konkrétnější otázkou, jako je „Jaké kroky mohu podniknout, abych zjistil, proč se kávovar zákazníka nespouští?“.
Položením ještě podrobnější otázky typu „Jaké kroky mohu podniknout, abych zjistil, proč se kávovar Contoso 900 s jmenovitým tlakem 5 barů nespouští?“ zúžíte rozsah problému a poskytnete více kontextu, což vede k přesnějším a cílenějším odpovědím.
Přidat kontext
Přidání kontextu pomáhá konverzačnímu systému umělé inteligence lépe porozumět záměru uživatele a poskytovat přesnější a relevantnější odpovědi. Bez kontextu by systém mohl neporozumět otázce uživatele nebo poskytnout obecné nebo irelevantní odpovědi.
Například: "Proč se kávovar nespouští?" bude mít za následek obecnou odpověď ve srovnání s otázkou s větším kontextem, jako je: „Zákazník nedávno spustil na svém kávovaru režim odvápnění a úspěšně dokončil odvápnění. Dokonce obdržel tři záblesky z kontrolky napájení na konci, aby potvrdil, že odstranění vodního kamene bylo dokončeno. Proč už nemohou spustit kávovar?"
Přidání kontextu tímto způsobem je důležité, protože pomáhá Copilotovi lépe porozumět záměru uživatele a poskytovat přesnější a relevantnější odpovědi.
Pokud je to možné, vyhněte se technickým výrazům
Doporučujeme, abyste se při interakci s Copilotem vyvarovali používání extrémně technických termínů a názvů zdrojů, protože systém jim nemusí vždy přesně nebo správně porozumět. Použití jednoduššího přirozeného jazyka pomáhá zajistit, že systém dokáže správně porozumět záměru uživatele a poskytovat jasné a užitečné odpovědi. Příklad -
"Zákazník nemůže po změně konfigurace brány firewall připojit SSH do VP."
Místo toho můžete přeformulovat jako –
„Zákazník změnil pravidla brány firewall na svém virtuálním počítači. Nemůže se však již připojit pomocí Secure Shell (SSH). Můžeš pomoci?
Dodržováním návrhů mohou agenti zlepšit své interakce s Copilotem a zvýšit pravděpodobnost, že od něj obdrží přesné a sebevědomé odpovědi.
Shrnutí nebo rozšíření odpovědi
Někdy může být odezva Copilota delší, než se očekávalo. To může být případ, kdy je agent v živé konverzaci se zákazníkem a potřebuje poslat stručné odpovědi ve srovnání s odesláním odpovědi e-mailem. V takových případech požádejte Copilota, aby „shrnul odpověď“ a získáte stručnou odpověď na otázku. Podobně, pokud potřebujete více podrobností, požádáte Copilota o „Poskytnutí dalších podrobností“, což povede k podrobnější odpovědi na vaši otázku. Pokud je odpověď zkrácena, zadáním "pokračovat" se zobrazí zbývající část odpovědi.
Jak mohu ovlivnit odpovědi generované kopilotem? Mohu doladit základní LLM?
Velký jazykový model (LLM) není možné přímo přizpůsobit. Odpovědi Copilota lze ovlivnit aktualizací zdrojové dokumentace. Ukládá se veškerý obsah zpětné vazby z odpovědí Copilota. Pomocí těchto dat lze vytvářet sestavy k určení zdrojů dat, které je třeba aktualizovat. Je dobré mít zavedené procesy, které pravidelně kontrolují data zpětné vazby a zajišťují, že články znalostí poskytují Copilotu ty nejlepší a nejaktuálnější informace.
Jaký je model zabezpečení dat pro Copilot?
Copilot vynucuje definované kontroly přístupu založeného na rolích (RBAC) a dodržuje všechny existující bezpečnostní konstrukce. Agenti proto nemohou zobrazit data, ke kterým nemají přístup. Kromě toho se pro generování odpovědi kopilota používají pouze zdroje dat, ke kterým má agent přístup.
Jak Copilot určuje, zda je obsah urážlivý nebo škodlivý?
Copilot určuje, zda je obsah škodlivý, prostřednictvím systému hodnocení závažnosti založeného na různých kategoriích nežádoucího obsahu. Další informace najdete v kategoriích škodlivosti v Bezpečnosti obsahu Azure AI.
Kde dochází ke zpracování a načítání dat za účelem generování odpovědí kopilota?
Copilot nevolá veřejnou službu OpenAI, která pohání ChatGPT. Copilot v Customer Service používá Microsoft Azure OpenAI Service v klientovi spravovaném společností Microsoft. Veškeré zpracování a načítání dat probíhá v rámci spravovaných tenantů společnosti Microsoft. Data zákazníků navíc nejsou sdílena a nejsou předávána zpět do veřejných modelů.
Jaká jsou jazyková omezení pro souhrny, které Copilot generuje z případů a konverzací?
V souhrnech případů a konverzací generovaných nástrojem Copilot je podporováno mnoho jazyků. Očekává se, že kvalita těchto shrnutí bude nejvyšší v angličtině, zatímco v ostatních jazycích se očekává, že se kvalita časem zlepší. Další informace o podporovaných jazycích najdete v tématu Podpora jazyků pro funkce Copilota
Je model průběžně testován a monitorován? Pokud ano, jak často? Jaké testování se provádí?
Model je testován na kvalitu a škodlivý obsah pokaždé, když dojde ke změně interakce nebo verze modelu. Více se dozvíte ve zprávě o transparentnosti odpovědné AI.
Jak často se model monitoruje, aby se zjistilo snížení výkonu?
Model GPT generativní AI hostuje a spravuje Azure OpenAI. Použití modelu ve scénářích zákaznických služeb je vázáno na postupy zodpovědné AI a kontroly rady pro bezpečnost nasazení. Jakékoli změny verzí modelu nebo základní pokyny jsou ověřovány z hlediska kvality a škodlivého obsahu. Další informace najdete ve zprávě o transparentnosti odpovědné AI.
Využívá produkt nebo služba více než jeden model nebo systém vzájemně závislých modelů?
Různé funkce v systému můžou používat různé verze modelů Azure OpenAI Service. Další informace najdete v části Modely Azure OpenAI Service.
Používá Copilot modelový produkt nebo službu jiného výrobce než Microsoft a je k tomuto modelu k dispozici dokumentace?
Copilot je vytvořen pomocí Azure OpenAI, což je plně spravovaná služba AI, která integruje OpenAI s modely filtrování obsahu a detekce zneužití vyvinutými společností Microsoft. Další informace najdete v poznámce k transparentnosti pro Azure OpenAI.
Existuje stanovený proces pro komunikaci jakýchkoli změn v modelech, upstreamových modelech nebo výstupech, které se používají z jiných AI/ML nebo modelových řešení?
Jakékoli plánované změny funkcí Copilot jsou sdělovány prostřednictvím veřejné dokumentace. Změny s ohledem na verzi modelu nebo výzvy se však řídí interními procesy odpovědné AI. Tyto změny nejsou sdělovány, protože se jedná o postupná a průběžná funkční vylepšení.
Je Microsoft k dispozici doslovná zpětná vazba od uživatelů za účelem vylepšení produktu?
Č.
Má Microsoft zásady a postupy, které definují a rozlišují různé lidské role a odpovědnosti při interakci se systémy AI nebo při jejich monitorování?
Ano. V procesu odpovědné AI jsou zvažovány všechny zúčastněné strany a uživatelé a je diskutováno jejich použití nebo nezamýšlené použití systému. Na základě identifikovaných scénářů jsou požadovaná zmírnění rizik zavedena v rámci produktu nebo prostřednictvím dokumentace. Další informace najdete ve zprávě o transparentnosti odpovědné umělé inteligence.
Identifikuje a dokumentuje Microsoft přístupy k zapojení, zachycení a začlenění vstupů od ostatních koncových uživatelů a klíčových zúčastněných stran, které pomáhají s průběžným monitorováním potenciálních dopadů a vznikajících rizik?
Ano. Další informace najdete ve zprávě o transparentnosti odpovědné umělé inteligence.
Dokumentuje, Microsoft procvičuje a měří plány reakce na incidenty pro incidenty systému AI, včetně měření odezvy a prostojů?
Ano. Proces zodpovědné AI vyžaduje, aby tým měl plán reakce na incidenty pro problémy s AI, podobně jako se to dělá u funkčních problémů. Týmy spravující funkce průběžně monitorují výkon a spolehlivost systému. Další informace najdete ve zprávě o transparentnosti odpovědné umělé inteligence.
Zavádí Microsoft postupy pro sdílení informací o výskytu chyb a negativních dopadech s příslušnými zúčastněnými stranami, provozovateli, odborníky z praxe, uživateli a dotčenými stranami?
Ano. V případě vysoce závažných problémů musí týmy pro funkce informovat ovlivněné zákazníky o výpadku.
Měří a monitoruje Microsoft výkon systému v reálném čase, aby bylo možné rychle reagovat na zjištění incidentu systému AI?
Ano. Týmy spravující funkce průběžně monitorují výkon a spolehlivost systému.
Testuje Microsoft kvalitu vysvětlení systémů s koncovými uživateli a dalšími zúčastněnými stranami?
Ano. Další informace najdete ve zprávě o transparentnosti odpovědné umělé inteligence.
Má Microsoft zavedené zásady a postupy pro monitorování a řešení výkonu a důvěryhodnosti systému modelu, včetně předpojatosti a problémů se zabezpečením v průběhu životního cyklu modelu, při hodnocení systémů AI z hlediska negativních rizik a přínosů?
Ano. Další informace najdete ve zprávě o transparentnosti odpovědné AI.
Provádí Microsoft hodnocení spravedlnosti za účelem řízení výpočetních a statistických forem zkreslení?
Ano. Další informace najdete ve zprávě o transparentnosti odpovědné umělé inteligence.
Monitoruje Microsoft systémové výstupy z hlediska problémů s výkonem nebo zkreslením?
Ano. Filtry moderování se aplikují ve více vrstvách, včetně výstupu, aby se zajistilo, že odpověď neobsahuje žádný škodlivý obsah. Další informace najdete ve zprávě o transparentnosti odpovědné umělé inteligence.
Jaká je úroveň odolnosti v provozu modelu? Existuje například plán zotavení po havárii a pohotovostní plán pro případy, kdy model není k dispozici?
Podobně jako u všech služeb Azure jsou zálohování a obnovení podporovány prostřednictvím více datových center pro zajištění vysoké dostupnosti.
Je model závislý na nástrojích nebo řešeních třetích stran, které ztěžují migraci modelu do jiného prostředí (včetně proměnných, jako je poskytovatel hostingu, hardware, softwarové systémy), které by bránilo vysvětlitelnosti modelu?
Č.
Existuje zavedená modelová politika zásad správného řízení?
Ano, existují zavedené zásady správného řízení podporovaná službou Azure OpenAI. Další informace najdete ve zprávě o transparentnosti odpovědné umělé inteligence.
Existují zavedené a zdokumentované protokoly (autorizace, doba trvání, typ) a řízení přístupu pro trénovací nebo produkční datové sady obsahující osobní údaje v souladu se zásadami ochrany osobních údajů a zásad správného řízení dat?
V současné době neexistuje žádné trénování modelu, a proto neexistuje žádný požadavek na datovou sadu. Pokud se však zástupce zákaznické podpory zapojí do Copilot, v závislosti na funkci se k vygenerování odpovědi použijí kontextová data (případ nebo chat).
Jsou zveřejňování osobních údajů a vyvozování citlivých nebo právně chráněných atributů monitorovány?
Ano, kontrola ochrany osobních údajů se provádí u každé funkce.
Má Microsoft proces pro zvažování právních a regulačních otázek a požadavků specifických pro jeho odvětví, obchodní účel a aplikační prostředí nasazených systémů AI?
Ano. Právní kontrola se provádí pro každou funkci, aby pomohla s regulačními požadavky a dalšími právními záležitostmi.
Související informace
Používání funkcí Copilota
Použití nástroje Copilot ke generování znalostních konceptů z případů
Dostupnost Copilota v oblastech
Časté otázky k zabezpečení dat a ochraně osobních údajů ve funkci Copilot v Microsoft Power Platform