共用方式為


Customer Service 中 Copilot 的負責任 AI 常見問題集

適用於:Dynamics 365 Contact Center — 內嵌、Dynamics 365 Contact Center — 獨立和 Dynamics 365 Customer Service

這篇常見問題文章可協助解答有關在 Customer Service 的副手功能中負責任地使用 AI 的問題。

Dynamics 365 Customer Service 中的 Copilot 是什麼?

Copilot 是 AI 支援的工具,改變了 Dynamics 365 Customer Service 中的專員體驗。 此工具提供即時 AI 支援的協助,幫助專員加快解決問題、更有效率處理案例,以及將耗時的工作自動化。 然後,專員可以專注於為客戶提供高品質的服務。

有哪些系統功能?

Copilot 提供下列主要功能:

  • 提出問題:這是專員啟用 Copilot 説明窗格時看到的第一個索引標籤。 這是與 Copilot 的交談介面,可協助提供對專員問題的內容相關回應。 Copilot 的回應是根據您組織在安裝期間所提供的內部和外部知識來源所產生。

  • 撰寫電子郵件:Copilot 說明窗格中的第二個索引標籤可協助專員根據案例的內容快速建立電子郵件回應,並減少使用者建立電子郵件所需花費的時間。

  • 草擬聊天回應:讓專員只需按一下您組織所設定之知識來源的進行中數位傳訊交談,即可建立回應。

  • 摘要案例:Copilot 直接在案例表單上提供案例摘要給專員,讓他們快速獲悉案例的重要詳細資料。

  • 摘要交談:Copilot 在整個客戶旅程的重要時刻 (例如虛擬助理交接、轉移) 以及視需要,為專員提供交談的摘要。

  • 從案例產生知識草稿 (預覽版):Copilot 根據案例中的資訊產生知識文章草稿做為提案。 專員可以複查草稿並向 Copilot 提供修訂指示進行完善,然後將其儲存。

  • 建立自訂記錄的摘要:Copilot 根據管理員為自訂資料表設定的欄位,為專員提供記錄摘要,讓專員可以快速了解支援記錄的重要詳細資料。

  • 產生解決方案附註:Copilot 會在提出問題索引標籤中提供案例詳細資料、電子郵件以及與案例連結之附註的摘要給專員,讓他們可以加快關閉案例或事件。

系統的預期用途是什麼?

Customer Service 中的 Copilot 旨在協助客戶服務代表以更有效率和效果的方式工作。 客戶服務代表可以使用 Copilot 基於知識的回應,節省搜尋知識文章和建立回應草稿的時間。 Copilot 摘要是為了支援專員快速處理案例和交談而設計。 Copilot 在 Customer Service 中產生的內容不應在沒有人工審查或監督的情況下使用。

如何評估 Customer Service 中的 Copilot? 用來衡量效能的計量是什麼?

Customer Service 中的 Copilot 在其設計、開發和發行的每個階段上,皆已根據全球客戶的實際案例進行評估。 我們組合運用調查與業務影響研究,對 Copilot 的各種量化和質化計量 (包括其正確性、實用性和專員信任度) 進行了評估。 在負責任 AI 透明度報告中了解詳細資訊。

Customer Service 中的 Copilot有哪些限制? 使用者如何將 Copilot 限制所造成的影響降到最低?

Copilot 基於知識的功能 (例如提出問題、撰寫電子郵件和草擬聊天回應) 都依賴高品質的最新知識文章做為基礎。 沒有這些知識文章,使用者很可能會收到與事實不符的 Copilot 回應。

為盡量降低看到 Copilot 提供非事實回應的可能性,Microsoft 必須採用健全的知識管理做法,以確保與 Copilot 連接的商務知識是高品質和最新的。

為了有效並負責任地使用系統,應顧及哪些操作因素和設定?

永遠都要審查 Copilot 的結果

Copilot 是以大型語言模型技術為基礎所建立,本質上具有機率性。 輸入一段文字時,此模型會根據每個字詞前面的字詞計算出該字詞在這段文字中的機率。 模型接著選擇最有可能跟隨的字詞。 不過,由於模型是根據機率而定,因此沒有絕對確定性可以說出正確的下一個字。 反而是根據從訓練資料中學習到的機率分佈,為我們提供最佳猜測。 Copilot 使用一種稱為「資料錨定」的方法,此方法需要將其他資訊新增至輸入,以建立輸出與您的組織的內容關聯。 其採用語言模型,以理解輸入並擷取相關內部組織文件和受信任公開網頁搜尋結果,然後引導語言模型根據該內容作出回應。 雖然這有助於確保 Copilot 回應與組織資料保持一致,但在使用 Copilot 產生的結果之前,務必都要對其進行審查。

充分發揮 Copilot 的功能

與 Copilot 互動時,請務必記住,問題的結構會在很大程度上影響 Copilot 的回應。 要與 Copilot 進行有效的互動,關鍵在於提出明確具體的問題、提供背景內容協助 AI 更充分理解您的意圖、一次只問一個問題,而且為了清晰易懂,避免使用專業術語。

提出明確具體的問題

提出問題時,意圖明確至關重要,因為這直接影響回應的品質。 例如,提出像「為什麼客戶的咖啡機無法啟動?」這樣廣泛的問題 相比於像「我可以採取哪些步驟來判斷客戶咖啡機無法啟動的原因?」這樣較具體的問題,不太可能產生有用的回應。

不過,提出像「我可以採取哪些措施來確定壓力額定值為 5 巴的 Contoso 900 咖啡機無法啟動的原因?」這樣的問題 可縮小問題的範圍並提供更多背景內容,從而產生更準確且目標更明確的回應。

新增內容

新增背景內容可協助交談式 AI 系統更充分理解使用者的意圖,並提供更準確且具相關性的回應。 如果沒有背景內容,系統可能會誤解使用者的問題,或是提供一般或不相關的回應。

例如,「為什麼咖啡機沒有啟動?」會產生一般回應,如果與下列內容更豐富的問題相比:「最近,客戶啟動了咖啡機的除垢模式,並順利完成除垢。 他們甚至從尾端的電源指示燈收到三次閃光,確認除垢已完成。 為什麼他們無法再啟動咖啡機?」

以這種方式新增背景內容很重要,因為這可協助 Copilot 更充分理解使用者的意圖,並提供更準確且具相關性的回應。

盡可能避免使用專業術語

建議您在與 Copilot 互動時避免使用極具技術性的術語和資源名稱,因為系統不一定能準確或適當理解這些術語和名稱。 使用更簡單的自然語言有助於確保系統可正確理解使用者的意圖,並提供明確、有用的回應。 例如 –

「變更防火牆設定後,客戶無法透過 SSH 連接至 VM。」

相反地,您可以改寫為 –

「客戶已變更其虛擬機器的防火牆規則。 不過,他們無法再使用安全殼層 (SSH) 進行連接。 您可以幫忙?」

依照這些建議,專員可以增強他們與 Copilot 的互動,並提高從中取得準確且肯定回應的可能性。

彙總或展開回應

Copilot 的回應有時可能比預期還要長。 當專員與客戶進行即時聊天交談,而與透過電子郵件傳送回應相比,需要傳送簡潔的回應時,可能會出現這種情況。 在這類案例中,要求 Copilot「彙總回應的摘要」將會對問題產生簡明的解答。 同樣地,如果需要更多詳細資料,則要求 Copilot「提供更多詳細資料」也會對您的問題產生更詳細的解答。 如果回應遭到截斷,則輸入「繼續」會顯示回應的其餘部分。

如何影響副手所產生的回應? 可以微調基礎 LLM 嗎?

您無法直接自訂大型語言模型 (LLM)。 更新來源文件可以影響 Copilot 回應。 Copilot 回應所有的意見反應內容都已儲存。 您可以使用此資料建立報表來判斷需要更新的資料來源。 最好有適當的程序可以定期審查意見反應資料,並確保知識文章向 Copilot 提供的是最佳和最新的資訊。

Copilot 的資料安全性模型是什麼?

Copilot 會強制已定義的角色型存取 (RBAC) 控制,並遵守所有現有的安全性結構。 因此,專員無法檢視他們沒有存取權限的資料。 此外,只有專員可以存取的資料來源才會用於產生副手回應。

Copilot 如何判斷內容是冒犯性的還是有害的?

Copilot 根據不良內容的不同類別,透過嚴重性評等系統判斷內容是否有害。 您可以前往 Azure AI 內容安全中的危害類別了解更多資訊。

資料處理和擷取會在哪裡進行以產生副手回應?

Copilot 不會呼叫支援 ChatGPT 的公用 OpenAI 服務。 Customer Service 中的 Copilot 會在 Microsoft 受管理的租用戶中使用 Microsoft Azure OpenAI 服務。 所有資料處理和擷取都是在 Microsoft 受管理的租用戶中進行。 此外,客戶的資料不會共用,也不會反饋到公用模型中。

Copilot 根據案例和交談產生的摘要有哪些語言限制?

Copilot 根據案例和交談產生的摘要支援多種語言。 這些摘要的品質預計以英文為最高,而其他語言的品質則會隨著時間進展逐漸提高。 在 Copilot 功能的語言支援中了解支援的語言

是否會持續測試並監控模型? 如果是這樣,多久一次? 執行哪些測試?

每次模型互動或版本發生變更時,都會對模型進行品質和有害內容測試。 在負責任 AI 透明度報告中了解詳細資訊。

多久監控模型一次以偵測效能下降?

生成式 AI GPT 模型是託管並受控於 Azure OpenAI。 在客戶服務案例中使用此模型時,必須遵守負責任 AI 做法並接受部署安全委員會檢查。 模型版本或基本提示的任何變更都會經過品質和有害內容驗證。 在負責任 AI 透明度報告中了解詳細資訊。

產品或服務是否採用多個模型或一個相互依存的模型系統?

系統中的不同功能可能使用的是不同版本的 Azure OpenAI 服務模型。 在 Azure OpenAI 服務模型中了解詳細資訊。

Copilot 是否使用非 Microsoft 模型產品或服務,以及是否提供此模型的文件?

Copilot 是使用 Azure OpenAI 所建置,這是一項完全受控 AI 服務,將 OpenAI 與 Microsoft 開發的內容篩選及濫用偵測模型整合在一起。 在 Azure OpenAI 透明度資訊中了解詳細資訊。

是否有已設定的程序來傳達其他 AI/ML 或模型解決方案中所使用模型、上游模型或輸出的任何變更?

Copilot 功能的任何已規畫變更都會透過公開文件傳達。 不過,有關模型版本或提示的變更,則由內部負責任 AI 程序管理。 由於是逐步且持續的功能改進,並不會將這些變更公諸於眾。

使用者的逐字意見反應是否可提供給 Microsoft 來改善產品?

否。

Microsoft 是否有原則和程序來定義和區分各種在與 AI 系統互動或對 AI 系統進行監控時的人類角色和責任?

是。 在負責任 AI 程序中,考慮了所有涉及的利害關係人和使用者,並已討論他們對系統的使用或非預期使用。 我們已根據確立的案例,將所需的風險降低措施納入產品中或透過文件告知。 在負責任 AI 透明度報告中了解詳細資訊。

Microsoft 是否確認並記錄與其他終端使用者及主要利害關係人交流、擷取和吸納其意見的方法,以協助持續監控潛在影響和新出現風險?

是。 在負責任 AI 透明度報告中了解詳細資訊。

Microsoft 是否記錄、實行和衡量 AI 系統事件的事件回應計劃,包括衡量回應和停機時間?

是。 負責任 AI 程序要求團隊針對 AI 問題制定事件回應計劃,就像對功能問題所做的一樣。 功能團隊會持續監視系統的效能和可靠性。 在負責任 AI 透明度報告中了解詳細資訊。

Microsoft 是否建立程序,與相關利害關係人、操作者、從業者、使用者及受影響各方分享有關錯誤發生和負面影響的資訊?

是。 對於嚴重性高的問題,功能團隊必須與受影響的客戶溝通停機事宜。

Microsoft 是否即時測量和監視系統效能,以便在偵測到 AI 系統事件時快速回應?

是。 功能團隊會持續監視系統的效能和可靠性。

Microsoft 是否與終端使用者及其他利害關係人一起測試系統說明的品質?

是。 在負責任 AI 透明度報告中了解詳細資訊。

評估 AI 系統的負面風險和效益時,Microsoft 是否有既定原則和程序來監視和處理模型系統的效能和可信度 (包括模型整個生命週期的偏差和安全問題)?

是。 在負責任 AI 透明度報告中了解詳細資訊。

Microsoft 是否進行公平性評估,以管理計算和統計形式的偏差?

是。 在負責任 AI 透明度報告中了解詳細資訊。

Microsoft 是否監控系統輸出的效能或偏差問題?

是。 審核篩選條件會套用於多個層級 (包括輸出層),以確保回應中不存在有害內容。 在負責任 AI 透明度報告中了解詳細資訊。

此模型的運作復原能力等級如何? 例如,當模型無法使用時,是否有災難復原和應變計畫?

與所有 Azure 服務類似,備份和復原透過多個資料中心提供高可用性支援。

模型是否相依於或內嵌於協力廠商工具或解決方案,造成模型移轉至其他環境 (包括託管服務提供者、硬體、軟體系統等變數) 發生困難,不利於有效解釋模型的結果?

否。

是否有既定的模型治理原則?

是的,Azure OpenAI 支援既定的治理原則。 在負責任 AI 透明度報告中了解詳細資訊。

是否已根據隱私權和資料治理原則,針對包含 PII 的訓練或生產資料集,建立並記錄通訊協定 (授權、期間、類型) 和存取控制?

目前沒有模型訓練,因此對資料集沒有需求。 不過,當客戶服務代表與 Copilot 互動時,視功能而定,系統會使用相關內容資料 (案例或聊天) 來產生回應。

是否會監控敏感性或受法律保護屬性的 PII 揭露與推論?

是的,每項功能都會進行隱私權審查。

是。 每個功能都會經過法務審查,以協助符合法規要求和處理其他法律事宜。

使用 Copilot 功能
使用 Copilot 從案例產生知識草稿
Copilot 的區域可用性
Microsoft Power Platform 中 Copilot 資料安全性及隱私權常見問題