คำถามที่พบบ่อยเกี่ยวกับ AI ที่มีรับผิดชอบสำหรับ Copilot ใน Customer Service
นำไปใช้กับ: Dynamics 365 Contact Center—แบบฝัง, Dynamics 365 Contact Center— แบบสแตนด์อโลน และ Dynamics 365 Customer Service
บทความคำถามที่ถามบ่อยนี้ช่วยตอบคำถามเกี่ยวกับการใช้ AI อย่างมีความรับผิดชอบในคุณลักษณะ copilot ใน Customer Service
Copilot ใน Dynamics 365 Customer Service คืออะไร
Copilot เป็นเครื่องมือ AI ที่มาเปลี่ยนประสบการณ์เจ้าหน้าที่ใน Dynamics 365 Customer Service โดยจะให้ความช่วยเหลือแบบเรียลไทม์ที่ขับเคลื่อนด้วย AI ซึ่งจะช่วยให้เจ้าหน้าที่แก้ไขปัญหาได้เร็วขึ้น จัดการกับกรณีต่างๆ ได้อย่างมีประสิทธิภาพมากขึ้น และทำให้งานที่ใช้เวลานานเป็นไปโดยอัตโนมัติ จากนั้นเจ้าหน้าที่สามารถมุ่งเน้นไปที่การให้บริการที่มีคุณภาพสูงแก่ลูกค้าของตน
ความสามารถของระบบนี้คืออะไร
Copilot มีคุณลักษณะหลักๆ ดังต่อไปนี้:
ถามคำถาม: เป็นแท็บแรกที่ตัวแทนจะเห็นเมื่อเปิดใช้งานบานหน้าต่างวิธีใช้ Copilot เป็นอินเทอร์เฟซการสนทนากับ Copilot ซึ่งให้การตอบตามบริบทสำหรับคำถามของเจ้าหน้าที่ การตอบของ Copilot อ้างอิงจากแหล่งความรู้ทั้งภายในและภายนอกที่องค์กรของคุณจัดเตรียมไว้ให้ในระหว่างการตั้งค่า
เขียนอีเมล: เป็นแท็บที่สองในบานหน้าต่างวิธีใช้ Copilot ซึ่งช่วยให้เอเจนต์สร้างการตอบกลับอีเมลได้อย่างรวดเร็วตามบริบทของกรณี ซึ่งช่วยลดเวลาที่ผู้ใช้ต้องใช้ในการสร้างอีเมล
ร่างการตอบแชท: ช่วยให้เอเจนต์สร้างการตอบในคลิกเดียวเพื่อสนทนาด้วยการส่งข้อความดิจิทัลที่กำลังดำเนินอยู่จากแหล่งความรู้ที่องค์กรของคุณกำหนดค่า
สรุปกรณี: Copilot ให้ข้อมูลสรุปของกรณีแก่เอเจนต์ในฟอร์มกรณี เพื่อให้พวกเขาสามารถติดตามรายละเอียดที่สำคัญของกรณีได้อย่างรวดเร็ว
สรุปการสนทนา: Copilot ให้ข้อมูลสรุปการสนทนาแก่เอเจนต์ในประเด็นสำคัญตลอดการเดินทางของลูกค้า เช่น การส่งต่อให้เจ้าหน้าที่เสมือน การโอนและตามความต้องการ
สร้างร่างความรู้จากกรณี (พรีวิว): Copilot สร้างร่างบทความให้ความรู้เป็นข้อเสนอที่อิงตามข้อมูลจากกรณี เจ้าหน้าที่สามารถตรวจสอบและปรับปรุงร่างได้โดยให้คำแนะนำในการแก้ไขแก่ Copilot จากนั้นจึงบันทึก
สรุปเรกคอร์ดที่กำหนดเอง: Copilot ให้ข้อมูลสรุปของเรกคอร์ดตามฟิลด์ที่ผู้ดูแลระบบกำหนดค่าสำหรับตารางแบบกำหนดเองแก่เอเจนต์ เพื่อให้เอเจนต์สามารถติดตามรายละเอียดที่สำคัญของเรกคอร์ดการสนับสนุนได้อย่างรวดเร็ว
สร้างหมายเหตุการแก้ปัญหา: Copilot มีเอเจนต์ที่ให้ข้อมูลสรุปของรายละเอียดกรณี อีเมล และหมายเหตุที่เชื่อมโยงกับกรณีแก่เจ้าหน้าที่บริการบนแท็บ ถามคำถาม เพื่อให้พวกเขาสามารถปิดกรณีหรือเหตุการณ์ได้เร็วขึ้น
วัตถุประสงค์ของระบบคืออะไร
Copilot ใน Customer Service มีวัตถุประสงค์เพื่อช่วยให้เจ้าหน้าที่บริการลูกค้าทำงานได้อย่างมีประสิทธิภาพและประสิทธิผลมากขึ้น เจ้าหน้าที่บริการลูกค้าสามารถใช้คำตอบตามความรู้ของ Copilot เพื่อประหยัดเวลาในการค้นหาบทความให้ความรู้และร่างคำตอบ สรุปของ Copilot ได้รับการออกแบบมาเพื่อสนับสนุนเจ้าหน้าที่ในการยกระดับกรณีและการสนทนาอย่างรวดเร็ว เนื้อหาที่สร้างโดย Copilot ใน Customer Service ไม่ได้มีวัตถุประสงค์ให้ใช้โดยไม่มีการตรวจสอบหรือการกำกับดูแลจากมนุษย์
Copilot ใน Customer Service ได้รับการประเมินอย่างไร เมตริกใดที่ใช้วัดประสิทธิภาพ
Copilot ใน Customer Service ได้รับการประเมินเทียบกับสถานการณ์จริงกับลูกค้าทั่วโลกผ่านแต่ละช่วงของการออกแบบ การพัฒนา และการเปิดตัว ด้วยการใช้การศึกษาวิจัยและผลกระทบทางธุรกิจร่วมกัน เราได้ประเมินเมตริกเชิงปริมาณและเชิงคุณภาพต่างๆ เกี่ยวกับ Copilot รวมถึงความแม่นยำ ประโยชน์ และความเชื่อถือจากเจ้าหน้าที่ เรียนรู้เพิ่มเติมใน รายงานความโปร่งใสของ AI ที่รับผิดชอบ
Copilot ใน Customer Service มีข้อจำกัดอะไรบ้าง ผู้ใช้จะลดผลกระทบของข้อจำกัดของ Copilot ได้อย่างไร
ความสามารถตามความรู้ของ Copilot เช่น ถามคำถาม เขียนอีเมล และร่างการตอบแชท ขึ้นอยู่กับบทความให้ความรู้คุณภาพสูงและทันสมัยสำหรับพื้นฐาน หากไม่มีบทความให้ความรู้เหล่านี้ ผู้ใช้มักจะพบกับการตอบของ Copilot ที่ไม่เป็นข้อเท็จจริง
เพื่อลดโอกาสที่จะเห็นคำตอบที่ไม่ใช่ข้อเท็จจริงจาก Copilot สิ่งสำคัญคือ Microsoft ใช้แนวทางการจัดการความรู้ที่มีประสิทธิภาพเพื่อให้แน่ใจว่าความรู้ทางธุรกิจที่เชื่อมต่อกับ Copilot มีคุณภาพสูงและเป็นปัจจุบัน
ปัจจัยการดำเนินงานและการตั้งค่าใดที่ช่วยให้สามารถใช้ระบบได้อย่างมีประสิทธิภาพและมีความรับผิดชอบ
ตรวจสอบผลลัพธ์จาก Copilot เสมอ
Copilot สร้างจากเทคโนโลยีโมเดลภาษาขนาดใหญ่ ซึ่งมีความน่าจะเป็นตามธรรมชาติ เมื่อนำเสนอด้วยข้อความอินพุต โมเดลจะคำนวณความน่าจะเป็นของแต่ละคำในข้อความนั้นตามคำที่อยู่ก่อนหน้า จากนั้นโมเดลจะเลือกคำที่น่าจะตามมามากที่สุด อย่างไรก็ตาม เนื่องจากโมเดลอิงอยู่กับความน่าจะเป็น จึงไม่สามารถพูดได้อย่างแน่ชัดว่าคำถัดไปที่ถูกต้องคืออะไร แต่ทำให้เราคาดเดาได้ดีที่สุดโดยอิงจากการแจกแจงความน่าจะเป็นที่ได้เรียนรู้จากข้อมูลที่ฝึกมา Copilot ใช้วิธีการที่เรียกว่าการสร้างพื้นฐาน ซึ่งเกี่ยวข้องกับการเพิ่มข้อมูลเพิ่มเติมให้กับอินพุตเพื่อปรับบริบทของเอาต์พุตไปยังองค์กรของคุณ ใช้การค้นหาความหมายเพื่อทำความเข้าใจอินพุตและดึงเอกสารภายในองค์กรที่เกี่ยวข้องและผลการค้นหาเว็บสาธารณะที่เชื่อถือได้ และแนะนำโมเดลภาษาให้ตอบสนองตามเนื้อหานั้น แม้ว่าวิธีนี้จะมีประโยชน์ในการทำให้มั่นใจว่าการตอบของ Copilot จะเป็นไปตามข้อมูลขององค์กร แต่สิ่งสำคัญคือต้องตรวจสอบผลลัพธ์ที่สร้างโดย Copilot ก่อนใช้งานเสมอ
รับประโยชน์สูงสุดจาก Copilot
เมื่อคุณโต้ตอบกับ Copilot สิ่งสำคัญคือต้องจำไว้ว่าโครงสร้างของคำถามสามารถส่งผลต่อคำตอบที่ Copilot มอบให้ได้อย่างมาก ในการโต้ตอบกับ Copilot อย่างมีประสิทธิภาพ สิ่งสำคัญคือต้องถามคำถามที่ชัดเจนและเฉพาะเจาะจง ให้บริบทเพื่อช่วยให้ AI เข้าใจเจตนาของคุณได้ดีขึ้น ถามคำถามทีละข้อ และหลีกเลี่ยงคำศัพท์ทางเทคนิคเพื่อความชัดเจนและเข้าถึงได้
ถามคำถามที่ชัดเจนและเฉพาะเจาะจง
เจตนาที่ชัดเจนเป็นสิ่งสำคัญเมื่อถามคำถาม เนื่องจากจะส่งผลโดยตรงต่อคุณภาพของการตอบ ตัวอย่างเช่น การถามคำถามกว้างๆ เช่น "ทำไมเครื่องชงกาแฟของลูกค้าไม่เริ่มทำงาน" มีโอกาสน้อยกว่าที่จะให้คำตอบที่เป็นประโยชน์เมื่อเทียบกับคำถามที่เจาะจงมากขึ้น เช่น "ฉันสามารถใช้ขั้นตอนใดได้บ้างเพื่อระบุสาเหตุที่เครื่องชงกาแฟของลูกค้าไม่เริ่มทำงาน"
อย่างไรก็ตาม การถามคำถามที่มีรายละเอียดมากขึ้น เช่น "ฉันสามารถใช้ขั้นตอนใดเพื่อระบุสาเหตุที่เครื่องชงกาแฟ Contoso 900 ที่มีระดับแรงดัน 5 บาร์ไม่เริ่มทำงาน" จำกัดขอบเขตของปัญหาให้แคบลงและให้บริบทมากขึ้น ซึ่งนำไปสู่การตอบสนองที่แม่นยำและตรงเป้าหมายมากขึ้น
เพิ่มบริบท
การเพิ่มบริบทช่วยให้ระบบ AI การสนทนาเข้าใจเจตนาของผู้ใช้ได้ดีขึ้น และให้คำตอบที่ถูกต้องและตรงประเด็นมากขึ้น หากไม่มีบริบท ระบบอาจเข้าใจคำถามของผู้ใช้ผิดหรือให้คำตอบทั่วไปหรือไม่เกี่ยวข้อง
ตัวอย่างเช่น "ทำไมเครื่องชงกาแฟไม่เริ่มทำงาน" จะส่งผลให้เกิดการตอบทั่วไปเมื่อเปรียบเทียบกับคำถามที่มีบริบทมากกว่า เช่น "เมื่อเร็วๆ นี้ ลูกค้าเริ่มโหมดการขจัดคราบตะกรันบนเครื่องชงกาแฟและดำเนินการขจัดคราบตะกรันได้สำเร็จ พวกเขายังเห็นไฟแสดงการทำงานกะพริบสามครั้งในตอนท้ายเพื่อยืนยันว่าการขจัดคราบตะกรันเสร็จสิ้นแล้ว ทำไมพวกเขาไม่สามารถเปิดเครื่องชงกาแฟได้อีกต่อไป"
การเพิ่มบริบทในลักษณะนี้มีความสำคัญเนื่องจากช่วยให้ Copilot การสนทนาเข้าใจเจตนาของผู้ใช้ได้ดีขึ้น และให้คำตอบที่ถูกต้องและตรงประเด็นมากขึ้น
หลีกเลี่ยงคำศัพท์ทางเทคนิคหากเป็นไปได้
เราขอแนะนำให้คุณหลีกเลี่ยงการใช้คำศัพท์ทางเทคนิคมากเกินไปและชื่อทรัพยากรเมื่อโต้ตอบกับ Copilot เนื่องจากระบบอาจไม่เข้าใจอย่างถูกต้องหรือเหมาะสมเสมอไป การใช้ภาษาที่เรียบง่ายและเป็นธรรมชาติช่วยให้แน่ใจว่าระบบสามารถเข้าใจเจตนาของผู้ใช้ได้อย่างถูกต้อง และให้คำตอบที่ชัดเจนและมีประโยชน์ ตัวอย่างเช่น –
"ลูกค้าไม่สามารถ SSH เข้าสู่ VM ได้หลังจากเปลี่ยนการกำหนดค่าไฟร์วอลล์แล้ว"
แต่คุณสามารถใช้ถ้อยคำใหม่เป็น -
"ลูกค้าเปลี่ยนกฎไฟร์วอลล์บนเครื่องเสมือนของพวกเขา แต่พวกเขาไม่สามารถเชื่อมต่อโดยใช้ Secure Shell (SSH) ได้อีกต่อไป คุณสามารถช่วยได้หรือไม่”
โดยการทำตามคำแนะนำ เจ้าหน้าที่สามารถเพิ่มปฏิสัมพันธ์กับ Copilot และเพิ่มโอกาสในการได้รับคำตอบที่ถูกต้องและมั่นใจจากคำถาม
การสรุปหรือการขยายคำตอบ
บางครั้งการตอบจาก Copilot อาจนานกว่าที่คาดไว้ กรณีนี้อาจเป็นกรณีที่เจ้าหน้าที่อยู่ในการสนทนาสดกับลูกค้าและจำเป็นต้องส่งคำตอบที่กระชับเมื่อเทียบกับการส่งคำตอบทางอีเมล ในกรณีเช่นนี้ การขอให้ Copilot "สรุปคำตอบ" จะส่งผลให้ได้คำตอบที่กระชับสำหรับคำถาม ในทำนองเดียวกัน หากต้องการรายละเอียดเพิ่มเติม การขอให้ Copilot "ให้รายละเอียดเพิ่มเติม" จะทำให้ได้คำตอบที่ละเอียดยิ่งขึ้นสำหรับคำถามของคุณ หากการตอบถูกตัดออก การพิมพ์ "ดำเนินการต่อ" จะแสดงส่วนที่เหลือของการตอบ
ฉันจะมีอิทธิพลต่อการตอบสนองที่สร้างโดย Copilot ได้อย่างไร ฉันสามารถปรับแต่ง LLM พื้นฐานได้หรือไม่
ไม่สามารถปรับแต่งโมเดลภาษาขนาดใหญ่ (LLM) ได้โดยตรง การตอบของ Copilot อาจได้รับอิทธิพลจากการอัปเดตเอกสารต้นฉบับ เนื้อหาคำติชมทั้งหมดจากการตอบของ Copilot จะถูกเก็บไว้ สามารถสร้างรายงานได้โดยใช้ข้อมูลนี้เพื่อกำหนดแหล่งข้อมูลที่ต้องอัปเดต เป็นความคิดที่ดีที่จะมีกระบวนการในการตรวจสอบข้อมูลคำติชมเป็นระยะ และตรวจสอบให้แน่ใจว่าบทความให้ความรู้ให้ข้อมูลที่ดีที่สุดและทันสมัยที่สุดแก่ Copilot
รูปแบบการรักษาความปลอดภัยข้อมูลสำหรับ Copilot คืออะไร
Copilot บังคับใช้การควบคุมการเข้าถึงตามบทบาท (RBAC) ที่กำหนดและปฏิบัติตามโครงสร้างการรักษาความปลอดภัยที่มีอยู่ทั้งหมด ดังนั้น ตัวแทนจึงไม่สามารถดูข้อมูลที่พวกเขาไม่สามารถเข้าถึงได้ นอกจากนี้ เฉพาะแหล่งข้อมูลที่เจ้าหน้าที่มีสิทธิ์เข้าถึงเท่านั้นที่ใช้สำหรับการสร้างการตอบของ Copilot
Copilot ตัดสินได้อย่างไรว่าเนื้อหาไม่เหมาะสมหรือเป็นอันตราย
Copilot พิจารณาว่าเนื้อหาเป็นอันตรายหรือไม่ผ่านระบบการให้คะแนนความรุนแรงตามหมวดหมู่ที่แตกต่างกันของเนื้อหาที่ไม่เหมาะสม คุณสามารถเรียนรู้เพิ่มเติมได้ที่ ประเภทอันตรายในความปลอดภัยของเนื้อหา Azure AI
การประมวลผลและการดึงข้อมูลเพื่อสร้างการตอบของ Copilot เกิดขึ้นที่ใด
Copilot ไม่ได้เรียกบริการ OpenAI สาธารณะที่ขับเคลื่อน ChatGPT Copilot ใน Customer Service ใช้ Microsoft Azure OpenAI Service ในผู้เช่าที่มีการจัดการของ Microsoft การประมวลผลและการดึงข้อมูลทั้งหมดเกิดขึ้นภายในผู้เช่าที่มีการจัดการของ Microsoft นอกจากนี้ ข้อมูลของลูกค้าจะไม่ถูกแชร์และจะไม่ถูกป้อนกลับเข้าไปในโมเดลสาธารณะ
ข้อจำกัดด้านภาษาสำหรับบทสรุปที่ Copilot สร้างขึ้นจากกรณีและการสนทนามีอะไรบ้าง
รองรับหลายภาษาในการสรุปที่สร้างโดย Copilot จากกรณีและการสนทนา คุณภาพของบทสรุปเหล่านี้คาดว่าจะสูงที่สุดในภาษาอังกฤษในขณะที่ในภาษาอื่น ๆ คุณภาพคาดว่าจะดีขึ้นเมื่อเวลาผ่านไป เรียนรู้เกี่ยวกับภาษาที่รองรับใน การสนับสนุนภาษาสำหรับลักษณะ Copilot
โมเดลได้รับการทดสอบและตรวจสอบอย่างต่อเนื่องหรือไม่? ถ้าเป็นเช่นนั้นบ่อยแค่ไหน? ทำการทดสอบอะไรบ้าง?
โมเดลได้รับการทดสอบคุณภาพและเนื้อหาที่เป็นอันตรายทุกครั้งที่มีการเปลี่ยนแปลงการโต้ตอบหรือเวอร์ชันของโมเดล เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
โมเดลได้รับการตรวจสอบบ่อยแค่ไหนเพื่อตรวจจับการเสื่อมประสิทธิภาพ
โมเดล GPT AI สร้างสรรค์มีการโฮสต์และจัดการโดย Azure OpenAI การใช้โมเดลในสถานการณ์การบริการลูกค้าถูกผูกมัดโดยแนวทางปฏิบัติของ AI ที่รับผิดชอบและการตรวจสอบคณะกรรมการความปลอดภัยในการปรับใช้ การเปลี่ยนแปลงใดๆ ในเวอร์ชันของโมเดลหรือพร้อมท์พื้นฐานจะได้รับการตรวจสอบคุณภาพและเนื้อหาที่เป็นอันตราย เรียนรู้เพิ่มเติมใน รายงานความโปร่งใสของ AI ที่รับผิดชอบ
ผลิตภัณฑ์หรือบริการใช้มากกว่าหนึ่งโมเดลหรือระบบของแบบจำลองที่ขึ้นต่อกันหรือไม่
คุณลักษณะต่างๆ ในระบบอาจใช้โมเดลของบริการ Azure OpenAI เวอร์ชันต่างๆ เรียนรู้เพิ่มเติมใน โมเดลของบริการ Azure OpenAI
Copilot ใช้ผลิตภัณฑ์หรือบริการที่ไม่ใช่ของ Microsoft หรือไม่ และมีคู่มือสำหรับโมเดลนี้หรือไม่
Copilot สร้างขึ้นโดยใช้ Azure OpenAI ซึ่งเป็นบริการ AI ที่มีการจัดการเต็มรูปแบบ ซึ่งผสานรวม OpenAI กับโมเดลการกรองเนื้อหาและการตรวจจับความไม่เหมาะสมที่พัฒนาโดย Microsoft เรียนรู้เพิ่มเติมใน บันทึกความโปร่งใสสำหรับ Azure OpenAI
มีกระบวนการที่กำหนดไว้เพื่อสื่อสารการเปลี่ยนแปลงใดๆ ในโมเดล โมเดลอัปสตรีม หรือเอาต์พุตที่ใช้จาก AI/ML หรือโซลูชันโมเดลอื่นๆ หรือไม่
การเปลี่ยนแปลงที่วางแผนไว้ในคุณลักษณะ Copilot จะได้รับการสื่อสารผ่านเอกสารสาธารณะ อย่างไรก็ตาม การเปลี่ยนแปลงเกี่ยวกับเวอร์ชันโมเดลหรือพร้อมท์จะถูกควบคุมโดยกระบวนการ AI ที่รับผิดชอบภายใน การเปลี่ยนแปลงเหล่านี้ไม่ได้รับการสื่อสาร เนื่องจากเป็นการปรับปรุงการทำงานที่เพิ่มขึ้นและต่อเนื่อง
คำติชมแบบคำต่อคำของผู้ใช้มีให้สำหรับ Microsoft เพื่อปรับปรุงผลิตภัณฑ์หรือไม่
ไม่ใช่
Microsoft มีนโยบายและขั้นตอนที่กำหนดและแยกแยะบทบาทและความรับผิดชอบของมนุษย์ที่หลากหลายเมื่อพวกเขาโต้ตอบหรือตรวจสอบระบบ AI หรือไม่?
ใช่ ในกระบวนการ AI ที่รับผิดชอบ ผู้มีส่วนได้ส่วนเสียและผู้ใช้ที่เกี่ยวข้องทั้งหมดจะได้รับการพิจารณา และจะมีการหารือเกี่ยวกับการใช้งานหรือการใช้ระบบโดยไม่ได้ตั้งใจ ขึ้นอยู่กับสถานการณ์ที่ระบุการบรรเทาที่จำเป็นจะถูกนำเข้ามาภายในผลิตภัณฑ์หรือผ่านทางเอกสารประกอบ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
Microsoft ระบุและจัดทำเอกสารแนวทางในการมีส่วนร่วม รวบรวม และรวมข้อมูลจากผู้ใช้ปลายทางรายอื่นและผู้มีส่วนได้ส่วนเสียหลักเพื่อช่วยในการตรวจสอบผลกระทบที่อาจเกิดขึ้นและความเสี่ยงที่เกิดขึ้นใหม่อย่างต่อเนื่องหรือไม่
ใช่ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
Microsoft จัดทำเอกสาร ฝึกฝน และวัดแผนการตอบสนองต่อเหตุการณ์สำหรับเหตุการณ์ของระบบ AI รวมถึงการวัดการตอบสนองและเวลาหยุดทำงานหรือไม่
ใช่ กระบวนการ AI ที่รับผิดชอบกำหนดให้ทีมต้องมีแผนตอบสนองต่อเหตุการณ์สำหรับปัญหา AI ซึ่งคล้ายกับสิ่งที่ทำสำหรับปัญหาการทำงาน ทีมงานฟีเจอร์จะตรวจสอบประสิทธิภาพและความน่าเชื่อถือของระบบอย่างต่อเนื่อง เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
Microsoft กำหนดขั้นตอนในการแบ่งปันข้อมูลเกี่ยวกับการเกิดข้อผิดพลาดและผลกระทบด้านลบกับผู้เกี่ยวข้อง ผู้ปฏิบัติงาน ผู้ใช้ และผู้ได้รับผลกระทบที่เกี่ยวข้องหรือไม่
ใช่ สำหรับปัญหาที่มีความรุนแรงสูงทีมคุณลักษณะจะต้องสื่อสารการหยุดทำงานกับลูกค้าที่ได้รับผลกระทบ
Microsoft วัดและตรวจสอบประสิทธิภาพของระบบแบบเรียลไทม์เพื่อให้สามารถตอบสนองได้อย่างรวดเร็วเมื่อตรวจพบเหตุการณ์ของระบบ AI หรือไม่
ใช่ ทีมงานฟีเจอร์จะตรวจสอบประสิทธิภาพและความน่าเชื่อถือของระบบอย่างต่อเนื่อง
Microsoft ทดสอบคุณภาพของคำอธิบายระบบกับผู้ใช้ปลายทางและผู้มีส่วนได้ส่วนเสียอื่นๆ หรือไม่
ใช่ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
Microsoft ได้กำหนดนโยบายและขั้นตอนสำหรับการตรวจสอบและจัดการกับประสิทธิภาพของระบบโมเดลและความน่าเชื่อถือ รวมถึงอคติและปัญหาด้านความปลอดภัยตลอดวงจรชีวิตของโมเดลเมื่อประเมินระบบ AI สำหรับความเสี่ยงและผลประโยชน์เชิงลบหรือไม่
ใช่ เรียนรู้เพิ่มเติมใน รายงานความโปร่งใสของ AI ที่รับผิดชอบ
Microsoft ดำเนินการประเมินความเป็นธรรมเพื่อจัดการอคติในรูปแบบการคำนวณและสถิติหรือไม่
ใช่ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
Microsoft ตรวจสอบเอาต์พุตของระบบเพื่อหาปัญหาด้านประสิทธิภาพหรืออคติหรือไม่
ใช่ ตัวกรองการควบคุมจะถูกนำไปใช้ในหลายชั้น รวมถึงในเอาต์พุตเพื่อให้แน่ใจว่าไม่มีเนื้อหาที่เป็นอันตรายในการตอบสนอง เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
ระดับความยืดหยุ่นในการทำงานของโมเดลคืออะไร? ตัวอย่างเช่น มีการกู้คืนจากความเสียหายและแผนฉุกเฉินสำหรับกรณีที่โมเดลไม่พร้อมใช้งาน
เช่นเดียวกับบริการ Azure ทั้งหมด การสำรองข้อมูลและการกู้คืนได้รับการสนับสนุนผ่านศูนย์ข้อมูลหลายแห่งเพื่อความพร้อมใช้งานสูง
โมเดลขึ้นอยู่กับ ฝังอยู่ภายในเครื่องมือหรือโซลูชันของบริษัทอื่น ซึ่งทำให้ยากต่อการย้ายโมเดลไปยังสภาพแวดล้อมอื่น (รวมถึงตัวแปรต่างๆ เช่น ผู้ให้บริการโฮสต์ ฮาร์ดแวร์ ระบบซอฟต์แวร์) ที่จะขัดขวางความสามารถในการอธิบายของโมเดลหรือไม่
ไม่ใช่
มีนโยบายการกำกับดูแลรูปแบบที่กำหนดไว้หรือไม่?
ใช่ มีนโยบายการกำกับดูแลที่กำหนดซึ่งสนับสนุนโดย Azure OpenAI เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
มีโปรโตคอลที่จัดตั้งขึ้นและจัดทำเป็นเอกสาร (การอนุญาต ระยะเวลา ประเภท) และการควบคุมการเข้าถึงสำหรับชุดข้อมูลการฝึกอบรมหรือการผลิตที่มี PII ตามนโยบายความเป็นส่วนตัวและการกำกับดูแลข้อมูลหรือไม่
ปัจจุบันไม่มีการฝึกอบรมแบบจำลองดังนั้นจึงไม่มีข้อกำหนดเกี่ยวกับชุดข้อมูล อย่างไรก็ตาม เมื่อ เจ้าหน้าที่บริการลูกค้า มีส่วนร่วมกับ Copilot ข้อมูลบริบท (กรณีหรือแชท) จะถูกใช้เพื่อสร้างการตอบสนอง ทั้งนี้ขึ้นอยู่กับคุณลักษณะ
มีการตรวจสอบการเปิดเผย PII และการอนุมานคุณลักษณะที่ละเอียดอ่อนหรือได้รับการคุ้มครองตามกฎหมายหรือไม่
ใช่ มีการตรวจสอบความเป็นส่วนตัวสำหรับคุณลักษณะทุกอย่าง
Microsoft มีกระบวนการในการพิจารณาประเด็นทางกฎหมายและข้อบังคับและข้อกำหนดเฉพาะสำหรับอุตสาหกรรม วัตถุประสงค์ทางธุรกิจ และสภาพแวดล้อมการใช้งานของระบบ AI ที่ถูกนำไปใช้
ใช่ มีการตรวจสอบทางกฎหมายสำหรับคุณลักษณะทุกอย่าง เพื่อช่วยในเรื่องข้อกำหนดด้านกฎระเบียบและเรื่องกฎหมายอื่นๆ
ข้อมูลที่เกี่ยวข้อง
ใช้คุณลักษณะ Copilot
ใช้ Copilot เพื่อสร้างร่างความรู้จากกรณี
ภูมิภาคที่มีให้ใช้งานของ Copilot
คำถามที่ถามบ่อยเกี่ยวกับความปลอดภัยและความเป็นส่วนตัวของข้อมูล Copilot ใน Microsoft Power Platform