แชร์ผ่าน


การพิจารณา AI ที่มีความรับผิดชอบสำหรับเวิร์กโหลดแอปพลิเคชันอัจฉริยะ

เวิร์กโหลดของแอปพลิเคชันอัจฉริยะจะต้องปฏิบัติตามหลักการ AI ที่รับผิดชอบเพื่อให้มั่นใจถึงความยุติธรรม ความรับผิดชอบ ความโปร่งใส และมีพฤติกรรมที่ถูกต้องตามจริยธรรม

ออกแบบระบบ AI เพื่อปฏิบัติต่อผู้ใช้ทุกคนอย่างยุติธรรม ให้ผู้พัฒนาและผู้ใช้รับผิดชอบต่อประสิทธิภาพการทำงานของระบบ ตรวจสอบให้แน่ใจถึงความโปร่งใสในการดำเนินการด้าน AI และยึดมั่นในมาตรฐานทางจริยธรรม

ที่ Microsoft เรามุ่งมั่นที่จะพัฒนา AI โดยขับเคลื่อนด้วยหลักการที่ให้ความสำคัญกับผู้คนมาเป็นอันดับแรก โมเดลเชิงสร้างสรรค์มีประโยชน์มากมาย แต่หากขาดการออกแบบอย่างรอบคอบและการบรรเทาปัญหาอย่างรอบคอบ โมเดลดังกล่าวอาจสร้างเนื้อหาที่ไม่ถูกต้องหรือแม้แต่เป็นอันตรายได้ Microsoft ได้ลงทุนอย่างมากเพื่อช่วยป้องกันการละเมิดและอันตรายที่ไม่ได้ตั้งใจ ซึ่งรวมถึงการนำหลักการใช้งาน AI อย่างมีความรับผิดชอบของ Microsoftมาใช้ การนำมาใช้ จรรยาบรรณ การสร้างตัวกรองเนื้อหาเพื่อรองรับลูกค้า และการจัดเตรียมข้อมูลและแนวทางด้าน AI อย่างมีความรับผิดชอบ ที่ลูกค้าควรพิจารณาเมื่อใช้ AI เชิงสร้างสรรค์

Power Platform ฟีเจอร์ผู้ช่วยนักบินและ AI เชิงสร้างสรรค์ปฏิบัติตามหลักปฏิบัติหลักด้านความปลอดภัยและความเป็นส่วนตัวและ Microsoft มาตรฐาน AI ที่รับผิดชอบ Power Platform ข้อมูลได้รับการปกป้องโดยการปฏิบัติตามข้อกำหนด ความปลอดภัย และการควบคุมความเป็นส่วนตัวที่ครอบคลุมและเป็นผู้นำในอุตสาหกรรม

เรียนรู้เพิ่มเติม:

หลักการสำคัญของ AI ที่มีความรับผิดชอบ

หลักการสำคัญของ AI ที่มีความรับผิดชอบ ได้แก่ ความยุติธรรม ความรับผิดชอบ ความโปร่งใส และจริยธรรม การรับประกันว่าเวิร์กโหลดแอปพลิเคชันอัจฉริยะที่สร้างด้วย Power Platform เป็นไปตามหลักการสำคัญเหล่านี้เกี่ยวข้องกับแนวทางปฏิบัติสำคัญหลายประการ:

  • ความยุติธรรม: ใช้ข้อมูลการฝึกอบรมที่หลากหลายและเป็นตัวแทนเพื่อลดอคติให้เหลือน้อยที่สุด อัปเดตข้อมูลการฝึกอบรมและจ้างผู้ตรวจสอบเพื่อตรวจสอบความยุติธรรมและความเท่าเทียมกันเป็นประจำ
  • ความรับผิดชอบ: กำหนดบทบาทและความรับผิดชอบที่ชัดเจนสำหรับสมาชิกในทีมที่เกี่ยวข้องกับโครงการ AI สร้างและยึดมั่นตามมาตรฐานทางจริยธรรมที่ให้ความสำคัญกับความยุติธรรมและความรับผิดชอบ
  • ความโปร่งใส: ทำให้แน่ใจว่าผู้ใช้รู้ว่าพวกเขากำลังใช้เวิร์กโหลดที่ใช้ความสามารถ AI เชิงสร้างสรรค์ สื่อสารอย่างชัดเจนถึงเหตุผลที่เลือกโซลูชัน AI ออกแบบอย่างไร และตรวจสอบและอัปเดตอย่างไร
  • จริยธรรม: ส่งเสริมพนักงานที่มีความครอบคลุมและแสวงหาข้อมูลจากชุมชนที่หลากหลายในช่วงต้นของกระบวนการพัฒนา ประเมินและทดสอบโมเดลด้านข้อกังวลด้านจริยธรรมและความแตกต่างในการปฏิบัติงานเป็นประจำ จัดทำกรอบการกำกับดูแลที่รวมถึงการตรวจสอบเป็นประจำ

ผสานแนวทางปฏิบัตินี้เข้าไว้ในกระบวนการพัฒนาและการปรับใช้ของคุณเพื่อสร้างเวิร์กโหลดแอปพลิเคชันอัจฉริยะที่ปฏิบัติตามหลักการสำคัญของ AI ที่รับผิดชอบ

ความเป็นส่วนตัวและความปลอดภัยของข้อมูล

การรับรองความเป็นส่วนตัวของข้อมูลถือเป็นสิ่งสำคัญ โดยเฉพาะอย่างยิ่งเนื่องจากเวิร์กโหลดของแอปพลิเคชันอัจฉริยะอาจจัดการกับข้อมูลที่ละเอียดอ่อน เมื่อวางแผนเวิร์กโหลดแอปพลิเคชันอัจฉริยะด้วย Power Platform สิ่งสำคัญคือต้องจัดการความเสี่ยงหลักหลายประการและใช้กลยุทธ์บรรเทาผลกระทบที่มีประสิทธิผล:

  • คุณลักษณะของแพลตฟอร์ม: ทำความเข้าใจการควบคุมดั้งเดิมและคุณลักษณะของแพลตฟอร์มที่ปกป้องข้อมูลของคุณ Microsoft Copilot สร้างขึ้นบน Microsoft Azure OpenAI บริการ และทำงานภายในคลาวด์ Azure โดยสมบูรณ์ Copilot ใช้โมเดล OpenAI ที่มี ความสามารถด้านความปลอดภัยของ Microsoft Azure ทั้งหมด Copilot ได้รับการบูรณาการในบริการต่างๆ เช่น Dynamics 365 และ Microsoft และสืบทอดนโยบายและกระบวนการด้านความปลอดภัย ความเป็นส่วนตัว และการปฏิบัติตามข้อกำหนด เช่น การตรวจสอบปัจจัยหลายประการและขอบเขตการปฏิบัติตามข้อกำหนด Power Platform
  • การเข้ารหัสข้อมูล: เทคโนโลยีด้านบริการจะเข้ารหัสเนื้อหาขององค์กรที่ไม่ได้ใช้งานและระหว่างการส่งเพื่อความปลอดภัยที่แข็งแกร่ง การเชื่อมต่อได้รับการปกป้องด้วย Transport เลเยอร์ Security (TLS) และการโอนข้อมูลระหว่าง Dynamics 365 Power Platform และ Azure OpenAI จะเกิดขึ้นผ่านเครือข่ายหลัก Microsoft ซึ่งช่วยให้มั่นใจได้ถึงความน่าเชื่อถือและความปลอดภัย เรียนรู้เพิ่มเติมเกี่ยวกับ การเข้ารหัสบน Microsoft คลาวด์
  • การควบคุมการเข้าถึง: ข้อมูลจะถูกจัดเตรียมให้กับ Copilot ตามระดับการเข้าถึงของผู้ใช้ปัจจุบัน นำการควบคุมการเข้าถึงตามบทบาท (RBAC) มาใช้โดยใช้ Microsoft Entra ID เพื่อให้แน่ใจว่าผู้ใช้ที่ได้รับอนุญาตเท่านั้นที่สามารถเข้าถึงข้อมูลได้ ใช้หลักการสิทธิ์น้อยที่สุดเพื่อจำกัดการเข้าถึงเฉพาะสิ่งที่จำเป็น
  • การติดตามและการตรวจสอบ: ตรวจจับและตอบสนองต่อเหตุการณ์ด้านความปลอดภัยที่อาจเกิดขึ้นโดยการติดตามการเข้าถึงและการใช้งานระบบ AI เป็นประจำ รักษาบันทึกการตรวจสอบโดยละเอียดเพื่อติดตามการเข้าถึงและการแก้ไขข้อมูล
  • การปฏิบัติตามและการกำกับดูแล: รับประกันความสอดคล้องกับกฎระเบียบความเป็นส่วนตัวของข้อมูลที่เกี่ยวข้อง เช่น GDPR (ข้อบังคับทั่วไปเกี่ยวกับการคุ้มครองข้อมูล), HIPAA (Health Insurance Portability and Accountability Act) และ CCPA (California Consumer Privacy Act) ปฏิบัติตามหลักปฏิบัติด้าน AI ที่ถูกต้องตามจริยธรรมเพื่อหลีกเลี่ยงอคติและเพื่อรับประกันความยุติธรรมในผลลัพธ์ของ AI
  • การศึกษาและการฝึกอบรมผู้ใช้: ฝึกอบรมผู้ใช้เกี่ยวกับแนวทางปฏิบัติที่ดีที่สุดด้านความปลอดภัยและความสำคัญของความเป็นส่วนตัวของข้อมูล แจ้งให้ผู้ใช้ทราบเกี่ยวกับการอัปเดตและการเปลี่ยนแปลงนโยบายและขั้นตอนด้านความปลอดภัย

เรียนรู้เพิ่มเติม: คำถามที่พบบ่อยสำหรับการรักษาความปลอดภัยและความเป็นส่วนตัวของข้อมูล Copilot สำหรับ Dynamics 365 และ Power Platform

การตระหนักรู้และการบรรเทาอคติ

ตระหนักถึงความสำคัญของการแก้ไขอคติในระบบและสร้างความยุติธรรมเพื่อหลีกเลี่ยงอคติในการตอบสนองของ AI

  • ข้อมูลที่หลากหลายและเป็นตัวแทน: ต้องแน่ใจว่าข้อมูลการฝึกอบรมมีความหลากหลายและเป็นตัวแทนของกลุ่มประชากรที่แตกต่างกันเพื่อลดอคติที่อาจเกิดขึ้น ตรวจสอบข้อมูลอย่างสม่ำเสมอเพื่อดูว่ามีอคติและความไม่สมดุลหรือไม่ และดำเนินการแก้ไขตามความจำเป็น
  • เครื่องมือตรวจจับและบรรเทาอคติ: ใช้เครื่องมือและเทคนิคในการตรวจจับอคติในโมเดล AI เช่น การวิเคราะห์ทางสถิติและเมตริกความยุติธรรม นำเทคนิคการขจัดอคติมาใช้ รวมถึงการสุ่มตัวอย่างใหม่ การชั่งน้ำหนักใหม่ หรือการกำจัดอคติเชิงโต้แย้ง เพื่อลดอคติในแบบจำลอง
  • มนุษย์อยู่ในวงจร: รวมการตรวจสอบและวงจรข้อเสนอแนะของมนุษย์เพื่อระบุและแก้ไขอคติที่ AI อาจเกิดขึ้น จัดตั้งคณะกรรมการจริยธรรมหรือคณะกรรมการกำกับดูแลเพื่อดูแลการพัฒนาและการใช้งาน AI เพื่อให้แน่ใจว่าเป็นไปตามมาตรฐานจริยธรรม
  • ความโปร่งใสและความน่าเชื่อถือ: ทำให้ผู้ใช้รู้ว่าพวกเขากำลังใช้เวิร์กโหลดที่ใช้ความสามารถ AI เชิงสร้างสรรค์ สื่อสารอย่างชัดเจนว่าเหตุใดจึงเลือกโซลูชัน AI และให้ข้อมูลเกี่ยวกับวิธีการออกแบบ รวมไปถึงวิธีการตรวจสอบและอัปเดต
  • การตรวจสอบและปรับปรุงอย่างต่อเนื่อง: ตรวจสอบระบบ AI อย่างต่อเนื่องเพื่อดูอคติและปัญหาด้านประสิทธิภาพ และอัปเดตโมเดลตามความจำเป็น ให้แน่ใจว่าโมเดลยังคงยุติธรรมและไม่มีอคติ โดยฝึกอบรมโมเดลใหม่เป็นประจำด้วยข้อมูลที่อัปเดตและหลากหลายมากขึ้น

การติดตามและประเมินผลอย่างต่อเนื่อง

ปรับปรุงภาระงานแอปพลิเคชันอัจฉริยะของคุณอย่างต่อเนื่อง จัดทำกรอบการทำงานสำหรับการติดตามและประเมินผลอย่างต่อเนื่อง และนำข้อเสนอแนะของผู้ใช้และมาตรฐานทางจริยธรรมที่พัฒนาขึ้นไปใช้ในการอัปเดต

  • วงจรข้อเสนอแนะ :สร้างกลไกการตอบรับที่ผู้ใช้สามารถรายงานข้อผิดพลาด ซึ่งสามารถนำไปใช้ปรับปรุงโมเดลให้ดีขึ้นได้
  • การติดตามและการตรวจสอบ: ตรวจจับและตอบสนองต่อเหตุการณ์ด้านความปลอดภัยที่อาจเกิดขึ้นโดยการติดตามการเข้าถึงและการใช้งานระบบ AI เป็นประจำ รักษาบันทึกการตรวจสอบโดยละเอียดเพื่อติดตามการเข้าถึงและการแก้ไขข้อมูล