了解負責任 AI 的考量
上一個單元介紹了具備 AI 之軟體的責任與道德開發需求考量。 在此單元中,我們要探討 Microsoft 採用的一些負責任 AI 核心準則。
公平性
AI 系統應該公平對待所有人。 例如,假設您建立機器學習模型來支援銀行的貸款核准申請。 此模型在預測是否應該核准貸款時,不得有任何性別、種族或其他因素的偏見,而可能導致特定組別的申請人獲得不公平優勢或劣勢。
機器學習系統的公平性是現在研究中極為活躍的領域,而且已經有一些軟體解決方案用於評估、量化及降低機器學習模型中的不公平性。 然而,只有工具並不足以確保公平性。 應用程式開發程序的最開始就要考慮公平性;應仔細檢閱定型資料,確保其足以代表所有可能受影響的主體,並在整個開發生命週期中,評估使用者族群各部分的預測成效。
可靠性和安全性
AI 系統應該以安全可靠的方式執行。 例如,假設有一個以 AI 為基礎的軟體系統用於自動駕駛汽車,或有一個機器學習模型用於診斷病患症狀並建議處方。 這類系統的不可靠可能會對人類生命造成極大風險。
如同任何軟體,以 AI 為基礎的軟體應用程式開發必須遵守嚴格的測試與部署管理流程,確保可以正常運作,之後才能發行。 此外,軟體工程師也必須將機器學習模型的機率本質納入考量,並在評估預測的信賴分數時套用適當的閾值。
隱私權與安全性
AI 系統應該安全並尊重隱私。 AI 系統所依據的機器學習模型依賴大量資料,其中可能包含必須確保隱私的個人詳細資料。 即使模型已經過定型,系統也已進入生產環境,仍會使用新資料進行預測或採取需要考慮到隱私權或安全性的行動;因此必須實作適當的保護措施來保護資料和客戶內容。
包容性
AI 系統應該賦予所有人權力,且讓人們參與。 AI 應該造福社會的每一份子,無論其身體能力、性別、性傾向、種族或其他因素。
達到最大包容性的其中一個方式,是確保應用程式的設計、開發與測試過程,都有一個盡可能具備多樣性的群體提供意見。
透明
AI 系統應該是可以了解的。 使用者應該充分了解系統的用途、其運作方式,以及可能預期的限制。
例如,當 AI 系統以機器學習模型為基礎時,您應廣泛告知使用者可能會影響其預測精確度的因素,例如用來訓練模型的案例數目,或對其預測有最大影響的特定特徵。 您也應該提供預測的信賴分數相關資訊。
當 AI 應用程式依賴個人資料 (例如拍攝人們影像加以辨識的臉部辨識系統),您應該讓使用者清楚了解其資料的使用與保留方式,以及誰會有權存取。
當責
使用者應該對 AI 系統負責。 雖然許多 AI 系統似乎會自主運作,但最終都還是開發人員的責任,他們負責定型及驗證系統使用的模型,以及定義根據模型預測進行決策的邏輯,以確保整體系統符合責任要求。 為了協助達成此目標,以 AI 為基礎的解決方案設計人員與開發人員應該在治理與組織準則的架構中工作,以確保解決方案符合清楚定義的道德與法律標準。
注意
Microsoft 已於 2022 年 6 月發行負責任 AI 標準「有意義的更新」。 作為其中的一部分,我們已更新臉部辨識的方法,包括特定功能的新有限存取原則以作為負責任用途的保護措施。 您可以申請該有限存取權,以啟用應用程式的這些功能。
如需 Microsoft 負責任 AI 準則的詳細資訊,請參閱 Microsoft 負責任的 AI 網站。