負責任的 AI 常見問題集
什麼是 Microsoft 安全性 Copilot?
Security Copilot 是自然語言, 是一種由 AI 提供技術的生成安全性解決方案,可協助提升防禦者的效率和功能,以提升機器速度和規模的安全性成果。 它會從外掛程式和數據中繪製內容來回答提示,讓安全性專業人員和IT系統管理員可以協助保護其組織的安全。
Security Copilot 可以做什麼?
Security Copilot 有助於以自然語言回答問題,讓您可以在幾秒內收到常見安全性和IT工作的可採取動作回應。
Microsoft Security Copilot 在下列案例中有所説明:
安全性調查和補救
取得事件的內容,以快速將複雜的安全性警示分級為可採取動作的摘要,並使用逐步回應指引更快速地進行補救。腳本分析和 KQL 查詢建立
不需要使用自然語言翻譯手動撰寫查詢語言腳本或反向工程惡意代碼腳本,讓每個小組成員都能執行技術工作。風險探索和安全性態勢管理
深入瞭解您的環境與優先順序的風險,以發現更輕鬆地改善狀態的機會。更快速的IT問題疑難解答
快速合成相關信息,並接收可採取動作的深入解析,以快速識別並解決IT問題。建立和管理安全策略
定義新原則、與其他人交叉參考以解決衝突,並摘要說明現有原則,以快速且輕鬆地管理複雜的組織內容。生命週期工作流程設定
使用逐步指引建置群組和設定存取參數,以確保順暢的設定,以防止安全性弱點。項目關係人報告
取得清楚且簡潔的報表,摘要說明內容和環境、未解決的問題,以及針對報表物件的音調和語言所準備的保護措施。
Security Copilot 的用途為何?
Security Copilot 可協助在事件回應、威脅搜捕、情報收集和態勢管理等端對端案例中支援安全性專業人員。 如需詳細資訊,請 參閱使用案例和角色。
如何評估 Security Copilot? 哪些計量可用來測量效能?
Security Copilot 在發行之前進行重大測試。 測試包含紅色小組,這是嚴格測試產品以識別可能造成 Security Copilot 在預期用途之外或不支援Microsoft AI 原則的失敗模式和案例的做法。
它既已發行,使用者意見反應對於協助 Microsoft 改善該系統便非常重要。 您可以選擇在收到來自 Security Copilot 的輸出時提供意見反應。 當回應不正確、不完整或不清楚時,請使用 [偏離目標] 和 [報告] 按鈕來標示任何令人反感的輸出。 您也可以在回應有用且準確時,使用「確認」按鈕來確認。 這些按鈕會出現在每個 Security Copilot 回應的底部,而您的意見反應會直接傳送至Microsoft,以協助我們改善平臺的效能。
Security Copilot 有哪些限制? 使用者如何在使用系統時,將 Security Copilot 限制的影響降到最低?
「早期存取計劃」旨在讓客戶有機會及早存取 Security Copilot,並提供有關平臺的意見反應。 預覽功能並非供生產環境使用,而且功能可能有限。
就像任何 AI 技術一樣,Security Copilot 並不會取得一切正確。 不過,您可以使用平臺內建的意見反應工具來提供您的觀察,以協助改善其回應。
如果未透過使用者輸入或外掛程式提供最新的資料,系統可能會產生過時的回應。 若要取得最佳結果,請確認已啟用正確的外掛程式。
系統的設計旨在回應與安全性網域相關的提示,例如事件調查和威脅情報。 超出安全性範圍的提示可能會導致回應缺乏正確性和完整性。
Security Copilot 可能會產生程式代碼或在回應中包含程序代碼,如果不謹慎使用,可能會公開敏感性資訊或弱點。 回應可能看似有效,但實際上可能在語意或語法上並不正確,或可能無法正確反應開發人員的意圖。 使用者應一律採取相同的預防措施一如其在使用使用者非獨立創造的材料編寫程式碼的情況,包括確保其適用性的預防措施。 這包括嚴格的測試、IP 掃描,以及檢查安全性弱點。
與公用程式代碼相符:Security Copilot 能夠產生新的程式代碼,其會以概率方式執行。 雖然可能產生符合定型集中程式代碼的程式代碼機率很低,但 Security Copilot 建議可能包含一些符合定型集中程式碼的代碼段。 使用者應一律採取相同的預防措施一如其在使用開發人員非獨立創造的材料編寫程式碼的情況,包括確保其適用性的預防措施。 這包括嚴格的測試、IP 掃描,以及檢查安全性弱點。
系統可能無法處理冗長的提示,例如數十萬個字元。
使用平臺可能會受限於使用限制或容量節流。 即使提示較短、選擇外掛程式、進行 API 呼叫、產生回應,以及在向使用者顯示回應之前加以檢查可能會花一點時間 (最多可能需要幾分鐘),而且需要高 GPU 容量。
若要將錯誤降至最低,建議使用者遵循 提示指導方針。
哪些操作因素和設定可讓您有效且負責地使用 Security Copilot?
您可以使用日常文字來描述您想要 Security Copilot 執行的動作。 例如:
- 「告訴我我的最新事件」或「摘要此事件」。
當系統產生回應時,您會開始看到系統在程序記錄檔中所採取的步驟,提供再次檢查其程序和來源的機會。
在提示形成期間,您可以隨時取消、編輯、重新執行或刪除提示。
您可以提供關於回應品質的意見反應,包括向 Microsoft 回報任何無法接受的事項。
您可以釘選、共用和匯出回應 - 協助安全性專業人員共同作業和共用觀察。
系統管理員可以控制連線到 Security Copilot 的外掛程式。
您可以選擇、個人化及管理與 Security Copilot 搭配運作的外掛程式。
Security Copilot 建立的提示書,這是一組依序執行以完成特定工作流程的提示。
如何Microsoft負責任 AI 進行 Security Copilot?
在 Microsoft,我們認真對待我們對負責任 AI 的承諾。 Security Copilot 是根據我們的 AI 原則來開發。 我們正與 OpenAI 合作,以提供鼓勵負責任使用的體驗。 例如,我們已經並將繼續與 OpenAI 在基礎模型作業上共同作業。 我們已設計 Security Copilot 用戶體驗,讓人類保持在中心。 我們開發了一個安全系統,其設計旨在減緩失敗風險,並防止誤用有害內容註釋、作業監視和其他保護措施等。 僅限邀請的搶先存取計劃也是我們負責任 AI 方法的一部分。 我們會從早期存取 Security Copilot 的使用者取得使用者意見反應,以改善工具,再將其廣泛提供使用。
負責任的 AI 是一段旅程,我們將在這一過程中持續改善我們的系統。 我們致力於讓我們的 AI 更可靠且值得信任,而您的意見反應將協助我們達成目標。
您是否遵守歐盟 AI 法案?
我們致力於遵守歐盟 AI 法案。我們多年來為定義、發展和實作負責任的 AI 標準和內部治理所做的努力,增強了我們的整備狀態。
在 Microsoft,我們瞭解法規合規性的重要性,是 AI 技術中信任和可靠性的基礎。 我們致力於依設計建立負責任 AI。 我們的目標是開發和部署 AI,對社會產生有利的影響並獲得信任。
我們的工作由一組核心原則所指導: 公平性、可靠性和安全、隱私權和安全性、包容性、透明度和責任。 Microsoft負責任 AI Standard 採用這六個原則,並將它們細分為我們所提供 AI 的目標和需求。
我們負責任的 AI 標準會考慮法規提案及其演進,包括歐盟 AI 法案的初始提案。我們已在 AI 領域開發出最新的產品和服務,例如 Microsoft Copilot 和 Microsoft Azure OpenAI 服務,以符合我們負責任的 AI 標準。 隨著歐盟 AI 法案下的最終需求越見詳細地定義,我們期待與政策制定者合作,以確保規則的可行實作和應用、展示我們的合規性,並與我們的客戶和其他專案關係人互動,以支援整個生態系統的合規性。