다음을 통해 공유


책임 있는 AI FAQ

Microsoft Security Copilot이란? 

Security Copilot 자연어이며, 기계 속도와 규모로 보안 결과를 개선하기 위해 수비수의 효율성과 기능을 높이는 데 도움이 되는 생성 AI 기반 보안 솔루션입니다. 보안 전문가와 IT 관리자가 조직의 보안을 유지할 수 있도록 플러그 인 및 데이터에서 컨텍스트를 그려 프롬프트에 응답합니다.

Security Copilot 무엇을 할 수 있습니까? 

Security Copilot 일반적인 보안 및 IT 작업에 대한 실행 가능한 응답을 초 단위로 받을 수 있도록 자연어로 질문에 답변하는 데 도움이 됩니다.

Microsoft Security Copilot 다음 시나리오에서 도움이 됩니다.

  • 보안 조사 및 수정
    인시던트에 대한 컨텍스트를 확보하여 복잡한 보안 경고를 실행 가능한 요약으로 신속하게 심사하고 단계별 대응 지침을 사용하여 더 빠르게 수정합니다.

  • 스크립트 분석 및 KQL 쿼리 만들기
    모든 팀 구성원이 기술 작업을 실행할 수 있도록 쿼리 언어 스크립트를 수동으로 작성하거나 자연어 번역을 사용하여 맬웨어 스크립트를 리버스 엔지니어링할 필요가 없습니다.

  • 위험 탐색 및 보안 태세 관리
    우선 순위가 지정된 위험으로 환경을 광범위하게 파악하여 자세를 보다 쉽게 개선할 수 있는 기회를 파악하세요.

  • 더 빠른 IT 문제 해결
    관련 정보를 신속하게 합성하고 실행 가능한 인사이트를 받아 IT 문제를 신속하게 식별하고 resolve.

  • 보안 정책 만들기 및 관리
    새 정책을 정의하고, 충돌을 위해 다른 사용자와 상호 참조하고, 기존 정책을 요약하여 복잡한 조직 컨텍스트를 빠르고 쉽게 관리합니다.

  • 수명 주기 워크플로 구성
    보안 취약성을 방지하기 위한 원활한 구성을 보장하기 위해 단계별 지침을 사용하여 그룹을 빌드하고 액세스 매개 변수를 설정합니다.

  • 관련자 보고
    보고서 대상 그룹의 톤과 언어에 대해 준비된 컨텍스트 및 환경, 열린 문제 및 보호 조치를 요약한 명확하고 간결한 보고서를 가져옵니다.

Security Copilot 용도는 무엇인가요? 

Security Copilot 인시던트 대응, 위협 헌팅, 인텔리전스 수집 및 자세 관리와 같은 엔드 투 엔드 시나리오에서 보안 전문가를 지원하는 데 도움이 됩니다. 자세한 내용은 사례 및 역할 사용을 참조하세요.

Security Copilot 어떻게 평가되었나요? 성능을 측정하는 데 사용되는 메트릭은 무엇인가요? 

Security Copilot 출시되기 전에 상당한 테스트를 거쳤습니다. 테스트에는 제품을 엄격하게 테스트하여 Security Copilot 의도한 용도 이외의 작업을 수행하거나 말하거나 Microsoft AI 원칙을 지원하지 않는 오류 모드 및 시나리오를 식별하는 관행인 빨간색 팀이 포함되었습니다.

이제 릴리스되었으므로 Microsoft에서 시스템을 개선하는 데 사용자 피드백이 중요합니다. Security Copilot 출력을 받을 때마다 피드백을 제공할 수 있습니다. 응답이 부정확하거나 불완전하거나 명확하지 않은 경우 "오프 대상" 및 "보고서" 단추를 사용하여 불쾌한 출력에 플래그를 지정합니다. "확인" 단추를 사용하여 응답이 유용하고 정확한지 확인할 수도 있습니다. 이러한 단추는 모든 Security Copilot 응답의 맨 아래에 표시되며 피드백은 플랫폼 성능을 개선하는 데 도움이 되도록 Microsoft로 직접 이동합니다.

Security Copilot 제한 사항은 무엇인가요? 사용자는 시스템을 사용할 때 Security Copilot 제한 사항의 영향을 최소화하려면 어떻게 할까요? 

  • 조기 액세스 프로그램은 고객에게 Security Copilot 대한 조기 액세스를 제공하고 플랫폼에 대한 피드백을 제공할 수 있는 기회를 제공하도록 설계되었습니다. 미리 보기 기능은 프로덕션용이 아니며 기능이 제한될 수 있습니다. 

  • AI 기반 기술과 마찬가지로 Security Copilot 모든 것이 제대로 작동하지는 않습니다. 그러나 플랫폼에 기본 제공되는 피드백 도구를 사용하여 관찰을 제공하여 응답을 개선할 수 있습니다.  

  • 시스템이 사용자 입력 또는 플러그 인을 통해 최신 데이터를 제공하지 않으면 부실 응답을 생성할 수 있습니다. 최상의 결과를 얻으려면 올바른 플러그 인이 사용하도록 설정되어 있는지 확인합니다.

  • 시스템은 인시던트 조사 및 위협 인텔리전스와 같은 보안 도메인과 관련된 프롬프트에 응답하도록 설계되었습니다. 보안 범위를 벗어난 프롬프트로 인해 정확도와 포괄적성이 부족한 응답이 발생할 수 있습니다.

  • Security Copilot 코드를 생성하거나 응답에 코드를 포함할 수 있으며, 신중하게 사용하지 않으면 중요한 정보 또는 취약성을 노출할 수 있습니다. 응답이 유효한 것처럼 보이지만 실제로 의미 체계나 구문상 올바르지 않거나 개발자의 의도를 정확하게 반영하지 않을 수 있습니다. 사용자는 적합성을 보장하기 위한 예방 조치를 포함하여 사용자가 독립적으로 생성하지 않은 자료를 사용하여 작성하는 모든 코드와 항상 동일한 예방 조치를 취해야 합니다. 여기에는 엄격한 테스트, IP 검사 및 보안 취약성 확인이 포함됩니다.

  • 공용 코드와 일치: Security Copilot 확률적인 방식으로 수행하는 새 코드를 생성할 수 있습니다. 학습 집합의 코드와 일치하는 코드를 생성할 확률은 낮지만 Security Copilot 제안에는 학습 집합의 코드와 일치하는 일부 코드 조각이 포함될 수 있습니다. 사용자는 적합성을 보장하기 위한 예방 조치를 포함하여 개발자가 독립적으로 생성하지 않은 자료를 사용하여 작성하는 모든 코드와 항상 동일한 예방 조치를 취해야 합니다. 여기에는 엄격한 테스트, IP 검사 및 보안 취약성 확인이 포함됩니다.

  • 시스템에서는 수십만 문자와 같은 긴 프롬프트를 처리하지 못할 수 있습니다.

  • 플랫폼 사용에는 사용 제한 또는 용량 제한이 적용될 수 있습니다. 프롬프트가 더 짧더라도 플러그 인을 선택하고, API를 호출하고, 응답을 생성하고, 사용자에게 표시하기 전에 확인하는 데 시간이 걸리고(최대 몇 분) 높은 GPU 용량이 필요할 수 있습니다. 

  • 오류를 최소화하려면 프롬프트 지침을 따르는 것이 좋습니다. 

Security Copilot 효과적이고 책임감 있는 사용을 허용하는 운영 요인 및 설정은 무엇인가요? 

  • 일상적인 단어를 사용하여 Security Copilot 원하는 작업을 설명할 수 있습니다. 예시:

    • "내 최신 인시던트에 대해 알려주세요" 또는 "이 인시던트 요약"
  • 시스템이 응답을 생성하면 프로세스 로그에서 시스템이 수행하는 단계를 볼 수 있으므로 프로세스와 소스를 다시 확인할 수 있습니다.  

  • 프롬프트가 생성되는 동안 언제든지 프롬프트를 취소, 편집, 다시 실행 또는 삭제할 수 있습니다. 

  • Microsoft에 허용되지 않는 내용을 보고하는 등 응답 품질에 대한 피드백을 제공할 수 있습니다. 

  • 응답을 고정, 공유 및 내보낼 수 있으므로 보안 전문가가 관찰을 공동 작업하고 공유할 수 있습니다. 

  • 관리자는 Security Copilot 연결하는 플러그 인을 제어할 수 있습니다.   

  • Security Copilot 작동하는 플러그 인을 선택, 개인 설정 및 관리할 수 있습니다.

  • Security Copilot 특정 워크플로를 완료하기 위해 순서대로 실행되는 프롬프트 그룹인 프롬프트북을 만들었습니다.

Microsoft는 Security Copilot 책임 있는 AI에 어떻게 접근하고 있나요?

Microsoft는 책임 있는 AI에 대한 약속을 중요하게 생각합니다. Security Copilot AI 원칙에 따라 개발되고 있습니다. Microsoft는 책임 있는 사용을 권장하는 환경을 제공하기 위해 OpenAI와 협력하고 있습니다. 예를 들어 기본 모델 작업에 대해 OpenAI와 공동 작업을 진행하고 계속 진행합니다. 우리는 인간을 중심에 두기 위해 Security Copilot 사용자 환경을 설계했습니다. Microsoft는 유해한 콘텐츠 주석, 운영 모니터링 및 기타 보호 장치와 같은 기능을 통해 오류를 완화하고 오용을 방지하도록 설계된 안전 시스템을 개발했습니다. 초대 전용 초기 액세스 프로그램은 책임 있는 AI에 대한 접근 방식의 일부이기도 합니다. 도구를 광범위하게 사용할 수 있도록 하기 전에 도구를 개선하기 위해 Security Copilot 대한 초기 액세스 권한이 있는 사용자 피드백을 받고 있습니다.

책임 있는 AI는 여정이며, 그 과정에서 시스템을 지속적으로 개선할 것입니다. MICROSOFT는 AI를 더 안정적이고 신뢰할 수 있게 만들기 위해 최선을 다하고 있으며, 여러분의 피드백이 도움이 될 것입니다.

EU AI법을 준수하시나요?

Microsoft는 EU AI 법을 준수하기 위해 최선을 다하고 있습니다. 책임 있는 AI 표준과 내부 거버넌스를 정의, 발전 및 구현하기 위한 다년간의 노력은 준비 태세를 강화했습니다.

Microsoft는 규정 준수의 중요성을 AI 기술에서 신뢰와 안정성의 초석으로 인식하고 있습니다. 우리는 의도적으로 책임 있는 AI를 만들기 위해 최선을 다하고 있습니다. 우리의 목표는 사회로부터 신뢰와 신뢰를 얻는 데 도움이 되는 AI를 개발하고 배포하는 것입니다.

Microsoft의 업무는 공정성, 신뢰성 및 안전, 개인 정보 보호 및 보안, 포용성, 투명성 및 책임과 같은 핵심 원칙에 따라 진행됩니다. Microsoft의 책임 있는 AI Standard 이러한 6가지 원칙을 취하여 사용할 수 있는 AI에 대한 목표와 요구 사항으로 나눕니다.

Google의 책임 있는 AI 표준은 EU AI 법의 초기 제안을 포함하여 규제 제안과 그 진화를 고려합니다. Microsoft는 책임 있는 AI 표준에 따라 Microsoft Copilot 및 Microsoft Azure OpenAI Service와 같은 AI 공간에서 최신 제품 및 서비스를 개발했습니다. EU AI 법에 따른 최종 요구 사항이 더 자세히 정의됨에 따라 Microsoft는 정책 입안자와 협력하여 규칙의 실현 가능한 구현 및 적용을 보장하고, 규정 준수를 입증하고, 고객 및 기타 이해 관계자와 협력하여 에코시스템 전반에 걸쳐 규정 준수를 지원할 수 있기를 기대합니다.