Partilhar via


Perguntas frequentes sobre a IA responsável

O que é o Copilot da Segurança da Microsoft? 

Security Copilot é uma linguagem natural, é uma solução de segurança gerada com tecnologia de IA que ajuda a aumentar a eficiência e as capacidades dos defensores para melhorar os resultados de segurança à velocidade e dimensionamento da máquina. Desenha contexto de plug-ins e dados para responder a pedidos para que os profissionais de segurança e os administradores de TI possam ajudar a manter as suas organizações seguras.

O que Security Copilot pode fazer? 

Security Copilot ajuda a responder a perguntas em linguagem natural para que possa receber respostas acionáveis a tarefas comuns de SEGURANÇA e TI em segundos.

Microsoft Security Copilot ajuda nos seguintes cenários:

  • Investigação e remediação de segurança
    Obtenha contexto para incidentes para fazer rapidamente a triagem de alertas de segurança complexos em resumos acionáveis e remediar mais rapidamente com orientações de resposta passo a passo.

  • Análise de scripts e criação de consultas KQL
    Elimine a necessidade de escrever manualmente scripts de linguagem de consulta ou scripts de software maligno de engenharia inversa com tradução de linguagem natural para permitir que todos os membros da equipa executem tarefas técnicas.

  • Exploração de riscos e gestão da postura de segurança
    Obtenha uma visão geral do seu ambiente com riscos prioritários para descobrir oportunidades para melhorar a postura mais facilmente.

  • Resolução de problemas de TI mais rápida
    Sintetize rapidamente informações relevantes e receba informações acionáveis para identificar e resolve problemas de TI rapidamente.

  • Criação e gestão de políticas de segurança
    Defina uma nova política, faça uma referência cruzada com outras pessoas para conflitos e resuma as políticas existentes para gerir o contexto organizacional complexo de forma rápida e fácil.

  • Configuração do fluxo de trabalho do ciclo de vida
    Crie grupos e defina parâmetros de acesso com orientação passo a passo para garantir uma configuração totalmente integrada para evitar vulnerabilidades de segurança.

  • Relatórios dos intervenientes
    Obtenha um relatório claro e conciso que resume o contexto e o ambiente, as questões abertas e as medidas de proteção preparadas para o tom e a linguagem da audiência do relatório.

Qual é Security Copilot utilização pretendida? 

Security Copilot ajuda a suportar profissionais de segurança em cenários ponto a ponto, como resposta a incidentes, investigação de ameaças, recolha de informações e gestão da postura. Para obter mais informações, veja Casos de utilização e funções.

Como foi avaliada Security Copilot? Quais métricas são usadas para medir o desempenho? 

Security Copilot submetido a testes substanciais antes de ser libertado. Os testes incluíam agrupamento vermelho, que é a prática de testar rigorosamente o produto para identificar modos de falha e cenários que podem fazer Security Copilot fazer ou dizer coisas fora das utilizações pretendidas ou que não suportam os Princípios de IA da Microsoft.

Agora que ele foi lançado, os comentários do usuário são fundamentais para ajudar a Microsoft a melhorar o sistema. Tem a opção de fornecer feedback sempre que receber a saída de Security Copilot. Quando uma resposta for imprecisa, incompleta ou pouco clara, utilize os botões "Fora do destino" e "Relatório" para sinalizar qualquer saída censurável. Você também pode confirmar quando as respostas são úteis e precisas usando o botão "Confirmar". Estes botões são apresentados na parte inferior de cada resposta Security Copilot e os seus comentários vão diretamente para a Microsoft para nos ajudar a melhorar o desempenho da plataforma.

Quais são as limitações da Security Copilot? Como podem os utilizadores minimizar o impacto das limitações da Security Copilot ao utilizar o sistema? 

  • O Programa de Acesso Antecipado foi concebido para dar aos clientes a oportunidade de obterem acesso antecipado aos Security Copilot e fornecerem feedback sobre a plataforma. Os recursos de versão prévia não são destinados ao uso da produção e podem ter funcionalidade limitada. 

  • Como qualquer tecnologia com tecnologia de IA, Security Copilot não acerta tudo. No entanto, você pode ajudar a melhorar as respostas que ele gera enviando suas observações usando a ferramenta de comentários, que é incorporada à plataforma.  

  • O sistema poderá gerar respostas obsoletas se não receber os dados mais atuais por meio de plug-ins ou entrada do usuário. Para alcançar os melhores resultados, verifique se os plug-ins certos estão habilitados.

  • O sistema foi projetado para responder a solicitações relacionadas ao domínio de segurança, como investigação de incidentes e inteligência contra ameaças. Solicitações fora do escopo de segurança podem resultar em respostas que não são precisas nem abrangentes.

  • Security Copilot podem gerar código ou incluir código em respostas, o que pode potencialmente expor informações ou vulnerabilidades confidenciais se não forem utilizadas cuidadosamente. As respostas podem parecer válidas, mas podem não ser semântica ou sintaticamente corretas ou podem não refletir com precisão a intenção do desenvolvedor. Os usuários devem sempre tomar as mesmas precauções que fariam com qualquer código que escrevem que usa material que usuários não se originam independentemente, incluindo precauções para garantir sua adequação. Estes incluem testes rigorosos, verificação de IP e verificação de vulnerabilidades de segurança.

  • Correspondências com o Código Público: Security Copilot é capaz de gerar novo código, o que faz de forma probabilística. Embora a probabilidade de produzir código que corresponda ao código no conjunto de preparação seja baixa, uma sugestão de Security Copilot pode conter alguns fragmentos de código que correspondam ao código no conjunto de preparação. Os usuários devem sempre tomar as mesmas precauções que fariam com qualquer código que escrevem que usa material que desenvolvedores não se originam independentemente, incluindo precauções para garantir sua adequação. Estes incluem testes rigorosos, verificação de IP e verificação de vulnerabilidades de segurança.

  • O sistema pode não ser capaz de processar solicitações longas, como centenas de milhares de caracteres.

  • A utilização da plataforma pode estar sujeita a limites de utilização ou limitação de capacidade. Mesmo com solicitações mais curtas, escolher um plug-in, fazer chamadas de API, gerar respostas e verificá-las antes de exibi-las ao usuário pode demorar (até vários minutos) e exige alta capacidade de GPU. 

  • Para minimizar erros, os usuários são aconselhados a seguir as diretrizes de solicitação

Que fatores operacionais e definições permitem uma utilização eficaz e responsável dos Security Copilot? 

  • Pode utilizar palavras do dia-a-dia para descrever o que gostaria que Security Copilot fazer. Por exemplo:

    • "Fale-me dos meus incidentes mais recentes" ou "Resumir este incidente".
  • À medida que o sistema gera a resposta, você começa a ver as etapas que o sistema está realizando no log do processo, fornecendo oportunidades para verificar novamente seus processos e fontes.  

  • A qualquer momento durante a formação da solicitação, você pode cancelar, editar, executar novamente ou excluir uma solicitação. 

  • Você pode enviar comentários sobre a qualidade de uma resposta, incluindo relatar à Microsoft qualquer coisa inaceitável. 

  • As respostas podem ser fixadas, compartilhadas e exportadas, ajudando os profissionais de segurança a colaborar e compartilhar observações. 

  • Os administradores têm controlo sobre os plug-ins que se ligam ao Security Copilot.   

  • Pode escolher, personalizar e gerir plug-ins que funcionam com Security Copilot.

  • Security Copilot os promptbooks criados, que são um grupo de pedidos executados em sequência para concluir um fluxo de trabalho específico.

Como é que a Microsoft está a aproximar-se da IA responsável para Security Copilot?

Na Microsoft, levamos a sério nosso compromisso com a IA responsável. Security Copilot está a ser desenvolvida de acordo com os nossos princípios de IA. Estamos trabalhando com o OpenAI para oferecer uma experiência que incentiva o uso responsável. Por exemplo, estamos colaborando e continuaremos a colaborar com o OpenAI no trabalho de modelo fundamental. Concebemos o Security Copilot experiência do utilizador para manter os humanos no centro. Desenvolvemos um sistema de segurança feito para mitigar falhas e evitar o uso indevido de coisas como anotação de conteúdo prejudicial, monitoramento operacional e outras proteções. O programa de acesso antecipado somente para convidados também faz parte da nossa abordagem para a IA responsável. Estamos a receber feedback dos utilizadores das pessoas com acesso antecipado ao Security Copilot para melhorar a ferramenta antes de a disponibilizar amplamente.

A IA responsável é uma jornada e vamos melhorar continuamente nossos sistemas ao longo do caminho. Estamos comprometidos em tornar nossa IA mais confiável e segura, e seus comentários nos ajudarão a fazê-lo.

Você está em conformidade com a Lei de IA da UE?

Temos o compromisso com a conformidade com a Lei de IA da UE. Nosso esforço de vários anos para definir, evoluir e implementar nosso Padrão de IA responsável e governança interna fortaleceu nossa preparação.

Na Microsoft, reconhecemos a importância da conformidade regulatória como um alicerce da confiança e confiabilidade nas tecnologias de IA. Estamos empenhados em criar IA responsável por predefinição. Nosso objetivo é desenvolver e implantar IA que tenha um impacto positivo e ganhe a confiança da sociedade.

Nosso trabalho é orientado por um conjunto principal de princípios: imparcialidade, confiabilidade e segurança, privacidade e proteção, inclusão, transparência e responsabilidade. O Standard de IA Responsável da Microsoft utiliza estes seis princípios e divide-os em objetivos e requisitos para a IA que disponibilizamos.

Nosso Padrão de IA Responsável considera as propostas regulatórias e sua evolução, incluindo a proposta inicial da Lei de IA da UE. Desenvolvemos nossos produtos e serviços mais recentes no espaço de IA, como o Microsoft Copilot e o Serviço OpenAI do Microsoft Azure em alinhamento com nosso Padrão de IA Responsável. À medida que as exigências finais na Lei de IA da UE são definidas com mais detalhes, esperamos trabalhar com os legisladores para garantir a implementação e a aplicação viáveis das regras, demonstrar nossa conformidade e se envolver com nossos clientes e outros interessados para apoiar a conformidade em todo o ecossistema.