Avaliar a segurança dos Serviços de IA

Concluído

Esta unidade apresenta um resumo das recomendações do Well Architected Framework para proteger o OpenAI do Azure

Para obter mais informações, consulte Perspectiva do Azure Well-Architected Framework sobre o Serviço OpenAI do Azure

O objetivo do pilar Segurança é fornecer garantias de confidencialidade, integridade e disponibilidade para a carga de trabalho.

Os princípios de design de Segurança fornecem uma estratégia de design de alto nível para atingir esses objetivos aplicando abordagens ao design técnico em torno do OpenAI do Azure.

Lista de verificação de projeto

Inicie sua estratégia de design com base na lista de verificação de revisão de design para Segurança e identifique vulnerabilidades e controles para melhorar a postura de segurança. Em seguida, revise a linha de base de segurança do Azure para o OpenAI do Azure. Por fim, estenda a estratégia para incluir mais abordagens, conforme necessário.

  • Proteger a confidencialidade: Se você carregar dados de treinamento no OpenAI do Azure, use as chaves gerenciadas pelo cliente para criptografia de dados, implementar uma estratégia de rotação de chaves e excluir dados de treinamento, validação e resultados de treinamento. Se você usar um armazenamento de dados externo para dados de treinamento, siga as melhores práticas de segurança para esse armazenamento. Por exemplo, para o Armazenamento de Blobs do Azure, use chaves gerenciadas pelo cliente para criptografia e implemente uma estratégia de rotação de chaves. Use o acesso gerenciado baseado em identidade, implemente um perímetro de rede usando pontos de extremidade privados e habilite os logs de acesso.

  • Proteger a confidencialidade: Proteja-se contra a exfiltração de dados limitando as URLs de saída que os recursos do OpenAI do Azure podem acessar.

  • Proteger a integridade: Implemente controles de acesso para autenticar e autorizar o acesso do usuário ao sistema usando o princípio de privilégios mínimos e usando identidades individuais em vez de chaves.

  • Proteger a integridade: Implemente a detecção de risco de jailbreak para garantia da suas implantações de modelos de linguagem contra ataques de injeção de solicitação.

  • Proteger a disponibilidade: Use controles de segurança para evitar ataques que possam esgotar as cotas de uso do modelo. Você pode configurar controles para isolar o serviço em uma rede. Se o serviço precisar ser acessado pela Internet, considere o uso de um gateway para bloquear suspeitas de abuso por meio de roteamento ou limitação.

Recomendações

Recomendação Benefício
Chaves seguras: Se sua arquitetura exigir autenticação baseada em chave do OpenAI do Azure, armazene essas chaves no Azure Key Vault, não no código do aplicativo. Separar os segredos do código, armazenando-os no Key Vault, reduz a chance de vazamento de segredos. A separação também facilita o gerenciamento central dos segredos, facilitando responsabilidades como a rotação de chaves.
Acesso restrito: Desabilitar o acesso público ao OpenAI do Azure, a menos que sua carga de trabalho exija isso. Crie pontos de extremidade privados se estiver se conectando a partir de consumidores em uma rede virtual do Azure. O controle do acesso ao OpenAI do Azure ajuda a evitar ataques de usuários não autorizados. O uso de pontos de extremidade privados garante que o tráfego de rede permaneça privado entre o aplicativo e a plataforma.
Microsoft Entra ID: Use o Microsoft Entra ID para autenticação e para autorizar o acesso ao OpenAI do Azure usando o controle de acesso baseado em função (RBAC). Desabilite a autenticação local nos Serviços de IA do Azure e defina disableLocalAuth como true. Conceda às identidades que realizam conclusões ou geração de imagens a função Usuário do OpenAI de Serviços Cognitivos. Conceda às pipelines de automação de modelos e ao acesso ad-hoc de ciência de dados um papel como Colaborador do OpenAI de Serviços Cognitivos. O uso do Microsoft Entra ID centraliza o componente de gerenciamento de identidade e elimina o uso de chaves de API. O uso do RBAC com o Microsoft Entra ID garante que os usuários ou grupos tenham exatamente as permissões necessárias para realizar seu trabalho. Esse tipo de controle de acesso refinado não é possível com as chaves de API do OpenAI do Azure.
Usar chaves gerenciadas pelo cliente: Usar chaves gerenciadas pelo cliente para modelos ajustados e dados de treinamento que são carregados no OpenAI do Azure. O uso de chaves gerenciadas pelo cliente oferece maior flexibilidade para criar, girar, desabilitar e revogar controles de acesso.
Proteja-se contra ataques de jailbreak: Use o Estúdio de Segurança de Conteúdo de IA do Azure para detectar riscos de jailbreak. Detecte tentativas de jailbreak para identificar e bloquear prompts que tentam contornar os mecanismos de segurança de suas implantações do OpenAI do Azure.