Partilhar via


Recomendações de segurança para cargas de trabalho de IA no Azure

Este artigo oferece recomendações de segurança para organizações que executam cargas de trabalho de IA no Azure. Ele se concentra em soluções de plataforma como serviço (PaaS) de IA do Azure, incluindo Azure AI Foundry, Azure OpenAI, Azure Machine Learning e Azure AI Services. Abrange cargas de trabalho de IA generativas e não generativas.

À medida que a IA se torna mais integrada às operações de negócios, proteger esses recursos de ameaças potenciais é crucial para manter a integridade e a conformidade dos dados. Aplicar linhas de base de segurança padronizadas e seguir estruturas bem arquitetadas ajuda as organizações a proteger sua infraestrutura de IA contra vulnerabilidades.

Recursos seguros de IA

Proteger recursos de IA significa aplicar linhas de base de segurança e práticas recomendadas para proteger a infraestrutura usada para cargas de trabalho de IA no Azure. Essa proteção minimiza os riscos de ameaças externas e garante uma postura de segurança consistente em toda a organização.

Proteja as plataformas de IA do Azure. Padronize a aplicação das linhas de base de segurança do Azure para cada recurso de IA. Siga as recomendações de segurança nos Guias de Serviço do Azure dentro do Azure Well-Architected Framework.

Linha de base de segurança da plataforma Azure AI Guia de serviço do Azure Well-Architected Framework
Azure Machine Learning Azure Machine Learning
Azure AI Foundry
Azure OpenAI Azure OpenAI

Proteja os modelos de IA

Proteger modelos de IA refere-se à implementação de proteção contra ameaças, monitoramento de riscos de injeção imediata, verificação da integridade do modelo e centralização da governança. Essas práticas garantem que os modelos de IA permaneçam seguros contra manipulação maliciosa, mantenham sua confiabilidade e forneçam resultados precisos.

  • Implemente proteção contra ameaças para todos os modelos de IA. Use o Microsoft Defender for Cloud para proteger modelos de IA contra ameaças como ataques de injeção imediata e manipulação de modelos. Esta ferramenta fornece monitoramento contínuo de cargas de trabalho de IA, ajudando a detetar e prevenir ameaças emergentes. A implementação dessa proteção em todas as cargas de trabalho garante uma postura de segurança consistente em toda a organização.

  • Monitore as saídas e aplique uma blindagem rápida. Inspecione regularmente os dados retornados por modelos de IA para detetar e mitigar riscos associados a solicitações maliciosas ou imprevisíveis do usuário. Implemente PromptShields para verificar o texto quanto ao risco de um ataque de entrada do usuário em modelos Al generativos.

  • Garantir a verificação do modelo. Estabeleça mecanismos de verificação em toda a empresa para garantir que todos os modelos de IA em uso sejam legítimos e seguros. Se você usa modelos de código aberto, use assinaturas de modelo ou outros processos de verificação para confirmar a autenticidade de modelos de IA, impedindo que modelos não autorizados ou adulterados sejam implantados.

  • Considere o uso de um AI Gateway.O Azure API Management (APIM) pode ajudar a garantir uma segurança consistente em cargas de trabalho de IA. Use suas políticas internas para controle de tráfego e aplicação de segurança. Integre o APIM com o Microsoft Entra ID para centralizar a autenticação e a autorização e garantir que apenas usuários ou aplicativos autorizados interajam com seus modelos de IA. Certifique-se de configurar o acesso com privilégios mínimos na identidade gerenciada do proxy reverso. Para obter mais informações, consulte Autenticação de IA com APIM

Acesso seguro à IA

Proteger o acesso à IA inclui estabelecer controles de autenticação e autorização para o plano de gerenciamento e o acesso externo aos recursos de IA. O gerenciamento de acesso adequado restringe o uso de recursos apenas a usuários com permissões verificadas. Ele reduz as chances de interações não autorizadas com modelos de IA. Controles de acesso fortes, como acesso baseado em função e políticas de acesso condicional, ajudam a proteger dados confidenciais e a manter a conformidade com os padrões de segurança.

  • Organize recursos e controles de acesso. Use espaços de trabalho distintos para organizar e gerenciar artefatos de IA, como conjuntos de dados, modelos e experimentos. Os espaços de trabalho centralizam o gerenciamento de recursos e simplificam o controle de acesso. Por exemplo, use projetos no Azure AI Foundry para gerenciar recursos e permissões de forma eficiente, facilitando a colaboração e mantendo os limites de segurança.

  • Use o Microsoft Entra ID para autenticação. Sempre que possível, elimine as chaves de API estáticas em favor do Microsoft Entra ID para autenticação. Esta etapa aumenta a segurança por meio do gerenciamento centralizado de identidades e reduz a sobrecarga de gerenciamento de segredos. Limite também a distribuição de chaves de API. Em vez disso, prefira identidades no ID do Microsoft Entra em vez de chaves de API para autenticação. Audite a lista de indivíduos com acesso à chave de API para garantir que ela esteja atualizada. Para obter orientações de autenticação, consulte Azure AI Foundry, Azure OpenAI, Azure AI servicesAzure Machine Learning.

  • Configure a autenticação. Habilite a autenticação multifator (MFA) e prefira contas administrativas secundárias ou acesso just-in-time com o Privileged Identity Management (PIM) para contas confidenciais. Limite o acesso ao plano de controle usando serviços como o Azure Bastion como pontos de entrada seguros em redes privadas.

  • Use políticas de acesso condicional. Implemente políticas de acesso condicional baseadas em risco que respondam a atividades de início de sessão incomuns ou a comportamentos suspeitos. Utilize sinais como a localização do utilizador, o estado do dispositivo e o comportamento de início de sessão para disparar passos de verificação adicionais. Exigir MFA para acessar recursos críticos de IA para aumentar a segurança. Restrinja o acesso à infraestrutura de IA com base em localizações geográficas ou intervalos de IP confiáveis. Certifique-se de que apenas dispositivos compatíveis (aqueles que atendem aos requisitos de segurança) possam acessar recursos de IA.

  • Configure o acesso com privilégios mínimos. Configure o acesso com privilégios mínimos implementando o RBAC (controle de acesso baseado em função) para fornecer acesso mínimo a dados e serviços. Atribua funções a usuários e grupos com base em suas responsabilidades. Use o RBAC do Azure para ajustar o controle de acesso para recursos específicos, como máquinas virtuais e contas de armazenamento. Certifique-se de que os usuários tenham apenas o nível mínimo de acesso necessário para executar suas tarefas. Revise e ajuste regularmente as permissões para evitar o aumento de privilégios. Por exemplo,

    Role Permissões de exemplo
    Cientistas de dados Acesso de leitura/gravação ao armazenamento de dados, permissão para executar trabalhos de treinamento e acesso a ambientes de treinamento modelo.
    Desenvolvedores de IA Acesso a ambientes de desenvolvimento, permissões de implantação e a capacidade de modificar aplicativos de IA.
    Administradores de TI Acesso total para gerenciar infraestrutura, configurações de rede e políticas de segurança.
  • Proteja as interações serviço-a-serviço do Azure. Use a identidade gerenciada para permitir que os serviços do Azure se autentiquem uns aos outros sem gerenciar credenciais.

  • Acesso externo seguro a endpoints de modelo de IA. Exija que os clientes se autentiquem usando o Microsoft Entra ID ao acessar pontos de extremidade de modelo de IA. Considere usar o Gerenciamento de API do Azure como um gateway de IA na frente de pontos de extremidade de modelo de IA para impor políticas de acesso, controlar o uso e fornecer recursos de monitoramento.

Execução segura de IA

Proteger a execução de IA envolve proteger os processos pelos quais os agentes de IA, como assistentes virtuais ou agentes autônomos, executam código em resposta às solicitações do usuário. Isolar os ambientes de execução, realizar revisões de código e definir limites de recursos. Essas medidas ajudam a garantir que essas execuções não comprometam a estabilidade ou a segurança do sistema. Essas práticas evitam atividades maliciosas e protegem a integridade dos sistemas nos quais os agentes de IA operam, permitindo que eles funcionem de forma confiável dentro de uma estrutura segura.

  • Implementar mecanismos de isolamento. Utilize o gerenciamento dinâmico de sessão, como Sessões Dinâmicas em Aplicativos de Contêiner do Azure, para garantir que cada execução de código ocorra em um ambiente novo e isolado que é destruído após o uso.

  • Código de execução seguro. Realize revisões e testes de código completos antes de implantar scripts para execução por agentes de IA. Este processo ajuda a identificar e mitigar potenciais vulnerabilidades. Use sistemas de controle de versão para gerenciar alterações de código e garantir que apenas versões aprovadas de scripts sejam executadas.

  • Implementar limites de recursos. Defina limites de recursos (CPU, memória, uso de disco) para ambientes de execução de código para evitar que qualquer execução única consuma recursos excessivos e potencialmente interrompa outros serviços. Defina tempos limite de execução para garantir que os processos de longa execução ou potencialmente bloqueados sejam encerrados automaticamente.

Para obter mais informações, consulte Como criar assistentes com o Serviço OpenAI do Azure, Como usar a chamada de função dos Assistentes OpenAI do Azure e Implementação do agente.

Próximo passo