Compartilhar via


Recomendações de segurança para cargas de trabalho de IA no Azure

Este artigo contém recomendações de segurança para organizações que executam cargas de trabalho de IA no Azure. Ele se concentra em soluções de PaaS (plataforma como serviço) de IA do Azure, incluindo Estúdio de IA do Azure, OpenAI do Azure, Azure Machine Learning e Serviços de IA do Azure. Ele abrange cargas de trabalho de IA generativa e não generativa.

Quanto mais a IA se integra às operações de negócios, mais importante se torna a proteção desses recursos contra possíveis ameaças para manter a integridade e a conformidade dos dados. Aplicar linhas de base de segurança padronizadas e seguir as estruturas bem arquitetadas ajudam as organizações a proteger sua infraestrutura de IA contra vulnerabilidades.

Proteger recursos de IA

Proteger recursos de IA significa aplicar linhas de base de segurança e práticas recomendadas para proteger a infraestrutura usada para cargas de trabalho de IA no Azure. Essa proteção minimiza os riscos de ameaças externas e promove uma postura de segurança consistente na organização.

Proteja as plataformas de IA do Azure. Padronize a aplicação de linhas de base de segurança do Azure em todos os recursos de IA. Siga as recomendações de segurança nos Guias de Serviço do Azure no Azure Well-Architected Framework.

Linha de base de segurança da plataforma de IA do Azure Guia de serviço do Azure Well-Architected Framework
Azure Machine Learning Azure Machine Learning
Estúdio de IA do Azure
OpenAI do Azure OpenAI do Azure

Proteger os modelos de IA

Proteger os modelos de IA refere-se à implementação de proteção contra ameaças, ao monitoramento de riscos por injeção de prompts, à verificação da integridade do modelo e à centralização da governança. Essas práticas garantem que os modelos de IA permaneçam protegidos contra manipulação mal-intencionada, mantenham sua confiabilidade e gerem resultados precisos.

  • Implemente a proteção contra ameaças para todos os modelos de IA. Use o Microsoft Defender para Nuvem para proteger os modelos de IA contra ameaças como ataques de injeção de prompts e manipulação de modelos. Essa ferramenta faz o monitoramento contínuo de cargas de trabalho de IA, ajudando a detectar e prevenir ameaças emergentes. A implementação dessa proteção em todas as cargas de trabalho promove uma postura de segurança consistente na organização.

  • Monitore os resultados e aplique a blindagem de prompt. Inspecione regularmente os dados que os modelos de IA retornam para detectar e atenuar os riscos associados a prompts de usuários mal-intencionados ou imprevisíveis. Implemente a Blindagem de Prompt para procurar no texto riscos de ataque de entrada de usuário em modelos de IA generativa.

  • Faça a verificação do modelo. Estabeleça mecanismos de verificação em toda a empresa para que todos os modelos de IA em uso sejam legítimos e seguros. Se você usar modelos de código aberto, use assinaturas de modelo ou outros processos de verificação para confirmar a autenticidade dos modelos de IA, impedindo que modelos não autorizados ou adulterados sejam implantados.

  • Use um Gateway de IA. O APIM (Gerenciamento de API do Azure) pode ajudar a proteger as cargas de trabalho de IA com consistência. Use suas políticas internas para controle de tráfego e aplicação de segurança. Integre o APIM ao Microsoft Entra ID para centralizar a autenticação e a autorização. Dessa forma, apenas usuários ou aplicativos autorizados podem interagir com seus modelos de IA. Configure o acesso com privilégios mínimos na identidade gerenciada do proxy reverso. Para obter mais informações, consulte Autenticação com APIM para IA.

Proteger acesso à IA

A proteção do acesso à IA envolve estabelecer controles de autenticação e autorização para o plano de gerenciamento e o acesso externo aos recursos de IA. O gerenciamento de acesso adequado restringe o uso de recursos apenas a usuários com permissões verificadas. Reduz as chances de interações não autorizadas com modelos de IA. Controles de acesso fortes, como acesso baseado em função e políticas de acesso condicional, ajudam a proteger dados confidenciais e a manter a conformidade com os padrões de segurança.

  • Organize recursos e controles de acesso. Use espaços de trabalho distintos para organizar e gerenciar artefatos de IA, como conjuntos de dados, modelos e experimentos. Os espaços de trabalho centralizam o gerenciamento de recursos e simplificam o controle de acesso. Por exemplo, use projetos no Estúdio de IA do Azure para gerenciar recursos e permissões com eficiência, o que facilita a colaboração e mantém os limites de segurança.

  • Você pode usar o Microsoft Entra ID para autenticação. Sempre que possível, elimine as chaves de API estáticas em favor do Microsoft Entra ID para fins de autenticação. Essa etapa aumenta a segurança por meio do gerenciamento centralizado de identidades e reduz a sobrecarga de gerenciamento de segredos. Limite também a distribuição de chaves de API. Dê preferência a identidades no Microsoft Entra ID em vez de chaves de API para fazer autenticação. Audite a lista de indivíduos com acesso à chave de API para que ela esteja sempre atualizada. Para obter orientações sobre autenticação, consulte Estúdio de IA do Azure, OpenAI do Azure, serviços de IA do Azure e Azure Machine Learning.

  • Configure a autenticação. Habilite a autenticação multifator (MFA) e prefira contas administrativas secundárias ou acesso just-in-time com o Privileged Identity Management (PIM) para contas confidenciais. Limite o acesso ao painel de controle usando serviços como o Azure Bastion como pontos de entrada seguros em redes privadas.

  • Use políticas de acesso condicional. Implemente políticas de acesso condicional baseadas em risco que respondam a atividades de entrada incomuns ou a comportamento suspeito. Use sinais como localização do usuário, estado do dispositivo e comportamento de login para acionar etapas extras de verificação. Exija a MFA para acessar recursos críticos de IA para aumentar a segurança. Restrinja o acesso à infraestrutura de IA com base em localizações geográficas ou intervalos de IP confiáveis. Conceda acesso aos recursos de IA somente para dispositivos compatíveis (que atendem aos requisitos de segurança).

  • Configure o acesso com privilégios mínimos. Configure o acesso com privilégios mínimos implementando o RBAC (controle de acesso baseado em função) para conceder acesso mínimo a dados e serviços. Atribua funções a usuários e grupos com base em suas responsabilidades. Use o RBAC do Azure para ajustar o controle de acesso para recursos específicos, como máquinas virtuais e contas de armazenamento. Conceda aos usuários apenas o nível mínimo de acesso necessário para realizar suas tarefas. Revise e ajuste regularmente as permissões para evitar o aumento de privilégios. Por exemplo,

    Função Exemplos de permissões
    Cientistas de dados Acesso de leitura/gravação ao armazenamento de dados, permissão para executar trabalhos de treinamento e acesso a ambientes de treinamento de modelo.
    Desenvolvedores de IA Acesso a ambientes de desenvolvimento, permissões de implantação e capacidade de modificar aplicativos de IA.
    Administradores de TI Acesso total para gerenciar infraestrutura, configurações de rede e políticas de segurança.
  • Proteja as interações de serviço a serviço do Azure. Use a identidade gerenciada para permitir que os serviços do Azure se autentiquem entre si sem gerenciar credenciais.

  • Proteja o acesso externo aos pontos de extremidade do modelo de IA. Exija que os clientes façam a autenticação usando o Microsoft Entra ID ao acessar pontos de extremidade de modelos de IA. Use o Gerenciamento de API do Azure como gateway de IA na frente de pontos de extremidade de modelos de IA para aplicar políticas de acesso, controlar o uso e fornecer recursos de monitoramento.

Proteger a execução de IA

Proteger a execução de IA envolve proteger os processos pelos quais os agentes de IA, como assistentes virtuais ou agentes autônomos, executam código em resposta às solicitações do usuário. Isole os ambientes de execução, realize revisões de código e defina limites de recursos. Essas medidas garantem que essas execuções não comprometam a estabilidade ou a segurança do sistema. Essas práticas evitam atividades mal-intencionadas e protegem a integridade dos sistemas nos quais os agentes de IA operam, permitindo que funcionem de forma confiável dentro de uma estrutura segura.

  • Implemente mecanismos de isolamento. Utilize o gerenciamento de sessões dinâmicas, como Sessões Dinâmicas em Aplicativos de Contêiner do Azure, para que cada execução de código ocorra em um ambiente novo e isolado que é destruído após o uso.

  • Proteja o código de execução. Realize revisões e testes de código completos antes de implantar scripts para execução por agentes de IA. Esse processo ajuda a identificar e atenuar possíveis vulnerabilidades. Use sistemas de controle de versão para gerenciar alterações de código e garantir que apenas versões aprovadas de scripts sejam executadas.

  • Implemente limites de recursos. Defina limites de recursos (CPU, memória, uso de disco) para ambientes de execução de código, assim, você impede que qualquer execução consuma recursos excessivos e interrompa outros serviços. Defina limites de tempo de execução para que processos de longa duração ou possivelmente travados sejam encerrados automaticamente.

Para obter mais informações, consulte Como criar assistentes com o Serviço OpenAI do Azure, Como usar a chamada de função dos Assistentes do OpenAI do Azure e Implementação do agente.

Próxima etapa