Compartilhar via


Recomendações de governança para cargas de trabalho de IA no Azure

Este artigo contém recomendações de governança para organizações que executam cargas de trabalho de IA no Azure. Ele se concentra em soluções de PaaS (plataforma como serviço) de IA do Azure, incluindo Estúdio de IA do Azure, OpenAI do Azure, Azure Machine Learning e Serviços de IA do Azure. Ele abrange cargas de trabalho de IA generativa e não generativa.

A governança eficaz apoia o uso responsável da IA. Ela permite que as empresas otimizem seus investimentos em IA enquanto reduzem os riscos associados à segurança, ao custo e à conformidade regulatória.

Governar modelos de IA

A governança de modelos de IA refere-se aos processos de gerenciamento de modelos de IA para que eles produzam resultados confiáveis, seguros e éticos. Os controles sobre as entradas e saídas do modelo ajudam a atenuar os riscos. Esses riscos incluem conteúdo nocivo e uso não intencional da IA. Ambos podem afetar tanto os usuários como a organização. Esses processos apoiam a implantação responsável da IA e protegem contra possíveis desafios legais e éticos.

  • Estabeleça um processo para detectar riscos de IA. Use ferramentas como o Defender para Nuvem para descobrir cargas de trabalho de IA generativa e explorar os riscos para artefatos de IA generativa pré-implantação. Estabeleça uma política para enviar regularmente modelos de IA generativa para a equipe vermelha. Documente os riscos identificados e atualize continuamente suas políticas de governança de IA para reduzir problemas emergentes.

  • Defina filtros de conteúdo de linha de base para modelos de IA generativa. Use a Segurança de Conteúdo de IA do Azure para definir um filtro de conteúdo de linha de base para seus modelos de IA aprovados. Esse sistema de segurança executa o prompt e a conclusão do modelo por meio de um grupo de modelos de classificação. Esses modelos de classificação detectam e ajudam a evitar a saída de conteúdo nocivo em diversas categorias. A Segurança de Conteúdo fornece recursos como proteções imediatas, detecção de fundamentação e detecção de texto de material protegido. Ele digitaliza imagens e texto. Crie um processo para que as equipes de aplicativos comuniquem diferentes necessidades de governança.

  • Instrua os modelos da IA generativa. Use mensagens do sistema e o padrão de geração aumentada de recuperação (RAG) para controlar o resultado de modelos de IA generativa. Teste a eficácia da fundamentação usando ferramentas como prompt flow ou a estrutura PyRIT de envio de código aberto à equipe vermelha.

Governar custos de IA

A governança de custos de IA envolve o gerenciamento de despesas associadas a cargas de trabalho de IA para maximizar a eficiência e reduzir gastos desnecessários. O controle de custos eficaz garante que os investimentos em IA sejam alinhados com os objetivos de negócios, o que evita que custos imprevistos sejam provisionados em excesso ou subutilizados. Essas práticas permitem que as organizações otimizem financeiramente suas operações de IA.

  • Use o modelo de faturamento correto. Se você tiver cargas de trabalho previsíveis, use níveis de compromisso de IA nos Serviços de IA do Azure. Para modelos OpenAI do Azure, use unidades de produtividade provisionadas (PTUs), que podem ser mais baratas do que no formato de pagamento conforme o uso (baseado em consumo). É comum combinar pontos de extremidade PTU com pontos de extremidade baseados em consumo para otimização de custos. Use PTUs no ponto de extremidade primário do modelo de IA e em um ponto de extremidade de IA secundário baseado em consumo para excedente. Para obter mais informações, consulte Introduzir um gateway para várias instâncias do OpenAI do Azure.

  • Escolha o modelo certo para o seu caso de uso. Selecione o modelo de IA que atenda às suas necessidades sem correr o risco de custos excessivos. Use modelos mais baratos, a menos que o caso de uso exija um modelo mais caro. Para ajuste fino, maximize o uso do tempo dentro de cada período de faturamento para evitar cobranças extras. Para obter mais informações, consulte Modelos e preços do OpenAI do Azure. Veja também o catálogo de modelos do Estúdio de IA do Azure e informações de faturamento para implantações de modelo.

  • Defina limites de provisionamento. Aloque cotas de provisionamento para cada modelo com base nas cargas de trabalho esperadas para evitar custos desnecessários. Monitore continuamente as cotas dinâmicas para que elas correspondam à demanda real e ajuste-as de acordo para manter a produtividade ideal sem gastar demais.

  • Use o tipo de implantação correto. Os modelos OpenAI do Azure permitem que você use diferentes tipos de implantação. A implantação global oferece preços de custo por token mais baixos em determinados modelos OpenAI.

  • Avalie as opções de hospedagem. Escolha a infraestrutura de hospedagem certa, dependendo das necessidades da sua solução. Por exemplo, para cargas de trabalho de IA generativa, as opções incluem pontos de extremidade online gerenciados, AKS (Serviço de Kubernetes do Azure) e Serviço de Aplicativo do Azure, cada um com seu próprio modelo de cobrança. Selecione a opção que fornece o melhor equilíbrio entre desempenho e custo para seus requisitos específicos.

  • Controle o comportamento do cliente em serviços baseados em consumo. Limite o acesso do cliente ao seu serviço de IA com a aplicação de protocolos de segurança, como controles de rede, chaves e RBAC (controle de acesso baseado em função). Certifique-se de que os clientes usem restrições de API, como tokens máximos e conclusões máximas. Quando possível, use solicitações em lote para otimizar a eficiência. Mantenha a concisão dos prompts, mas forneça o contexto necessário para reduzir o consumo de tokens.

  • Use um gateway de IA generativa. Um gateway de IA generativa permite rastrear o uso de tokens, limitar o uso de tokens, aplicar disjuntores e rotear para diferentes pontos de extremidade de IA para controlar custos.

  • Crie uma política para desligar instâncias de computação. Defina e aplique uma política informando que os recursos de IA devem usar o desligamento automático em máquinas virtuais e instâncias de computação no Estúdio de IA do Azure e no Azure Machine Learning. O desligamento automático é aplicável a ambientes de não produção e cargas de trabalho de produção que você pode colocar offline por determinados períodos.

Para obter mais diretrizes de gerenciamento de custos, consulte Gerenciar custos de IA e otimização de custos na arquitetura de linha de base do OpenAI do Azure.

Governar plataformas de IA

A governança da plataforma de IA inclui a aplicação de controles de política a vários serviços de IA no Azure, como o Estúdio de IA do Azure e o Azure Machine Learning. O uso da governança no nível da plataforma aplica políticas consistentes de segurança, conformidade e operações em todo o ecossistema de IA. Esse alinhamento corresponde a uma supervisão eficaz, o que fortalece o gerenciamento e a confiabilidade geral da IA.

Governar a segurança da IA

A governança da segurança de IA aborda a necessidade de proteger as cargas de trabalho de IA contra ameaças que podem comprometer dados, modelos ou infraestrutura. Práticas de segurança robustas protegem esses sistemas contra acesso não autorizado e violações de dados. Essa proteção assegura a integridade e a confiabilidade das soluções de IA, o que é essencial para manter a confiança do usuário e a conformidade regulatória.

  • Habilite o Defender para Nuvem em todas as assinaturas. O Defender para Nuvem conta com uma abordagem econômica para detectar configurações nos recursos implantados que não são seguras. Você também deve habilitar a proteção contra ameaças de IA.

  • Configurar o controle de acesso. Conceda ao usuário acesso com privilégios mínimos aos recursos de IA centralizados. Por exemplo, comece com a função Leitor do Azure e eleve para a função Colaborador do Azure se as permissões limitadas retardarem o desenvolvimento do aplicativo.

  • Use identidades gerenciadas. Use a identidade gerenciada em todos os serviços compatíveis do Azure. Conceda acesso com privilégios mínimos aos recursos do aplicativo que precisam acessar os pontos de extremidade do modelo de IA.

  • Use o acesso Just-In-Time. Use o Privileged Identity Management (PIM) para acesso just-in-time.

Governar operações de IA

A governança de operações de IA se concentra no gerenciamento e na manutenção de serviços de IA estáveis. Essas operações ajudam na confiabilidade e no desempenho em longo prazo. A supervisão centralizada e os planos de continuidade ajudam as organizações a evitar o tempo de inatividade, o que garante o valor comercial consistente da IA. Essas iniciativas contribuem para a implantação eficiente da IA e eficácia operacional prolongada.

  • Revise e gerencie modelos de IA. Desenvolva uma política para gerenciar o controle de versão do modelo, especialmente à medida que os modelos são atualizados ou desativados. Você precisa manter a compatibilidade com os sistemas existentes e fazer uma transição estável entre as versões do modelo.

  • Defina um plano de continuidade dos negócios e recuperação de desastres. Estabeleça uma política para continuidade dos negócios e recuperação de desastres para seus pontos de extremidade de IA e dados de IA. Configure a recuperação de desastre de linha de base para recursos que hospedam os pontos de extremidade do modelo de IA. Esses recursos incluem Estúdio de IA do Azure, Azure Machine Learning, OpenAI do Azure ou Serviços de IA do Azure. Todos os armazenamentos de dados do Azure, como Armazenamento de Blobs do Azure, Azure Cosmos DB e Banco de Dados SQL do Azure, fornecem orientações sobre confiabilidade e recuperação de desastre que você deve seguir.

  • Defina métricas de linha de base para recursos de IA. Habilite as regras de alerta recomendadas para receber notificações de desvios que indicam um declínio na integridade da carga de trabalho. Para ver exemplos, consulte Pesquisa de IA do Azure, Azure Machine Learning, implantações de prompt flow do Estúdio de IA do Azure e orientações sobre serviços individuais de IA do Azure.

Governar a conformidade regulatória da IA

A conformidade regulatória em IA exige que as organizações sigam os padrões do setor e as obrigações legais, o que reduz os riscos relacionados a responsabilidades e cria confiança. As medidas de conformidade ajudam as organizações a evitar penalidades e melhorar a credibilidade com clientes e reguladores. A adesão a esses padrões estabelece uma base sólida para o uso responsável e legal da IA.

  • Automatize a conformidade. Use o Gerenciador de Conformidade do Microsoft Purview para avaliar e gerenciar a conformidade em ambientes de nuvem. Use as iniciativas de conformidade regulatória aplicáveis no Azure Policy para o seu setor. Aplique outras políticas com base nos serviços de IA que você usa, como Estúdio de IA do Azure e Azure Machine Learning.

  • Desenvolva listas de verificação de conformidade específicas do setor. Os regulamentos e padrões diferem de acordo com o setor e o local. Você precisa conhecer seus requisitos regulatórios e compilar listas de verificação que reflitam as demandas regulatórias relevantes ao seu setor. Use padrões, como ISO/IEC 23053:2022 (Estrutura para Sistemas de Inteligência Artificial que Usam Machine Learning), para auditar políticas aplicadas às suas cargas de trabalho de IA.

Governar dados de IA

A governança de dados de IA envolve políticas para que os dados que alimentam os modelos de IA sejam apropriados, compatíveis e seguros. A governança de dados protege a privacidade e a propriedade intelectual, o que aumenta a confiabilidade e a qualidade dos resultados de IA. Essas medidas ajudam a atenuar os riscos relacionados ao uso indevido dos dados e se alinham aos padrões regulatórios e éticos.

  • Estabeleça um processo para catalogar dados. Use uma ferramenta como o Microsoft Purview para implementar um catálogo de dados unificado e um sistema de classificação na sua organização. Integre essas políticas em seus pipelines de CI/CD para desenvolvimento de IA.

  • Mantenha os limites de segurança de dados. Com a catalogação de dados, você evita alimentar dados confidenciais em pontos de extremidade de IA voltados para o público. Quando você cria índices de determinadas fontes de dados, o processo de indexação pode remover os limites de segurança em torno dos dados. Certifique-se de que todos os dados ingeridos em modelos de IA sejam classificados e examinados de acordo com padrões centralizados.

  • Evite a violação de direitos autorais. Use um sistema de filtragem de conteúdo, como detecção de material protegido na Segurança de Conteúdo de IA do Azure, para filtrar material protegido por direitos autorais. Se você estiver instruindo, treinando ou ajustando um modelo de IA, use dados obtidos legalmente e que sejam devidamente licenciados. Sempre implemente ressalvas para evitar que o modelo infrinja direitos autorais. Revise regularmente os resultados para fins de conformidade com a propriedade intelectual.

  • Implemente o controle de versão para dados de fundamentação. Estabeleça um processo de controle de versão para fundamentação de dados, por exemplo, no RAG. O controle de versão garante que você possa acompanhar as alterações nos dados subjacentes ou em sua estrutura. Você pode reverter as alterações, se necessário, para ajudar a manter a consistência entre as implantações.

Próxima etapa