Partilhar via


Recomendações de governança para cargas de trabalho de IA no Azure

Este artigo oferece recomendações de governança para organizações que executam cargas de trabalho de IA no Azure. Ele se concentra em soluções de plataforma como serviço (PaaS) de IA do Azure, incluindo Azure AI Foundry, Azure OpenAI, Azure Machine Learning e Azure AI Services. Abrange cargas de trabalho de IA generativas e não generativas.

Uma governação eficaz apoia a utilização responsável da IA. Ele permite que as empresas otimizem seus investimentos em IA enquanto reduzem os riscos associados à segurança, custo e conformidade regulamentar.

Governar modelos de IA

A governança do modelo de IA refere-se aos processos de gerenciamento de modelos de IA para garantir que eles produzam resultados confiáveis, seguros e éticos. Os controles sobre as entradas e saídas do modelo ajudam a mitigar os riscos. Estes riscos incluem conteúdos nocivos e a utilização não intencional de IA. Ambos podem afetar os usuários e a organização. Estes processos apoiam a implantação responsável da IA e protegem contra potenciais desafios jurídicos e éticos.

  • Estabeleça um processo para detetar riscos de IA. Use ferramentas como o Defender for Cloud para descobrir cargas de trabalho de IA generativas e explorar os riscos de artefatos de IA generativa pré-implantação. Estabeleça uma política para modelos de IA generativos de equipe regularmente vermelhos. Documente os riscos identificados e atualize continuamente suas políticas de governança de IA para mitigar problemas emergentes.

  • Defina filtros de conteúdo de linha de base para modelos de IA generativos. Use a Segurança de Conteúdo da IA do Azure para definir um filtro de conteúdo de linha de base para seus modelos de IA aprovados. Este sistema de segurança executa o prompt e o preenchimento do seu modelo através de um grupo de modelos de classificação. Estes modelos de classificação detetam e ajudam a prevenir a produção de conteúdos nocivos numa série de categorias. A Segurança de Conteúdo fornece recursos como escudos de prompt, deteção de aterramento e deteção de texto de material protegido. Digitaliza imagens e texto. Crie um processo para que as equipes de aplicativos comuniquem diferentes necessidades de governança.

  • Modelos de IA generativa de terra. Use mensagens do sistema e o padrão de geração aumentada de recuperação (RAG) para governar a saída de modelos de IA generativos. Teste a eficácia do aterramento usando ferramentas como prompt flow ou a estrutura de agrupamento vermelho de código aberto PyRIT.

Governar os custos de IA

A governança de custos de IA envolve o gerenciamento de despesas associadas a cargas de trabalho de IA para maximizar a eficiência e reduzir gastos desnecessários. O controle de custos eficaz garante que os investimentos em IA estejam alinhados com os objetivos de negócios, o que evita custos imprevistos de provisionamento excessivo ou subutilização. Essas práticas permitem que as organizações otimizem financeiramente suas operações de IA.

  • Use o modelo de faturamento correto. Se você tiver cargas de trabalho previsíveis, use as camadas de compromisso de IA nos serviços de IA do Azure. Para modelos OpenAI do Azure, use unidades de taxa de transferência provisionadas (PTUs), que podem ser mais baratas do que os preços pré-pagos (baseados no consumo). É comum combinar pontos de extremidade PTU e pontos de extremidade baseados em consumo para otimização de custos. Use PTUs no endpoint primário do modelo de IA e em um endpoint de IA secundário baseado no consumo para spillover. Para obter mais informações, consulte Introduzir um gateway para várias instâncias do Azure OpenAI.

  • Escolha o modelo certo para o seu caso de uso. Selecione o modelo de IA que atenda às suas necessidades sem incorrer em custos excessivos. Use modelos mais baratos, a menos que o caso de uso exija um modelo mais caro. Para ajuste fino, maximize o uso de tempo dentro de cada período de faturamento para evitar cobranças extras. Para obter mais informações, consulte Modelos e preços do Azure OpenAI. Consulte também do catálogo de modelos do Azure AI Foundry e informações de cobrança para implantações de modelo.

  • Defina limites de provisionamento. Aloque cotas de provisionamento para cada modelo com base nas cargas de trabalho esperadas para evitar custos desnecessários. Monitore continuamente as cotas dinâmicas para garantir que elas correspondam à demanda real e ajuste-as de acordo para manter o rendimento ideal sem gastos excessivos.

  • Use o tipo de implantação correto. Os modelos do Azure OpenAI permitem que você use diferentes tipos de implantação. A implantação global oferece preços de custo por token mais baixos em certos modelos OpenAI.

  • Avalie as opções de hospedagem. Escolha a infraestrutura de hospedagem certa, dependendo das necessidades da sua solução. Por exemplo, para cargas de trabalho de IA generativas, as opções incluem pontos de extremidade online gerenciados, o Serviço Kubernetes do Azure (AKS) e o Serviço de Aplicativo do Azure, cada um com seu próprio modelo de cobrança. Selecione a opção que oferece o melhor equilíbrio entre desempenho e custo para suas necessidades específicas.

  • Controlar o comportamento do cliente em serviços baseados no consumo. Limite o acesso do cliente ao seu serviço de IA aplicando protocolos de segurança, como controles de rede, chaves e controle de acesso baseado em função (RBAC). Certifique-se de que os clientes usem restrições de API, como max tokens e max completions. Sempre que possível, solicitações em lote para otimizar a eficiência. Mantenha os prompts concisos, mas forneça o contexto necessário para reduzir o consumo de tokens.

  • Considere o uso de um gateway de IA generativo. Um gateway de IA generativo permite rastrear o uso de tokens, limitar o uso de tokens, aplicar disjuntores e rotear para diferentes pontos finais de IA para controlar custos.

  • Crie uma política para encerrar instâncias de computação. Defina e imponha uma política declarando que os recursos de IA devem usar o recurso de desligamento automático em máquinas virtuais e instâncias de computação no Azure AI Foundry e no Azure Machine Learning. O desligamento automático é aplicável a ambientes que não são de produção e cargas de trabalho de produção que você pode colocar off-line por determinados períodos de tempo.

Para obter mais orientações de gerenciamento de custos, consulte Gerenciar custos de IA e otimização de custos na arquitetura de linha de base do Azure OpenAI.

Governe as plataformas de IA

A governança da plataforma de IA inclui a aplicação de controles de política a vários serviços de IA no Azure, como o Azure AI Foundry e o Azure Machine Learning. O uso da governança no nível da plataforma impõe políticas consistentes de segurança, conformidade e operacionais em todo o ecossistema de IA. Esse alinhamento apoia uma supervisão eficaz, o que fortalece o gerenciamento geral e a confiabilidade da IA.

  • Use políticas de governança integradas. Use a Política do Azure para aplicar definições de política internas para cada plataforma de IA que você está usando. Inclui Azure AI Foundry, Azure Machine Learning, Azure AI services, Azure AI Searche outros.

  • Habilite as políticas de IA da zona de aterrissagem do Azure. Para usuários da zona de aterrissagem do Azure, a implantação inclui um conjunto selecionado de políticas internas recomendadas para serviços da plataforma Azure AI. Selecione a iniciativa de política que você deseja usar na categoria Conformidade Específica da Carga de Trabalho durante uma implantação da zona de aterrissagem do Azure. Os conjuntos de políticas incluem o Azure OpenAI, o Azure Machine Learning e o Azure AI Search e os serviços de Bot do Azure.

Governe a segurança da IA

A governança de segurança de IA aborda a necessidade de proteger as cargas de trabalho de IA contra ameaças que podem comprometer dados, modelos ou infraestrutura. Práticas de segurança robustas protegem esses sistemas contra acesso não autorizado e violações de dados. Essa proteção garante a integridade e a confiabilidade das soluções de IA, o que é essencial para manter a confiança do usuário e a conformidade regulamentar.

  • Habilite o Defender for Cloud em todas as assinaturas. O Defender for Cloud oferece uma abordagem econômica para detetar configurações em seus recursos implantados que não são seguras. Você também deve habilitar a proteção contra ameaças de IA.

  • Configure o controle de acesso. Conceda ao usuário com privilégios mínimos acesso a recursos centralizados de IA. Por exemplo, comece com a função Azure Reader e eleve para a função Azure de Colaborador se as permissões limitadas atrasarem o desenvolvimento do aplicativo.

  • Use identidades gerenciadas. Use a identidade gerenciada em todos os serviços do Azure com suporte. Conceda acesso com privilégios mínimos aos recursos do aplicativo que precisam acessar os pontos de extremidade do modelo de IA.

  • Use o acesso just-in-time. Use o gerenciamento privilegiado de identidades (PIM) para acesso just-in-time.

Governe as operações de IA

A governança de operações de IA se concentra no gerenciamento e manutenção de serviços de IA estáveis. Estas operações suportam a fiabilidade e o desempenho a longo prazo. A supervisão centralizada e os planos de continuidade ajudam as organizações a evitar o tempo de inatividade, o que garante o valor comercial consistente da IA. Estes esforços contribuem para uma implantação eficiente da IA e uma eficácia operacional sustentada.

  • Revise e gerencie modelos de IA. Desenvolva uma política para gerenciar o controle de versão do modelo, especialmente à medida que os modelos são atualizados ou desativados. Você precisa manter a compatibilidade com os sistemas existentes e garantir uma transição suave entre as versões do modelo.

  • Defina um plano de continuidade de negócios e recuperação de desastres. Estabeleça uma política de continuidade de negócios e recuperação de desastres para seus endpoints de IA e dados de IA. Configure a recuperação de desastres de linha de base para recursos que hospedam seus pontos de extremidade de modelo de IA. Esses recursos incluem Azure AI Foundry, Azure Machine Learning, Azure OpenAIou serviços de IA do Azure. Todos os armazenamentos de dados do Azure, como o Armazenamento de Blobs do Azure, o Azure Cosmos DB e o Banco de Dados SQL do Azure, fornecem diretrizes de confiabilidade e recuperação de desastres que você deve seguir.

  • Defina métricas de linha de base para recursos de IA. Habilite as regras de alerta recomendadas para receber notificações de desvios que indiquem um declínio na integridade da carga de trabalho. Para exemplos, consulte a Pesquisa de IA do Azure , o Aprendizado de Máquina do Azure , os fluxos de prompts do Azure AI Foundry e a orientação sobre serviços individuais de IA do Azure.

Governar a conformidade regulatória de IA

A conformidade regulatória em IA exige que as organizações sigam os padrões do setor e as obrigações legais, que reduzem os riscos relacionados a responsabilidades e criam confiança. As medidas de conformidade ajudam as organizações a evitar penalidades e a melhorar a credibilidade junto dos clientes e reguladores. A adesão a esses padrões estabelece uma base sólida para o uso responsável e compatível da IA.

  • Automatize a conformidade. Use o Microsoft Purview Compliance Manager para avaliar e gerenciar a conformidade em ambientes de nuvem. Use as iniciativas de conformidade regulatória aplicáveis na Política do Azure para o seu setor. Aplique outras políticas com base nos serviços de IA que você usa, como Azure AI Foundry e Azure Machine Learning.

  • Desenvolva listas de verificação de conformidade específicas do setor. Os regulamentos e normas diferem de acordo com a indústria e a localização. Você precisa conhecer seus requisitos regulatórios e compilar listas de verificação que reflitam as demandas regulatórias relevantes para o seu setor. Use padrões, como o ISO/IEC 23053:2022 (Framework for Artificial Intelligence Systems Using Machine Learning), para auditar políticas aplicadas às suas cargas de trabalho de IA.

Governar dados de IA

A governança de dados de IA envolve políticas para garantir que a alimentação de dados em modelos de IA seja apropriada, compatível e segura. A governança de dados protege a privacidade e a propriedade intelectual, o que aumenta a confiabilidade e a qualidade dos resultados de IA. Essas medidas ajudam a mitigar os riscos relacionados ao uso indevido de dados e estão alinhadas com os padrões regulatórios e éticos.

  • Estabeleça um processo de catalogação de dados. Use uma ferramenta como o Microsoft Purview para implementar um catálogo de dados unificado e um sistema de classificação em toda a sua organização. Integre essas políticas em seus pipelines de CI/CD para desenvolvimento de IA.

  • Mantenha os limites de segurança dos dados. A catalogação de dados ajuda a garantir que você não alimente dados confidenciais em pontos de extremidade de IA voltados para o público. Quando você cria índices de determinadas fontes de dados, o processo de indexação pode remover os limites de segurança em torno dos dados. Certifique-se de que todos os dados ingeridos em modelos de IA sejam classificados e verificados de acordo com padrões centralizados.

  • Prevenir a violação de direitos de autor. Use um sistema de filtragem de conteúdo, como a deteção de material protegido na Segurança de Conteúdo do Azure AI, para filtrar material protegido por direitos autorais. Se você estiver aterrando, treinando ou ajustando um modelo de IA, certifique-se de usar dados obtidos legalmente e devidamente licenciados e implemente salvaguardas para evitar que o modelo infrinja direitos autorais. Revisar regularmente os resultados para conformidade com a propriedade intelectual.

  • Implemente o controle de versão para dados de aterramento. Estabeleça um processo de controle de versão para o aterramento de dados, por exemplo, em RAG. O controle de versão garante que você possa controlar quaisquer alterações nos dados subjacentes ou em sua estrutura. Você pode reverter as alterações, se necessário, ajudando a manter a consistência entre as implantações.

Próximo passo