Compartilhar via


Metodologia de design para cargas de trabalho de IA no Azure

O design de cargas de trabalho de IA envolve a integração de código e dados para substituir o comportamento determinístico, permitindo tarefas como previsão, classificação e outras metas funcionais. A arquitetura de carga de trabalho de IA geralmente pode ser complexa e deve ser projetada dentro das restrições de negócios. Embora o Well-Architected Framework forneça uma base sólida para a excelência arquitetônica, os princípios de design específicos da IA também devem ser considerados.

Este artigo apresenta uma metodologia de design sugerida centrada nesses princípios de IA, que orientam sistematicamente o design e a otimização de soluções. Quando estiver incerto na tomada de decisões, consulte essa metodologia para enfatizar a direção do projeto por meio de princípios de IA de alto nível. Se você estiver projetando uma capacidade ou introduzindo uma melhoria, avalie a mudança da perspectiva da metodologia. A experiência segura do usuário é afetada? É flexível o suficiente para se adaptar a inovações futuras? Isso interromperá o fluxo de experimentação? Outro benefício da metodologia é a colaboração com proprietários de produtos e partes interessadas para justificar decisões técnicas.

Design com uma mentalidade experimental

Projetar com uma mentalidade experimental visa alcançar relevância por meio de processos iterativos e orientados por estatísticas com base em casos de uso do mundo real.

A experimentação em IA envolve ajustes contínuos com resultados mensuráveis em relação às metas de qualidade após cada iteração. Um loop de experimentação é necessário durante a avaliação inicial do modelo e o refinamento contínuo. O loop interno refina o poder preditivo do modelo no ambiente de desenvolvimento, enquanto o loop externo monitora o uso da produção e pode acionar mais refinamento ou preparação de dados. Ambos os loops dependem de monitoramento e avaliação contínuos para identificar melhorias.

Nem todo experimento é bem-sucedido. Considere os piores cenários e tenha planos de contingência para experimentos fracassados.

Projete com responsabilidade

Quando os usuários interagem com seu sistema de IA, eles confiam em sua funcionalidade ética, apesar da lógica opaca dos modelos de IA. Essa confiança responsabiliza você por projetar o sistema para evitar comportamentos antiéticos, como manipulação, toxicidade de conteúdo, violação de IP e respostas fabricadas. A IA responsável deve ser incorporada não apenas nas operações de sistemas, mas também na cultura da equipe. As práticas devem se estender por todo o ciclo de vida da interação do usuário, desde a intenção inicial do usuário de usar o sistema, durante as sessões e até mesmo durante interrupções causadas por erros do sistema.

A moderação de conteúdo é uma estratégia fundamental no design responsável da IA generativa, onde as solicitações e respostas são avaliadas em tempo real para garantir a segurança e a adequação. Como parte dos loops de experimentação, esforce-se para tornar os algoritmos justos e inclusivos para minimizar o viés. O viés pode entrar no sistema por meio de vários canais, inclusive durante as sessões reais ou ao coletar feedback.

O gerenciamento ético de dados é fundamental para o design responsável, envolvendo decisões cuidadosas sobre quando usar ou evitar depender dos dados do usuário. Os usuários confiam em você para garantir que qualquer informação pessoal seja removida do sistema ou retida apenas com o consentimento deles. Se a retenção for inevitável, certifique-se de que os dados estejam protegidos com tecnologia confiável para privacidade e segurança.

Design para explicabilidade

Os resultados do modelo de IA devem ser explicáveis, exigindo justificativa e rastreamento de origens de dados, processos de inferência e a jornada de dados da origem para a camada de serviço. Na IA discriminativa, as decisões podem ser justificadas a cada etapa, enquanto a explicabilidade em modelos generativos pode ser complexa. Documentar o processo de tomada de decisão, tanto manualmente quanto por meio de recursos técnicos, é essencial.

O objetivo desse princípio é garantir a transparência e a responsabilidade do sistema para ganhar a confiança do usuário.

Fique à frente da deterioração do modelo

A deterioração do modelo é um desafio único na IA que afeta significativamente as decisões de design. A qualidade das saídas do modelo de IA pode se deteriorar com o tempo sem nenhuma alteração no código, às vezes até repentinamente, devido a alterações nos dados ou fatores externos.

Essa deterioração afeta vários aspectos do sistema. Isso inclui velocidade de ingestão de dados, qualidade de dados, necessidades de monitoramento, processos de avaliação e tempos de reação para corrigir problemas. A detecção precoce é recomendada por meio de uma combinação de processos automatizados para monitoramento contínuo e avaliação do modelo. O feedback do usuário também é um método eficaz para identificar a deterioração do modelo.

Independentemente dos sinais usados para identificar o decaimento do modelo, a equipe de operações deve envolver cientistas de dados para pesquisar e resolver prontamente possíveis problemas de decaimento.

Design para adaptabilidade

A IA está avançando em ritmo acelerado em termos de avanço tecnológico e adoção. Esteja ciente de que o que você constrói hoje pode se tornar obsoleto rapidamente, afetando as decisões e os processos de design.

Este princípio enfatiza a necessidade de agilidade e flexibilidade, reconhecendo que alguns componentes podem ter uma vida útil mais curta. Adote uma abordagem de pausa e reflexão , onde a pesquisa completa de descoberta de modelos, bibliotecas e estruturas de programação e tecnologias de processamento é fundamental.

Próxima etapa

Saiba mais sobre os princípios de design para criar e operar cargas de trabalho de IA no Azure.