Metodologia de design para cargas de trabalho de IA no Azure
Projetar cargas de trabalho de IA envolve a integração de código e dados para substituir o comportamento determinístico, permitindo tarefas como previsão, classificação e outros objetivos funcionais. A arquitetura de carga de trabalho de IA muitas vezes pode ser complexa e deve ser projetada dentro das restrições de negócios. Embora o Well-Architected Framework forneça uma base sólida para a excelência arquitetônica, os princípios de projeto específicos da IA também devem ser considerados.
Este artigo apresenta uma metodologia de design sugerida centrada nesses princípios de IA, que orientam sistematicamente o design e a otimização de soluções. Quando estiver incerto na tomada de decisões, recorra a esta metodologia para enfatizar a direção do projeto através de princípios de IA de alto nível. Se você está projetando uma capacidade ou introduzindo uma melhoria, avalie a mudança do ponto de vista da metodologia. A experiência segura do usuário é afetada? É suficientemente flexível para se adaptar a inovações futuras? Irá perturbar o fluxo de experimentação? Outro benefício da metodologia é a colaboração com proprietários de produtos e partes interessadas para justificar decisões técnicas.
Design com uma mentalidade experimental
Projetar com uma mentalidade experimental visa alcançar relevância através de processos iterativos e orientados estatisticamente com base em casos de uso do mundo real.
A experimentação em IA envolve ajustes contínuos com resultados mensuráveis em relação a metas de qualidade após cada iteração. É necessário um ciclo de experimentação durante a avaliação inicial do modelo e o aperfeiçoamento contínuo. O loop interno refina o poder preditivo do modelo no ambiente de desenvolvimento, enquanto o loop externo monitora o uso da produção e pode desencadear mais refinamento ou preparação de dados. Ambos os circuitos dependem de monitoramento e avaliação contínuos para identificar melhorias.
Nem todas as experiências são bem-sucedidas. Considere os piores cenários e tenha planos de contingência para experiências falhadas.
Projete de forma responsável
Quando os usuários interagem com seu sistema de IA, eles depositam sua confiança em sua funcionalidade ética, apesar da lógica opaca dos modelos de IA. Essa confiança responsabiliza você por projetar o sistema para evitar comportamentos antiéticos, como manipulação, toxicidade de conteúdo, violação de IP e respostas fabricadas. A IA responsável deve ser incorporada não apenas nas operações dos sistemas, mas também na cultura da equipe. As práticas devem se estender por todo o ciclo de vida da interação do usuário — desde a intenção inicial do usuário de usar o sistema, durante as sessões e até mesmo durante interrupções causadas por erros do sistema.
A moderação de conteúdo é uma estratégia-chave no design responsável de IA generativa, onde as solicitações e respostas são avaliadas em tempo real para garantir segurança e adequação. Como parte dos ciclos de experimentação, esforce-se para tornar os algoritmos justos e inclusivos para minimizar o viés. O enviesamento pode entrar no sistema através de vários canais, incluindo durante sessões reais ou na recolha de feedback.
A gestão ética de dados é fundamental para um design responsável, envolvendo decisões cuidadosas sobre quando usar ou evitar confiar nos dados do usuário. Os usuários confiam em você para garantir que qualquer informação pessoal seja removida do sistema ou retida apenas com o seu consentimento. Se a retenção for inevitável, certifique-se de que os dados estão protegidos com tecnologia confiável para privacidade e segurança.
Design para explicabilidade
Os resultados do modelo de IA devem ser explicáveis, exigindo justificação e rastreamento das origens dos dados, processos de inferência e a jornada dos dados da fonte para a camada de serviço. Na IA discriminativa, as decisões podem ser justificadas a cada passo, enquanto a explicabilidade em modelos generativos pode ser complexa. Documentar o processo de tomada de decisão, tanto manualmente como através de capacidades técnicas, é essencial.
O objetivo deste princípio é garantir a transparência e a responsabilização do sistema para ganhar a confiança dos utilizadores.
Mantenha-se à frente da deterioração do modelo
A deterioração do modelo é um desafio único na IA que afeta significativamente as decisões de design. A qualidade das saídas do modelo de IA pode se deteriorar ao longo do tempo sem nenhuma alteração no código, às vezes até de repente, devido a mudanças nos dados ou fatores externos.
Esta deterioração afeta vários aspetos do sistema. Isso inclui velocidade de ingestão de dados, qualidade dos dados, necessidades de monitoramento, processos de avaliação e tempos de reação para corrigir problemas. A deteção precoce é recomendada através de uma combinação de processos automatizados para monitorização contínua e avaliação de modelos. O feedback do usuário também é um método eficaz para identificar o decaimento do modelo.
Independentemente dos sinais usados para identificar o decaimento do modelo, a equipe de operações deve envolver cientistas de dados para pesquisar prontamente e resolver possíveis problemas de decaimento.
Design para adaptabilidade
A IA está a avançar a um ritmo acelerado em termos de avanço tecnológico e adoção. Esteja ciente de que o que você constrói hoje pode se tornar obsoleto rapidamente, impactando decisões e processos de projeto.
Este princípio enfatiza a necessidade de agilidade e flexibilidade, reconhecendo que alguns componentes podem ter uma vida útil mais curta. Adote uma abordagem de pausa e reflexão , onde a pesquisa completa de descoberta de modelos, bibliotecas e estruturas de programação e tecnologias de processamento é fundamental.
Próximo passo
Saiba mais sobre os princípios de design para criar e operar cargas de trabalho de IA no Azure.