Modelo de responsabilidade partilhada de inteligência artificial (IA)
Ao considerar e avaliar a integração habilitada para IA, é fundamental entender o modelo de responsabilidade compartilhada e quais tarefas a plataforma de IA ou o provedor de aplicativos manipulam e quais tarefas você executa. As responsabilidades da carga de trabalho variam dependendo se a integração de IA é baseada em Software como Serviço (SaaS), Plataforma como Serviço (PaaS) ou Infraestrutura como Serviço (IaaS).
Divisão de responsabilidade
Tal como acontece com os serviços na nuvem, tem opções ao implementar capacidades de IA para a sua organização. Dependendo da opção escolhida, você assume a responsabilidade por diferentes partes das operações e políticas necessárias para usar a IA com segurança.
O diagrama a seguir ilustra as áreas de responsabilidade entre você e a Microsoft de acordo com o tipo de implantação.
Visão geral da camada de IA
Um aplicativo habilitado para IA consiste em três camadas de funcionalidade que agrupam tarefas, que você ou um provedor de IA executa. As responsabilidades de segurança geralmente residem em quem executa as tarefas, mas um provedor de IA pode optar por expor a segurança ou outros controles como uma opção de configuração para você, conforme apropriado. Estas três camadas incluem:
Plataforma de IA
A camada de plataforma de IA fornece os recursos de IA para os aplicativos. Na camada de plataforma, há a necessidade de construir e proteger a infraestrutura que executa o modelo de IA, dados de treinamento e configurações específicas que alteram o comportamento do modelo, como pesos e vieses. Essa camada fornece acesso à funcionalidade por meio de APIs, que passam o texto conhecido como Metaprompt para o modelo de IA para processamento e, em seguida, retornam o resultado gerado, conhecido como Prompt-Response.
Considerações de segurança da plataforma de IA - Para proteger a plataforma de IA de entradas maliciosas, um sistema de segurança deve ser construído para filtrar as instruções potencialmente prejudiciais enviadas para o modelo de IA (entradas). Como os modelos de IA são generativos, também há um potencial de que algum conteúdo prejudicial possa ser gerado e devolvido ao usuário (saídas). Qualquer sistema de segurança deve primeiro proteger contra entradas e saídas potencialmente prejudiciais de muitas classificações, incluindo ódio, jailbreaks, e outros. Essas classificações provavelmente evoluirão ao longo do tempo com base no conhecimento do modelo, na localidade e no setor.
A Microsoft tem sistemas de segurança integrados para ofertas de PaaS e SaaS:
- PaaS - Serviço OpenAI do Azure
- SaaS - Copiloto de Segurança da Microsoft
Aplicação de IA
O aplicativo de IA acessa os recursos de IA e fornece o serviço ou interface que o usuário consome. Os componentes nesta camada podem variar de relativamente simples a altamente complexos, dependendo da aplicação. Os aplicativos de IA autônomos mais simples atuam como uma interface para um conjunto de APIs, pegando um prompt de usuário baseado em texto e passando esses dados para o modelo para uma resposta. Aplicações de IA mais complexas incluem a capacidade de fundamentar o prompt do usuário com contexto extra, incluindo uma camada de persistência, índice semântico ou por meio de plugins para permitir o acesso a mais fontes de dados. As aplicações avançadas de IA também podem interagir com aplicações e sistemas existentes. Os aplicativos e sistemas existentes podem funcionar em texto, áudio e imagens para gerar vários tipos de conteúdo.
Considerações de segurança de aplicativos de IA - Um sistema de segurança de aplicativos deve ser construído para proteger o aplicativo de IA de atividades maliciosas. O sistema de segurança fornece inspeção profunda do conteúdo que está sendo usado no Metaprompt enviado para o modelo de IA. O sistema de segurança também inspeciona as interações com quaisquer plugins, conectores de dados e outros aplicativos de IA (conhecidos como AI Orchestration). Uma maneira de incorporar isso em seu próprio aplicativo de IA baseado em IaaS/PaaS é usar o serviço de Segurança de Conteúdo de IA do Azure. Outros recursos estão disponíveis dependendo das suas necessidades.
Uso de IA
A camada de uso de IA descreve como os recursos de IA são usados e consumidos. A IA generativa oferece um novo tipo de interface usuário/computador que é fundamentalmente diferente de outras interfaces de computador, como API, prompt de comando e interfaces gráficas do usuário (GUIs). A interface de IA generativa é interativa e dinâmica, permitindo que as capacidades do computador se ajustem ao usuário e sua intenção. A interface de IA generativa contrasta com interfaces anteriores que forçam principalmente os usuários a aprender o design e a funcionalidade do sistema e se ajustar a ele. Essa interatividade permite que a entrada do usuário, em vez de designers de aplicativos, tenha um alto nível de influência da saída do sistema, tornando as proteções de segurança essenciais para proteger pessoas, dados e ativos de negócios.
Considerações de segurança de uso de IA - Proteger o uso de IA é semelhante a qualquer sistema de computador, pois depende de garantias de segurança para controles de identidade e acesso, proteção e monitoramento de dispositivos, proteção de dados e governança, controles administrativos e outros controles.
É necessária mais ênfase no comportamento e na responsabilidade do utilizador devido à maior influência que os utilizadores têm na produção dos sistemas. É fundamental atualizar as políticas de uso aceitáveis e educar os usuários sobre a diferença de aplicativos de TI padrão para aplicativos habilitados para IA. Estes devem incluir considerações específicas da IA relacionadas com a segurança, a privacidade e a ética. Além disso, os usuários devem ser educados sobre ataques baseados em IA que podem ser usados para enganá-los com textos falsos convincentes, vozes, vídeos e muito mais.
Os tipos de ataque específicos de IA são definidos em:
- Classificação de gravidade de vulnerabilidade do Microsoft Security Response Center (MSRC) para sistemas de IA
- Cenário de ameaças adversariais MITRE para sistemas de inteligência artificial (ATLAS)
- OWASP top 10 para aplicações de modelo de linguagem grande (LLM)
- Top 10 de segurança do OWASP Machine Learning (ML)
- Estrutura de gestão de riscos de IA do NIST
Ciclo de vida da segurança
Tal como acontece com a segurança para outros tipos de capacidade, é fundamental planear uma abordagem completa. Uma abordagem completa inclui pessoas, processos e tecnologia em todo o ciclo de vida da segurança: identificar, proteger, detetar, responder, recuperar e governar. Qualquer lacuna ou fraqueza neste ciclo de vida pode levá-lo:
- Falha na proteção de ativos importantes
- Experimente ataques facilmente evitáveis
- Incapaz de lidar com ataques
- Não é possível restaurar rapidamente os serviços críticos para os negócios
- Aplicar controlos de forma inconsistente
Para saber mais sobre a natureza única dos testes de ameaças de IA, leia como a Microsoft AI Red Team está construindo o futuro de uma IA mais segura.
Configurar antes de personalizar
A Microsoft recomenda que as organizações comecem com abordagens baseadas em SaaS, como o modelo Copilot, para sua adoção inicial de IA e para todas as cargas de trabalho subsequentes de IA. Isso minimiza o nível de responsabilidade e experiência que sua organização tem que fornecer para projetar, operar e proteger esses recursos altamente complexos.
Se os recursos atuais "prontos para uso" não atenderem às necessidades específicas de uma carga de trabalho, você poderá adotar um modelo PaaS usando serviços de IA, como o Serviço Azure OpenAI, para atender a esses requisitos específicos.
A construção de modelos personalizados só deve ser adotada por organizações com profunda experiência em ciência de dados e considerações éticas de segurança, privacidade e IA.
Para ajudar a trazer a IA para o mundo, a Microsoft está desenvolvendo soluções Copilot para cada uma das principais soluções de produtividade: do Bing e Windows ao GitHub e Office 365. A Microsoft está desenvolvendo soluções full stack para todos os tipos de cenários de produtividade. Estes são oferecidos como soluções SaaS. Integrados na interface do usuário do produto, eles são ajustados para ajudar o usuário com tarefas específicas para aumentar a produtividade.
A Microsoft garante que todas as soluções Copilot sejam projetadas seguindo nossos fortes princípios de governança de IA.
Próximos passos
Saiba mais sobre os requisitos de desenvolvimento de produtos da Microsoft para IA responsável no Microsoft Responsible AI Standard.
Saiba mais sobre responsabilidades compartilhadas para computação em nuvem.