Considerações de IA responsável para cargas de trabalho de aplicativos inteligentes
As cargas de trabalho de aplicativos inteligentes precisam aderir aos princípios de IA responsável para garantir justiça, responsabilidade, transparência e comportamento ético.
Projete o sistema de IA para tratar todos os usuários de maneira justa, responsabilizar desenvolvedores e usuários por seu desempenho, garantir transparência nas operações de IA e aderir a padrões éticos.
Na Microsoft, estamos comprometidos com o avanço da IA conduzida por princípios que colocam as pessoas em primeiro lugar. Os modelos generativos têm benefícios potenciais significativos, mas sem um design cuidadoso e mitigações cuidadosas, tais modelos têm o potencial de criar conteúdo incorreto ou mesmo prejudicial. A Microsoft fez investimentos significativos para ajudar a proteger contra abusos e danos não intencionais, o que inclui incorporar os princípios da Microsoft para o uso responsável de IA, adotar um Código de Conduta, criar filtros de conteúdo para apoiar os clientes e fornecer informações e orientações de IA responsáveis que os clientes devem considerar ao usar IA generativa.
Os copilotos do Power Platform e os recursos de IA generativa seguem um conjunto de práticas básicas de segurança e privacidade e o Padrão de IA Responsável da Microsoft. Os dados do Power Platform são protegidos por controles abrangentes de conformidade, segurança e privacidade líderes do setor.
Saiba mais:
- Princípios do Microsoft AI
- Recursos de IA responsável da Microsoft
- Cursos de aprendizado do Microsoft Azure sobre IA responsável
- Perguntas frequentes sobre IA responsável no Copilot Studio
- Visão geral de práticas de IA Responsável para modelos do OpenAI do Azure
Princípios fundamentais da IA responsável
Os princípios básicos da IA responsável incluem justiça, responsabilidade, transparência e ética. Garantir que uma carga de trabalho de aplicativo inteligente criada com o Power Platform siga esses princípios básicos envolve várias práticas principais:
- Equidade: use dados de treinamento diversificados e representativos para minimizar desvios. Atualize regularmente os dados de treinamento e recorra a auditores para validar a equidade.
- Responsabilidade: defina papéis e responsabilidades claros para os membros da equipe envolvidos no projeto de IA. Estabelecer e aderir a padrões éticos que priorizem a equidade e a responsabilidade.
- Transparência: certifique-se de que os usuários saibam que estão usando uma carga de trabalho que usa recursos de IA generativa. Comunique claramente o motivo de uma solução de IA ser escolhida, como foi projetada e como é monitorada e atualizada.
- Ética: promova uma força de trabalho inclusiva e buscar contribuições de diversas comunidades no início do processo de desenvolvimento. Avaliar e testar regularmente modelos para preocupações éticas e disparidades de desempenho. Estabelecer uma estrutura de governança que inclua auditorias regulares.
Incorpore essas práticas em seus processos de desenvolvimento e implantação para criar uma carga de trabalho de aplicativo inteligente que siga os princípios básicos da IA responsável.
Privacidade e segurança dos dados
Garantir a privacidade dos dados é fundamental, especialmente porque a carga de trabalho do aplicativo inteligente pode lidar com dados confidenciais. Ao planejar uma carga de trabalho de aplicativo inteligente com o Power Platform, é essencial abordar vários riscos importantes e implementar estratégias de mitigação eficazes:
- Recursos da plataforma: entenda os controles nativos e os recursos da plataforma que protegem seus dados. O Microsoft Copilot é criado no Serviço OpenAI do Microsoft Azure e é executado completamente na nuvem do Azure. O copiloto usa modelos do OpenAI com todas as capacidades de segurança do Microsoft Azure. O Copiloto está integrado aos serviços da Microsoft, como o Dynamics 365 e o Power Platform, e herda suas valiosas políticas e processos de segurança, privacidade e conformidade, como a autenticação multifator e limites de conformidade.
- Criptografia de dados: as tecnologias do lado do serviço criptografam o conteúdo organizacional em repouso e em trânsito para uma segurança robusta. As conexões são protegidas por TLS (Transport Layer Security) e as transferências de dados entre o Dynamics 365, o Power Platform e o OpenAI do Azure ocorrem pela rede backbone da Microsoft, garantindo confiabilidade e segurança. Saiba mais sobre criptografia no Microsoft Cloud.
- Controles de acesso: os dados fornecidos ao Copilot (ou um agente personalizado) com base no nível de acesso do usuário atual. Implemente o RBAC (controle de acesso baseado em função) usando o Microsoft Entra ID para garantir que apenas usuários autorizados possam acessar dados. Aplique o princípio do privilégio mínimo para limitar o acesso apenas ao necessário.
- Monitoramento e auditoria: detecte e responda a possíveis incidentes de segurança monitorando regularmente o acesso e o uso do sistema de IA. Mantenha logs de auditoria detalhados para rastrear o acesso aos dados e as modificações.
- Conformidade e governança: garanta a conformidade com regulamentos relevantes de privacidade de dados, como RGPD (Regulamento Geral sobre a Proteção de Dados), HIPAA (Health Insurance Portability and Accountability Act) e CCPA (California Consumer Privacy Act). Implemente práticas éticas de IA para evitar desvios e garantir imparcialidade nas saídas de IA.
- Educação do usuário e treinamento: treinar usuários sobre as melhores práticas de segurança e a importância da privacidade de dados. Mantenha os usuários informados sobre atualizações e alterações em políticas e procedimentos de segurança.
Conscientização e mitigação de desvios
Reconhecer a importância de abordar desvios no sistema e garantir justiça para evitar desvios nas respostas de IA.
- Dados diversos e representativos: garanta que os dados de treinamento sejam diversos e representativos de diferentes dados demográficos para minimizar desvios inerentes. Audite regularmente os dados em busca de desvios e desequilíbrios e tome ações corretivas, conforme necessário.
- Ferramentas de detecção e mitigação de desvios: use ferramentas e técnicas para detectar desvios nos modelos de IA, como análise estatística e métricas de equidade. Implementar técnicas de debiasing, incluindo reamostragem, reponderação ou debiasing adversarial, para reduzir desvios nos modelos.
- Human-in-the-loop: incorpore loops de revisão e feedback humano para identificar e corrigir desvios que a IA pode introduzir. Estabeleça um comitê de ética ou conselho de governança para supervisionar o desenvolvimento e a implantação de IA, garantindo que os padrões éticos sejam atendidos.
- Transparência e confiança: certifique-se de que os usuários saibam que estão usando uma carga de trabalho que usa recursos de IA generativa. Comunique claramente por que uma solução de IA foi escolhida e forneça informações sobre como ela foi projetada e como é monitorada e atualizada.
- Monitoramento e melhoria contínua: monitore continuamente o sistema de IA em busca de vieses e problemas de desempenho e atualize os modelos conforme necessário. Garanta que os modelos permaneçam justos e imparciais, reciclando regularmente os modelos com dados atualizados e mais diversificados.
Monitoramento e avaliação contínuos
Continue melhorando sua carga de trabalho de aplicativos inteligentes. Estabeleça uma estrutura para monitoramento e avaliação contínuos e incorpore o comentário do usuário e a evolução dos padrões éticos nas atualizações.
- Loops de feedback: estabeleça mecanismos de comentários onde os usuários possam relatar imprecisões, que podem ser usados para refinar e melhorar os modelos.
- Monitoramento e auditoria: detecte e responda a possíveis incidentes de segurança monitorando regularmente o acesso e o uso do sistema de IA. Mantenha logs de auditoria detalhados para rastrear o acesso aos dados e as modificações.