Compartilhar via


Considerações de IA responsável para cargas de trabalho de aplicativos inteligentes

As cargas de trabalho de aplicativos inteligentes precisam aderir aos princípios de IA responsável para garantir justiça, responsabilidade, transparência e comportamento ético.

Projete o sistema de IA para tratar todos os usuários de maneira justa, responsabilizar desenvolvedores e usuários por seu desempenho, garantir transparência nas operações de IA e aderir a padrões éticos.

Na Microsoft, estamos comprometidos com o avanço da IA conduzida por princípios que colocam as pessoas em primeiro lugar. Os modelos generativos têm benefícios potenciais significativos, mas sem um design cuidadoso e mitigações cuidadosas, tais modelos têm o potencial de criar conteúdo incorreto ou mesmo prejudicial. A Microsoft fez investimentos significativos para ajudar a proteger contra abusos e danos não intencionais, o que inclui incorporar os princípios da Microsoft para o uso responsável de IA, adotar um Código de Conduta, criar filtros de conteúdo para apoiar os clientes e fornecer informações e orientações de IA responsáveis que os clientes devem considerar ao usar IA generativa.

Os copilotos do Power Platform e os recursos de IA generativa seguem um conjunto de práticas básicas de segurança e privacidade e o Padrão de IA Responsável da Microsoft. Os dados do Power Platform são protegidos por controles abrangentes de conformidade, segurança e privacidade líderes do setor.

Saiba mais:

Princípios fundamentais da IA responsável

Os princípios básicos da IA responsável incluem justiça, responsabilidade, transparência e ética. Garantir que uma carga de trabalho de aplicativo inteligente criada com o Power Platform siga esses princípios básicos envolve várias práticas principais:

  • Equidade: use dados de treinamento diversificados e representativos para minimizar desvios. Atualize regularmente os dados de treinamento e recorra a auditores para validar a equidade.
  • Responsabilidade: defina papéis e responsabilidades claros para os membros da equipe envolvidos no projeto de IA. Estabelecer e aderir a padrões éticos que priorizem a equidade e a responsabilidade.
  • Transparência: certifique-se de que os usuários saibam que estão usando uma carga de trabalho que usa recursos de IA generativa. Comunique claramente o motivo de uma solução de IA ser escolhida, como foi projetada e como é monitorada e atualizada.
  • Ética: promova uma força de trabalho inclusiva e buscar contribuições de diversas comunidades no início do processo de desenvolvimento. Avaliar e testar regularmente modelos para preocupações éticas e disparidades de desempenho. Estabelecer uma estrutura de governança que inclua auditorias regulares.

Incorpore essas práticas em seus processos de desenvolvimento e implantação para criar uma carga de trabalho de aplicativo inteligente que siga os princípios básicos da IA responsável.

Privacidade e segurança dos dados

Garantir a privacidade dos dados é fundamental, especialmente porque a carga de trabalho do aplicativo inteligente pode lidar com dados confidenciais. Ao planejar uma carga de trabalho de aplicativo inteligente com o Power Platform, é essencial abordar vários riscos importantes e implementar estratégias de mitigação eficazes:

  • Recursos da plataforma: entenda os controles nativos e os recursos da plataforma que protegem seus dados. O Microsoft Copilot é criado no Serviço OpenAI do Microsoft Azure e é executado completamente na nuvem do Azure. O copiloto usa modelos do OpenAI com todas as capacidades de segurança do Microsoft Azure. O Copiloto está integrado aos serviços da Microsoft, como o Dynamics 365 e o Power Platform, e herda suas valiosas políticas e processos de segurança, privacidade e conformidade, como a autenticação multifator e limites de conformidade.
  • Criptografia de dados: as tecnologias do lado do serviço criptografam o conteúdo organizacional em repouso e em trânsito para uma segurança robusta. As conexões são protegidas por TLS (Transport Layer Security) e as transferências de dados entre o Dynamics 365, o Power Platform e o OpenAI do Azure ocorrem pela rede backbone da Microsoft, garantindo confiabilidade e segurança. Saiba mais sobre criptografia no Microsoft Cloud.
  • Controles de acesso: os dados fornecidos ao Copilot (ou um agente personalizado) com base no nível de acesso do usuário atual. Implemente o RBAC (controle de acesso baseado em função) usando o Microsoft Entra ID para garantir que apenas usuários autorizados possam acessar dados. Aplique o princípio do privilégio mínimo para limitar o acesso apenas ao necessário.
  • Monitoramento e auditoria: detecte e responda a possíveis incidentes de segurança monitorando regularmente o acesso e o uso do sistema de IA. Mantenha logs de auditoria detalhados para rastrear o acesso aos dados e as modificações.
  • Conformidade e governança: garanta a conformidade com regulamentos relevantes de privacidade de dados, como RGPD (Regulamento Geral sobre a Proteção de Dados), HIPAA (Health Insurance Portability and Accountability Act) e CCPA (California Consumer Privacy Act). Implemente práticas éticas de IA para evitar desvios e garantir imparcialidade nas saídas de IA.
  • Educação do usuário e treinamento: treinar usuários sobre as melhores práticas de segurança e a importância da privacidade de dados. Mantenha os usuários informados sobre atualizações e alterações em políticas e procedimentos de segurança.

Saiba mais: Perguntas frequentes sobre a segurança e a privacidade dos dados do Copilot no Dynamics 365 e no Power Platform

Conscientização e mitigação de desvios

Reconhecer a importância de abordar desvios no sistema e garantir justiça para evitar desvios nas respostas de IA.

  • Dados diversos e representativos: garanta que os dados de treinamento sejam diversos e representativos de diferentes dados demográficos para minimizar desvios inerentes. Audite regularmente os dados em busca de desvios e desequilíbrios e tome ações corretivas, conforme necessário.
  • Ferramentas de detecção e mitigação de desvios: use ferramentas e técnicas para detectar desvios nos modelos de IA, como análise estatística e métricas de equidade. Implementar técnicas de debiasing, incluindo reamostragem, reponderação ou debiasing adversarial, para reduzir desvios nos modelos.
  • Human-in-the-loop: incorpore loops de revisão e feedback humano para identificar e corrigir desvios que a IA pode introduzir. Estabeleça um comitê de ética ou conselho de governança para supervisionar o desenvolvimento e a implantação de IA, garantindo que os padrões éticos sejam atendidos.
  • Transparência e confiança: certifique-se de que os usuários saibam que estão usando uma carga de trabalho que usa recursos de IA generativa. Comunique claramente por que uma solução de IA foi escolhida e forneça informações sobre como ela foi projetada e como é monitorada e atualizada.
  • Monitoramento e melhoria contínua: monitore continuamente o sistema de IA em busca de vieses e problemas de desempenho e atualize os modelos conforme necessário. Garanta que os modelos permaneçam justos e imparciais, reciclando regularmente os modelos com dados atualizados e mais diversificados.

Monitoramento e avaliação contínuos

Continue melhorando sua carga de trabalho de aplicativos inteligentes. Estabeleça uma estrutura para monitoramento e avaliação contínuos e incorpore o comentário do usuário e a evolução dos padrões éticos nas atualizações.

  • Loops de feedback: estabeleça mecanismos de comentários onde os usuários possam relatar imprecisões, que podem ser usados para refinar e melhorar os modelos.
  • Monitoramento e auditoria: detecte e responda a possíveis incidentes de segurança monitorando regularmente o acesso e o uso do sistema de IA. Mantenha logs de auditoria detalhados para rastrear o acesso aos dados e as modificações.