Partilhar via


Considerações sobre IA responsável para cargas de trabalho de aplicações inteligentes

As cargas de trabalho de aplicações inteligentes têm de aderir à IA responsável para garantir equidade, responsabilidade, transparência e comportamento ético.

Conceba o sistema de IA para tratar todos os utilizadores de forma justa, responsabilizar os programadores e utilizadores por desempenho, garantir a transparência nas operações de IA e aderir a padrões éticos.

Na Microsoft, estamos comprometidos com o avanço da IA impulsionada por princípios que colocam as pessoas em primeiro lugar. Os modelos generativos têm benefícios potenciais significativos, mas sem um design cuidadoso e mitigações ponderadas, estes modelos têm o potencial de gerar conteúdos incorretos ou mesmo nocivos. A Microsoft fez investimentos significativos para ajudar a proteger contra abusos e danos não intencionais, o que inclui incorporar os princípios de utilização da IA responsável da Microsoft, adotar um Código de Conduta, criar filtros de conteúdo para suportar clientes e fornecer informações e orientações de IA responsável que os clientes devem considerar ao usar a IA generativa.

Os copilotos do Power Platform e as caraterísticas de IA generativa seguem um conjunto de práticas básicas de segurança e privacidade e o Padrão de IA Responsável da Microsoft. Os dados do Power Platform são protegidos por controlos de conformidade, segurança e privacidade abrangentes e líderes no setor.

Saber mais:

Princípios fundamentais da IA responsável

Os princípios fundamentais da IA responsável incluem equidade, responsabilidade, transparência e ética. Garantir que uma carga de trabalho de aplicações inteligentes criada com o Power Platform adere a estes princípios fundamentais envolve várias práticas-chave:

  • Equidade: use dados de preparado diversos e representativos para minimizar desvios. Atualize regularmente os dados de preparação e inscreva auditores para validar a equidade.
  • Responsabilidade: defina funções e responsabilidades claras para os membros da equipa envolvidos no projeto de IA. Estabelecer e aderir a normas éticas que dão prioridade à equidade e à responsabilidade.
  • Transparência: certifique-se de que os utilizadores sabem que estão a utilizar uma carga de trabalho que utiliza capacidades de IA generativa. Comunique claramente o motivo de uma solução de IA ter sido escolhida, como foi concebida e como é monitorizada e atualizada.
  • Ética: promova uma força de trabalho inclusiva e procure contribuições de diversas comunidades no início do processo de desenvolvimento. Avalie e teste regularmente modelos para preocupações éticas e disparidades no desempenho. Estabeleça uma estrutura de governação que inclua auditorias regulares.

Incorpore estas práticas nos seus processos de desenvolvimento e implementação para criar uma carga de trabalho de aplicações inteligentes que siga os princípios fundamentais da IA responsável.

Privacidade dos dados e segurança

Garantir a privacidade dos dados é essencial, especialmente porque a carga de trabalho de aplicações inteligentes pode processar dados confidenciais. Ao planear uma carga de trabalho de aplicações inteligentes com o Power Platform, é essencial abordar vários riscos-chave e implementar estratégias de mitigação eficazes:

  • Caraterísticas da plataforma: compreenda os controlos nativos e as caraterísticas da plataforma que protegem os seus dados. O Microsoft Copilot está incorporado no Serviço OpenAI do Microsoft Azure e é totalmente executado na cloud do Azure. O Copilot utiliza modelos da OpenAI com todas as capacidades de segurança do Microsoft Azure. O Copilot está integrado em serviços da Microsoft, como o Dynamics 365 e o Power Platform, e herda os respetivos processos e políticas de segurança, privacidade e conformidade, como autenticação multifator e limites de conformidade.
  • Encriptação de dados: as tecnologias do lado do serviço encriptam conteúdo organizacional inativo e em circulação para uma segurança robusta. As ligações são salvaguardadas por TLS (Transport Layer Security) e as transferências de dados entre o Dynamics 365, o Power Platform e o OpenAI do Azure ocorrem através da rede de base da Microsoft, garantindo a fiabilidade e a segurança. Obtenha mais informações sobre a encriptação na Microsoft Cloud.
  • Controlos de acesso: os dados são fornecidos ao Copilot (ou a um agente personalizado) apenas com base no nível de acesso do utilizador atual. Implemente o controlo de acesso baseado em funções (RBAC) usando o Microsoft Entra ID para garantir que apenas os utilizadores autorizados podem aceder aos dados. Aplique o princípio do privilégio menor para limitar o acesso apenas ao necessário.
  • Monitorização e auditoria: detete e responda a potenciais incidentes de segurança ao monitorizar regularmente o acesso e a utilização do sistema de IA. Mantenha registos de auditoria detalhados para rastrear o acesso aos dados e as modificações.
  • Conformidade e governação: garanta a conformidade com os regulamentos relevantes de privacidade de dados, como RGPD (Regulamento Geral sobre a Proteção de Dados), HIPAA (Health Insurance Portability and Accountability Act) e CCPA (California Consumer Privacy Act). Implemente práticas de IA éticas para evitar desvios e garantir a equidade nos resultados da IA.
  • Educação e preparação dos utilizadores: prepare os utilizadores para as melhores práticas de segurança e a importância da privacidade de dados. Mantenha os utilizadores informados sobre atualizações e alterações às políticas e aos procedimentos de segurança.

Mais informações: FAQ sobre a segurança e a privacidade de dados do Copilot para o Dynamics 365 e o Power Platform

Sensibilização e mitigação de desvios

Reconheça a importância de abordar desvios no sistema e garantir a equidade para evitar desvios em respostas da IA.

  • Dados diversos e representativos: certifique-se de que os dados de preparação são diversos e representativos de diferentes demografias para minimizar desvios inerentes. Audite regularmente os dados em relação a desvios e desequilíbrios e tome medidas corretivas conforme necessário.
  • Ferramentas de deteção e mitigação de desvios: utilize ferramentas e técnicas para detetar desvios nos modelos de IA, tais como análise estatística e métricas de equidade. Implemente técnicas de remoção de desvios, incluindo nova amostragem, nova ponderação ou remoção adversa de desvios, para reduzir desvios nos modelos.
  • Humano no ciclo: incorpore ciclos de revisão e feedback humanos para identificar e corrigir desvios que a IA possa introduzir. Estabeleça um comité de ética ou um conselho de governação para supervisionar o desenvolvimento e a implementação da IA, garantindo que as normas éticas são cumpridas.
  • Transparência e confiança: certifique-se de que os utilizadores sabem que estão a utilizar uma carga de trabalho que utiliza capacidades de IA generativa. Comunique claramente o motivo de uma solução de IA ter sido escolhida e forneça informações sobre como foi concebida e como é monitorizada e atualizada.
  • Monitorização e melhoria contínuas: monitorize continuamente o sistema de IA à procura de desvios e problemas de desempenho e atualize os modelos conforme necessário. Garanta que os modelos permanecem justos e imparciais ao voltar a preparar os modelos com dados atualizados e mais diversificados.

Monitorização e avaliação contínuas

Continue a melhorar a sua carga de trabalho de aplicações inteligentes. Estabeleça uma estrutura para monitorização e avaliação contínuas e incorporar o feedback dos utilizadores e a evolução das normas éticas nas atualizações.

  • Ciclos de feedback: estabeleça mecanismos de feedback onde os utilizadores podem reportar imprecisões, que podem ser usados para refinar e melhorar os modelos.
  • Monitorização e auditoria: detete e responda a potenciais incidentes de segurança ao monitorizar regularmente o acesso e a utilização do sistema de IA. Mantenha registos de auditoria detalhados para rastrear o acesso aos dados e as modificações.