Considerações sobre IA responsável para cargas de trabalho de aplicações inteligentes
As cargas de trabalho de aplicações inteligentes têm de aderir à IA responsável para garantir equidade, responsabilidade, transparência e comportamento ético.
Conceba o sistema de IA para tratar todos os utilizadores de forma justa, responsabilizar os programadores e utilizadores por desempenho, garantir a transparência nas operações de IA e aderir a padrões éticos.
Na Microsoft, estamos comprometidos com o avanço da IA impulsionada por princípios que colocam as pessoas em primeiro lugar. Os modelos generativos têm benefícios potenciais significativos, mas sem um design cuidadoso e mitigações ponderadas, estes modelos têm o potencial de gerar conteúdos incorretos ou mesmo nocivos. A Microsoft fez investimentos significativos para ajudar a proteger contra abusos e danos não intencionais, o que inclui incorporar os princípios de utilização da IA responsável da Microsoft, adotar um Código de Conduta, criar filtros de conteúdo para suportar clientes e fornecer informações e orientações de IA responsável que os clientes devem considerar ao usar a IA generativa.
Os copilotos do Power Platform e as caraterísticas de IA generativa seguem um conjunto de práticas básicas de segurança e privacidade e o Padrão de IA Responsável da Microsoft. Os dados do Power Platform são protegidos por controlos de conformidade, segurança e privacidade abrangentes e líderes no setor.
Saber mais:
- Princípios de IA da Microsoft
- Recursos de IA responsável da Microsoft
- Microsoft Azure Cursos de formação sobre IA responsável
- FAQs sobre IA Responsável para o Copilot Studio
- Descrição geral de práticas de IA Responsável para os modelos do Azure OpenAI
Princípios fundamentais da IA responsável
Os princípios fundamentais da IA responsável incluem equidade, responsabilidade, transparência e ética. Garantir que uma carga de trabalho de aplicações inteligentes criada com o Power Platform adere a estes princípios fundamentais envolve várias práticas-chave:
- Equidade: use dados de preparado diversos e representativos para minimizar desvios. Atualize regularmente os dados de preparação e inscreva auditores para validar a equidade.
- Responsabilidade: defina funções e responsabilidades claras para os membros da equipa envolvidos no projeto de IA. Estabelecer e aderir a normas éticas que dão prioridade à equidade e à responsabilidade.
- Transparência: certifique-se de que os utilizadores sabem que estão a utilizar uma carga de trabalho que utiliza capacidades de IA generativa. Comunique claramente o motivo de uma solução de IA ter sido escolhida, como foi concebida e como é monitorizada e atualizada.
- Ética: promova uma força de trabalho inclusiva e procure contribuições de diversas comunidades no início do processo de desenvolvimento. Avalie e teste regularmente modelos para preocupações éticas e disparidades no desempenho. Estabeleça uma estrutura de governação que inclua auditorias regulares.
Incorpore estas práticas nos seus processos de desenvolvimento e implementação para criar uma carga de trabalho de aplicações inteligentes que siga os princípios fundamentais da IA responsável.
Privacidade dos dados e segurança
Garantir a privacidade dos dados é essencial, especialmente porque a carga de trabalho de aplicações inteligentes pode processar dados confidenciais. Ao planear uma carga de trabalho de aplicações inteligentes com o Power Platform, é essencial abordar vários riscos-chave e implementar estratégias de mitigação eficazes:
- Caraterísticas da plataforma: compreenda os controlos nativos e as caraterísticas da plataforma que protegem os seus dados. O Microsoft Copilot está incorporado no Serviço OpenAI do Microsoft Azure e é totalmente executado na cloud do Azure. O Copilot utiliza modelos da OpenAI com todas as capacidades de segurança do Microsoft Azure. O Copilot está integrado em serviços da Microsoft, como o Dynamics 365 e o Power Platform, e herda os respetivos processos e políticas de segurança, privacidade e conformidade, como autenticação multifator e limites de conformidade.
- Encriptação de dados: as tecnologias do lado do serviço encriptam conteúdo organizacional inativo e em circulação para uma segurança robusta. As ligações são salvaguardadas por TLS (Transport Layer Security) e as transferências de dados entre o Dynamics 365, o Power Platform e o OpenAI do Azure ocorrem através da rede de base da Microsoft, garantindo a fiabilidade e a segurança. Obtenha mais informações sobre a encriptação na Microsoft Cloud.
- Controlos de acesso: os dados são fornecidos ao Copilot (ou a um agente personalizado) apenas com base no nível de acesso do utilizador atual. Implemente o controlo de acesso baseado em funções (RBAC) usando o Microsoft Entra ID para garantir que apenas os utilizadores autorizados podem aceder aos dados. Aplique o princípio do privilégio menor para limitar o acesso apenas ao necessário.
- Monitorização e auditoria: detete e responda a potenciais incidentes de segurança ao monitorizar regularmente o acesso e a utilização do sistema de IA. Mantenha registos de auditoria detalhados para rastrear o acesso aos dados e as modificações.
- Conformidade e governação: garanta a conformidade com os regulamentos relevantes de privacidade de dados, como RGPD (Regulamento Geral sobre a Proteção de Dados), HIPAA (Health Insurance Portability and Accountability Act) e CCPA (California Consumer Privacy Act). Implemente práticas de IA éticas para evitar desvios e garantir a equidade nos resultados da IA.
- Educação e preparação dos utilizadores: prepare os utilizadores para as melhores práticas de segurança e a importância da privacidade de dados. Mantenha os utilizadores informados sobre atualizações e alterações às políticas e aos procedimentos de segurança.
Mais informações: FAQ sobre a segurança e a privacidade de dados do Copilot para o Dynamics 365 e o Power Platform
Sensibilização e mitigação de desvios
Reconheça a importância de abordar desvios no sistema e garantir a equidade para evitar desvios em respostas da IA.
- Dados diversos e representativos: certifique-se de que os dados de preparação são diversos e representativos de diferentes demografias para minimizar desvios inerentes. Audite regularmente os dados em relação a desvios e desequilíbrios e tome medidas corretivas conforme necessário.
- Ferramentas de deteção e mitigação de desvios: utilize ferramentas e técnicas para detetar desvios nos modelos de IA, tais como análise estatística e métricas de equidade. Implemente técnicas de remoção de desvios, incluindo nova amostragem, nova ponderação ou remoção adversa de desvios, para reduzir desvios nos modelos.
- Humano no ciclo: incorpore ciclos de revisão e feedback humanos para identificar e corrigir desvios que a IA possa introduzir. Estabeleça um comité de ética ou um conselho de governação para supervisionar o desenvolvimento e a implementação da IA, garantindo que as normas éticas são cumpridas.
- Transparência e confiança: certifique-se de que os utilizadores sabem que estão a utilizar uma carga de trabalho que utiliza capacidades de IA generativa. Comunique claramente o motivo de uma solução de IA ter sido escolhida e forneça informações sobre como foi concebida e como é monitorizada e atualizada.
- Monitorização e melhoria contínuas: monitorize continuamente o sistema de IA à procura de desvios e problemas de desempenho e atualize os modelos conforme necessário. Garanta que os modelos permanecem justos e imparciais ao voltar a preparar os modelos com dados atualizados e mais diversificados.
Monitorização e avaliação contínuas
Continue a melhorar a sua carga de trabalho de aplicações inteligentes. Estabeleça uma estrutura para monitorização e avaliação contínuas e incorporar o feedback dos utilizadores e a evolução das normas éticas nas atualizações.
- Ciclos de feedback: estabeleça mecanismos de feedback onde os utilizadores podem reportar imprecisões, que podem ser usados para refinar e melhorar os modelos.
- Monitorização e auditoria: detete e responda a potenciais incidentes de segurança ao monitorizar regularmente o acesso e a utilização do sistema de IA. Mantenha registos de auditoria detalhados para rastrear o acesso aos dados e as modificações.