Prepare-se para as implicações de uma IA responsável

Concluído

A IA é a tecnologia definidora do nosso tempo. Ele já está permitindo um progresso mais rápido e profundo em quase todos os campos do empreendimento humano e ajudando a enfrentar alguns dos desafios mais assustadores da sociedade. Por exemplo, a IA pode ajudar as pessoas com deficiência visual a compreender as imagens, gerando texto descritivo para as imagens. Em outro exemplo, a IA pode ajudar os agricultores a produzir alimentos suficientes para a crescente população global.

Na Microsoft, acreditamos que a inteligência computacional da IA deve ser usada para amplificar a criatividade e engenhosidade inata dos seres humanos. Nossa visão para a IA é capacitar todos os desenvolvedores para inovar, capacitar as organizações para transformar indústrias e capacitar as pessoas para transformar a sociedade.

Implicações societais da IA

Como em todas as grandes inovações tecnológicas no passado, o uso da tecnologia de IA tem amplos impactos na sociedade, levantando questões complexas e desafiadoras sobre o futuro que queremos ver. A IA tem implicações na tomada de decisões em todos os setores, na segurança e privacidade dos dados e nas competências de que as pessoas necessitam para serem bem-sucedidas no local de trabalho. Ao olharmos para este futuro, devemos perguntar-nos:

  • Como projetamos, construímos e usamos sistemas de IA que criam um impacto positivo nos indivíduos e na sociedade?
  • Como podemos preparar melhor os trabalhadores para os efeitos da IA?
  • Como podemos alcançar os benefícios da IA respeitando a privacidade?

A importância de uma abordagem responsável da IA

É importante reconhecer que, à medida que novas tecnologias inteligentes surgem e proliferam por toda a sociedade, com seus benefícios vêm consequências não intencionais e imprevistas. Algumas destas consequências têm ramificações éticas significativas e o potencial para causar danos graves. Embora as organizações ainda não possam prever o futuro, é nossa responsabilidade fazer um esforço concertado para antecipar e mitigar as consequências não intencionais da tecnologia que lançamos no mundo por meio de planejamento deliberado e supervisão contínua.

Ameaças

Cada avanço nas tecnologias de IA traz um novo lembrete de nossa responsabilidade compartilhada. Por exemplo, em 2016, a Microsoft lançou um chatbot no X chamado Tay, que poderia aprender com as interações com os usuários do X. O objetivo era permitir que o chatbot replicasse melhor a comunicação humana e os traços de personalidade. No entanto, em 24 horas, os usuários perceberam que o chatbot poderia aprender com a retórica preconceituosa e transformaram o chatbot em um veículo para o discurso de ódio. Esta experiência é um exemplo de por que devemos considerar as ameaças humanas ao projetar sistemas de IA.

As novas ameaças exigem uma evolução constante na nossa abordagem à IA responsável. Por exemplo, como a IA generativa permite que as pessoas criem ou editem vídeos, imagens ou arquivos de áudio de forma tão credível que pareçam reais, a autenticidade da mídia é mais difícil de verificar. Em resposta, a Microsoft está se unindo a outras partes interessadas em tecnologia e notícias para desenvolver padrões técnicos para lidar com a manipulação relacionada a deepfake.

Nota

Para se preparar para novos tipos de ataques que poderiam influenciar conjuntos de dados de aprendizagem, a Microsoft desenvolveu tecnologia como filtros de conteúdo avançados e introduziu supervisores para sistemas de IA com recursos de aprendizado automático. Os modelos atuais de IA generativa, como os fornecidos nos Serviços de IA do Azure ou no Bing Chat, são criados com base nessas informações.

Resultados tendenciosos

Outra consequência não intencional que as organizações devem ter em mente é que a IA pode reforçar preconceitos sociais ou outros sem planejamento e design deliberados. É importante que os desenvolvedores entendam como o viés pode ser introduzido nos dados de treinamento ou nos modelos de aprendizado de máquina. Esse problema pode ser generalizado em modelos pré-construídos porque o usuário pode não estar manipulando os dados de treinamento por conta própria.

Por exemplo, considere uma grande instituição financeira de crédito que deseja desenvolver um sistema de pontuação de risco para aprovações de empréstimos. Quando os engenheiros testam o sistema antes da implantação, percebem que ele só aprova empréstimos para mutuários do sexo masculino. Como o sistema foi treinado com base em dados de clientes anteriores, ele reproduziu o histórico de preconceito sexista dos agentes de empréstimos. A validação do sistema antes da implantação nos permitiu identificar e resolver o problema antes que o sistema estivesse operacional.

Nota

Na Microsoft, nossos pesquisadores estão explorando ferramentas e técnicas para detetar e reduzir o viés em sistemas de IA. Os modelos pré-construídos são validados minuciosamente, mas, no entanto, devem ser usados com sabedoria e seus resultados devem ser sempre auditados antes de tomar medidas.

Casos de uso sensíveis

Outra ilustração da nossa responsabilidade em mitigar consequências não intencionais é com tecnologias sensíveis como o reconhecimento facial. Recentemente, tem havido uma crescente demanda por tecnologia de reconhecimento facial, especialmente de organizações de aplicação da lei que veem o potencial da tecnologia para casos de uso, como encontrar crianças desaparecidas. No entanto, reconhecemos que estas tecnologias podem pôr em risco as liberdades fundamentais. Poderiam, por exemplo, permitir a vigilância contínua de indivíduos específicos. Acreditamos que a sociedade tem a responsabilidade de estabelecer limites apropriados para o uso dessas tecnologias, o que inclui garantir que o uso governamental da tecnologia de reconhecimento facial permaneça sujeito ao Estado de direito.

Embora novas leis e regulamentos devam ser escritos, eles não substituem a responsabilidade que todos temos ao nos envolvermos com a IA. Trabalhando em conjunto, empresas, governos, ONGs e pesquisadores acadêmicos podem lidar com casos de uso sensíveis.

Nota

A Microsoft avalia e desenvolve princípios para reger o nosso trabalho com tecnologias de reconhecimento facial. Prevemos que esses princípios evoluirão ao longo do tempo à medida que continuamos a aprender e fazer parcerias com clientes, outras empresas de tecnologia, acadêmicos, sociedade civil e outros sobre essa questão. A Microsoft usa práticas responsáveis de IA para detetar, prevenir e mitigar esses problemas, mas qualquer projeto relacionado à IA também deve considerá-los.

A seguir, vamos ver como os seis princípios orientadores da Microsoft para IA responsável podem ser aplicados em outras organizações.