Identificar os princípios de orientação para uma IA responsável

Concluído

Na última unidade, discutimos algumas das implicações sociais da IA. Abordamos a responsabilidade de empresas, governos, ONGs e pesquisadores acadêmicos para antecipar e mitigar consequências não intencionais da tecnologia de IA. À medida que as organizações consideram essas responsabilidades, mais estão criando políticas e práticas internas para orientar seus esforços de IA.

Na Microsoft, reconhecemos seis princípios que acreditamos que devem orientar o desenvolvimento e o uso da IA: justiça, confiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade. Para nós, estes princípios são os alicerces de uma abordagem responsável e de confiança à IA, especialmente à medida que a tecnologia inteligente se torna mais predominante nos produtos e serviços que utilizamos todos os dias.

Justiça

Ícone que representa a justiça.

Os sistemas de IA devem tratar todos de forma justa e evitar afetar grupos de pessoas com situação semelhante de maneiras diferentes. Por exemplo, quando os sistemas de IA fornecem orientação sobre tratamento médico, pedidos de empréstimo ou emprego, devem fazer as mesmas recomendações a todos com sintomas, circunstâncias financeiras ou qualificações profissionais semelhantes.

Para garantir a equidade em seu sistema de IA, você deve:

  • Entenda o escopo, o espírito e os usos potenciais do sistema de IA fazendo perguntas como, como o sistema deve funcionar? Para quem é que o sistema foi concebido para funcionar? O sistema funcionará para todos igualmente? Como pode prejudicar os outros?
  • Atrair uma reserva diversificada de talentos. Garantir que a equipe de design reflita o mundo em que vivemos, incluindo membros da equipe que tenham diferentes origens, experiências, educação e perspetivas.
  • Identifique vieses em conjuntos de dados avaliando de onde os dados vieram, entendendo como eles foram organizados e testando para garantir que sejam representados. O viés pode ser introduzido em todas as etapas da criação, desde a coleta até a modelagem e a operação. O Painel de IA Responsável, disponível na seção Recursos, inclui um recurso para ajudar nessa tarefa.
  • Identifique enviesamentos em algoritmos de aprendizagem automática aplicando ferramentas e técnicas que melhorem a transparência e a inteligibilidade dos modelos. Os usuários devem identificar e remover ativamente o viés nos algoritmos de aprendizado de máquina.
  • Aproveite a revisão humana e a experiência de domínio. Treine os funcionários para entender o significado e as implicações dos resultados da IA, especialmente quando a IA é usada para informar decisões consequentes sobre as pessoas. As decisões que usam IA devem ser sempre combinadas com a revisão humana. Inclua especialistas relevantes no processo de design e nas decisões de implantação. Um exemplo seria incluir um especialista no assunto de crédito ao consumo para um sistema de IA de pontuação de crédito. Você deve usar a IA como um copiloto, ou seja, uma ferramenta de assistência que ajuda você a fazer seu trabalho melhor e mais rápido, mas requer algum grau de supervisão.
  • Pesquise e empregue as melhores práticas, técnicas analíticas e ferramentas de outras instituições e empresas para ajudar a detetar, prevenir e abordar preconceitos em sistemas de IA.

Fiabilidade e segurança

Ícone que representa a fiabilidade.

Para construir confiança, é fundamental que os sistemas de IA operem de forma confiável, segura e consistente em circunstâncias normais e em condições inesperadas. Estes sistemas devem ser capazes de funcionar como foram originalmente concebidos, responder com segurança a condições imprevistas e resistir a manipulações prejudiciais. Também é importante ser capaz de verificar se esses sistemas estão se comportando como pretendido em condições reais de operação. A forma como eles se comportam e a variedade de condições que podem lidar de forma confiável e segura reflete, em grande parte, a variedade de situações e circunstâncias que os desenvolvedores antecipam durante o projeto e os testes.

Para garantir a confiabilidade e a segurança em seu sistema de IA, você deve:

  • Desenvolver processos de auditoria de sistemas de IA para avaliar a qualidade e adequação de dados e modelos, monitorar o desempenho contínuo e verificar se os sistemas estão se comportando como pretendido com base em medidas de desempenho estabelecidas.
  • Fornecer uma explicação detalhada da operação do sistema, incluindo especificações de projeto, informações sobre dados de treinamento, falhas de treinamento que ocorreram e possíveis inadequações com dados de treinamento e as inferências e previsões significativas geradas.
  • Conceção para circunstâncias não intencionais, tais como interações acidentais do sistema, introdução de dados maliciosos ou ciberataques.
  • Envolva especialistas de domínio nos processos de design e implementação, especialmente ao usar IA para ajudar a tomar decisões consequentes sobre as pessoas.
  • Realize testes rigorosos durante o desenvolvimento e a implantação do sistema de IA para garantir que os sistemas possam responder com segurança a circunstâncias imprevistas, não tenham falhas de desempenho inesperadas e não evoluam de maneiras inesperadas. Os sistemas de IA envolvidos em cenários de alto risco que afetam a segurança humana ou grandes populações devem ser testados em cenários de laboratório e do mundo real.
  • Avalie quando e como um sistema de IA deve buscar informações humanas para decisões impactantes ou durante situações críticas. Considere como um sistema de IA deve transferir o controle para um ser humano de uma maneira que seja significativa e inteligível. Projete sistemas de IA para garantir que os seres humanos tenham o nível necessário de entrada em decisões altamente impactantes.
  • Desenvolva um mecanismo de feedback robusto para que os usuários relatem problemas de desempenho para que você possa resolvê-los rapidamente.

Privacidade e segurança

Ícone que representa a privacidade.

À medida que a IA se torna mais prevalente, proteger a privacidade e proteger informações pessoais e comerciais importantes está se tornando mais crítico e complexo. Com a IA, as questões de privacidade e segurança de dados exigem atenção especial porque o acesso aos dados é essencial para que os sistemas de IA façam previsões e decisões precisas e informadas sobre as pessoas.

Para garantir privacidade e segurança em seu sistema de IA, você deve:

  • Cumpra as leis relevantes de proteção de dados, privacidade e transparência investindo recursos no desenvolvimento de tecnologias e processos de conformidade ou trabalhando com um líder tecnológico durante o desenvolvimento de sistemas de IA. Desenvolver processos para verificar continuamente se os sistemas de IA estão satisfazendo todos os aspetos dessas leis.
  • Conceber sistemas de IA para manter a integridade dos dados pessoais para que só possam utilizar os dados pessoais durante o tempo necessário e para as finalidades definidas que foram partilhadas com os clientes. Eliminar dados pessoais recolhidos inadvertidamente ou dados que já não sejam relevantes para a finalidade definida.
  • Proteja os sistemas de IA de agentes mal-intencionados , projetando sistemas de IA de acordo com bases de desenvolvimento e operações seguras, usando acesso baseado em funções e protegendo dados pessoais e confidenciais que são transferidos para terceiros. Projete sistemas de IA para identificar comportamentos anormais e evitar manipulação e ataques maliciosos.
  • Projete sistemas de IA com controles apropriados para que os clientes façam escolhas sobre como e por que seus dados são coletados e usados.
  • Certifique-se de que seu sistema de IA mantenha o anonimato , levando em consideração como o sistema remove a identificação pessoal dos dados.
  • Realize revisões de privacidade e segurança para todos os sistemas de IA.
  • Pesquise e implemente as melhores práticas do setor para rastrear informações relevantes sobre dados de clientes, acessar e usar esses dados e auditar o acesso e o uso.

Inclusão

Ícone que representa a inclusão.

Na Microsoft, acreditamos firmemente que todos devem se beneficiar da tecnologia inteligente, o que significa que ela deve incorporar e abordar uma ampla gama de necessidades e experiências humanas. Para 1 bilhão de pessoas com deficiência em todo o mundo, as tecnologias de IA podem ser um divisor de águas. A IA pode melhorar o acesso à educação, aos serviços governamentais, ao emprego, à informação e a uma vasta gama de outras oportunidades. Soluções inteligentes, como transcrição de fala para texto em tempo real, serviços de reconhecimento visual e funcionalidade de texto preditivo, já estão capacitando pessoas com deficiências auditivas, visuais e outras.

Princípios de design inclusivo da Microsoft:

  • Reconhecer a exclusão
  • Resolva por diversão, estenda a muitos
  • Aprender com a diversidade

Para garantir a inclusão em seu sistema de IA, você deve:

  • Cumprir as leis relativas à acessibilidade e inclusão que obrigam à aquisição de tecnologia acessível.
  • Use o Guia Inclusive 101, disponível na seção de recursos deste módulo, para ajudar os desenvolvedores de sistemas a entender e abordar possíveis barreiras em um ambiente de produto que podem excluir pessoas involuntariamente.
  • Peça às pessoas com deficiência que testem seus sistemas para ajudá-lo a descobrir se o sistema pode ser usado como pretendido pelo público mais amplo possível.
  • Considere os padrões de acessibilidade comumente usados para ajudar a garantir que seu sistema seja acessível para pessoas de todas as habilidades.

Transparency

Ícone que representa a transparência.

Subjacentes aos valores precedentes estão dois princípios fundamentais que são essenciais para garantir a eficácia do resto: transparência e responsabilização. É fundamental que as pessoas entendam como os sistemas de IA chegam a conclusões quando são usados para informar decisões que têm um efeito na vida das pessoas. Por exemplo, um banco pode usar um sistema de IA para decidir se uma pessoa é digna de crédito, ou uma empresa pode usar um sistema de IA para determinar os candidatos mais qualificados para contratar.

Uma parte crucial da transparência é o que chamamos de inteligibilidade, ou a explicação útil do comportamento dos sistemas de IA e seus componentes. Melhorar a inteligibilidade requer que as partes interessadas compreendam como e por que elas funcionam, para que possam identificar possíveis problemas de desempenho, preocupações com segurança e privacidade, preconceitos, práticas excludentes ou resultados não intencionais. Também acreditamos que as pessoas que usam sistemas de IA devem ser honestas e sinceras sobre quando, por que e como escolhem implantá-los.

Para garantir a transparência em seu sistema de IA, você deve:

  • Compartilhe as principais características dos conjuntos de dados para ajudar os desenvolvedores a entender se um conjunto de dados específico é apropriado para seu caso de uso.
  • Melhore a inteligibilidade do modelo aplicando modelos mais simples e gerando explicações inteligíveis do comportamento do modelo. Para esta tarefa, você pode usar o Painel de IA Responsável, disponível na seção de recursos.
  • Treine os funcionários sobre como interpretar os resultados da IA e garanta que eles permaneçam responsáveis por tomar decisões consequentes com base nos resultados.

Responsabilidade

Ícone que representa a prestação de contas.

As pessoas que projetam e implantam sistemas de IA devem ser responsáveis por como seus sistemas operam. As organizações devem basear-se nos padrões da indústria para desenvolver normas de responsabilização. Essas normas podem garantir que os sistemas de IA não sejam a autoridade final em qualquer decisão que afete a vida das pessoas e que os seres humanos mantenham um controle significativo sobre sistemas de IA altamente autônomos.

Para garantir a responsabilidade em seu sistema de IA, você deve:

  • Criar comissões de revisão internas para fornecer supervisão e orientação sobre o desenvolvimento e a implantação responsáveis de sistemas de IA. Eles também podem ajudar em tarefas como definir as melhores práticas para documentar e testar sistemas de IA durante o desenvolvimento ou fornecer orientação para casos sensíveis.
  • Certifique-se de que seus funcionários sejam treinados para usar e manter a solução de forma responsável e ética e entender quando a solução pode exigir suporte técnico extra.
  • Mantenha os seres humanos com a experiência necessária no loop , reportando-os e envolvendo-os nas decisões sobre a execução do modelo. Quando a automação das decisões for necessária, certifique-se de que eles sejam capazes de inspecionar, identificar e resolver desafios com a saída e a execução do modelo.
  • Pôr em prática um sistema claro de responsabilização e governação para realizar atividades de correção ou correção se os modelos forem considerados como comportando-se de forma injusta ou potencialmente prejudicial.

Reconhecemos que cada indivíduo, empresa e região tem suas próprias crenças e padrões que devem ser refletidos em sua jornada de IA. Partilhamos a nossa perspetiva consigo enquanto pondera desenvolver os seus próprios princípios orientadores.

Gorjeta

Reserve um momento para debater outros exemplos para cada um dos princípios de IA responsável.
Fotografia que mostra pessoas a trabalhar e a falar à volta de uma mesa.

Estes princípios fornecem uma ideia geral do que devemos fazer ao desenvolver e utilizar a IA. No entanto, é necessário refleti-las a um nível mais prático. Em seguida, vamos explorar como esses princípios podem ser garantidos com um sistema de governança de IA.