Entender as considerações para a IA responsável

Concluído

A unidade anterior introduziu a necessidade de considerações para o desenvolvimento responsável e ético do software habilitado para IA. Nesta unidade, discutiremos alguns princípios fundamentais para IA responsável que foram adotados na Microsoft.

Imparcialidade

An image of scales

Os sistemas de IA devem tratar todas as pessoas de maneira justa. Por exemplo, suponha que você crie um modelo de machine learning para dar suporte a um aplicativo de aprovação de empréstimos para um banco. O modelo deve fazer previsões quanto a se o empréstimo deve ou não ser aprovado sem incorporar nenhum viés com base no gênero, na etnia ou em outros fatores que possam resultar em uma vantagem desvantagem injusta para grupos específicos de requerentes.

A imparcialidade dos sistemas aprendidos pela máquina é uma área altamente ativa de pesquisa contínua e algumas soluções de software existem para avaliar, quantificar e mitigar a incerteza em modelos aprendidos pela máquina. No entanto, as ferramentas em si não são suficientes para garantir a imparcialidade. Considere a imparcialidade desde o início do processo de desenvolvimento de aplicativos, examine atentamente os dados de treinamento para garantir que eles sejam representativos de todos os assuntos potencialmente afetados e avalie o desempenho de previsão de subseções da população do usuário durante todo o ciclo de vida de desenvolvimento.

Confiabilidade e segurança

An image of a shield

Os sistemas de IA devem ser executados de maneira confiável e segura. Por exemplo, considere um sistema de software baseado em IA para um veículo autônomo ou um modelo de machine learning que diagnostica os sintomas dos pacientes e recomenda as prescrições. A não confiabilidade nesses tipos de sistema pode resultar em risco substancial à vida humana.

O desenvolvimento de aplicativos de software baseados em IA deve estar sujeito a rigorosos processos de gerenciamento de implantação e de teste para verificar se eles funcionam conforme o esperado antes do lançamento. Além disso, os engenheiros de software precisam levar em conta a natureza probabilística dos modelos de aprendizado de máquina e aplicar os limites apropriados ao avaliar as pontuações de confiança para previsões.

Privacidade e segurança

An image of a padlock

Os sistemas de IA devem ser seguros e respeitar a privacidade. Os modelos de machine learning nos quais os sistemas de IA se baseiam dependem de grandes volumes de dados, que podem conter detalhes pessoais que precisam ser mantidos particulares. Mesmo depois que os modelos são treinados e o sistema está em produção, eles usam novos dados para fazer previsões ou tomar medidas que possam estar sujeitas a questões de privacidade ou segurança. Portanto, devem ser implementadas proteções adequadas para os dados e o conteúdo do cliente.

Inclusão

An image of a group of people

Os sistemas de IA devem capacitar todos e envolver as pessoas. O IA deve levar benefícios a todas as camadas da sociedade, independentemente da capacidade física, do sexo, da orientação sexual, da etnia ou de outros fatores.

Uma maneira de otimizar a inclusividade é garantir que o design, o desenvolvimento e o teste do seu aplicativo incluam a entrada de um grupo de pessoas o mais diversificado possível.

Transparência

An image of an eye

Os sistemas de IA devem ser compreensíveis. Os usuários devem ficar totalmente cientes da finalidade do sistema, de como ele funciona e de quais limitações podem ser esperadas.

Por exemplo, quando um sistema de IA é baseado em um modelo de aprendizado de máquina, você geralmente deve fazer com que os usuários saibam de fatores que possam afetar a precisão de suas previsões, como o número de casos usados para treinar o modelo ou os recursos específicos que têm maior influência sobre suas previsões. Você também deve compartilhar informações sobre a pontuação de confiança para previsões.

Quando um aplicativo de IA depende de dados pessoais, como um sistema de reconhecimento facial que usa imagens de pessoas para reconhecê-las, você deve tornar claro para o usuário como seus dados são usados e retidos e quem tem acesso a ele.

Responsabilidade

An image of a handshake

As pessoas devem ser responsáveis pelos sistemas de IA. Embora muitos sistemas de IA pareçam operar de modo autônomo, por fim, é de responsabilidade dos desenvolvedores que treinaram e validaram os modelos que eles usam, e que definiram a lógica que dão base para as decisões em previsões de modelo, de garantir que o sistema geral atenda aos requisitos de responsabilidade. Para ajudar a alcançar esse objetivo, os designers e desenvolvedores de uma solução baseada em IA devem funcionar dentro de uma estrutura de governança e de princípios organizacionais que garantem que a solução cumpra a padrões éticos e legais claramente definidos.

Observação

A Microsoft lançou atualizações significativas para o Padrão de Uso Responsável de IA em junho de 2022. Como parte disso, atualizamos a abordagem para reconhecimento facial, incluindo uma nova política de Acesso Limitado para determinados recursos como uma proteção para uso responsável. Você pode solicitar esse acesso limitado para habilitar esses recursos para o seu aplicativo.

Para obter mais informações sobre os princípios da Microsoft para IA responsável, visite o site de IA responsável da Microsoft.