Compreender as considerações para uma IA responsável
A unidade anterior introduziu a necessidade de considerações para o desenvolvimento responsável e ético de software habilitado para IA. Nesta unidade, discutiremos alguns princípios fundamentais para IA responsável que foram adotados na Microsoft.
Justiça
Os sistemas de IA devem tratar todas as pessoas de forma justa. Por exemplo, imagine que cria um modelo de machine learning para suportar uma candidatura de aprovação de empréstimo a um banco. O modelo deve fazer predições sobre se um empréstimo deve ser aprovado sem incorporar tendências com base no sexo, etnia ou outros fatores que podem resultar numa vantagem ou desvantagem injusta para grupos específicos de candidatos.
A equidade dos sistemas de aprendizado de máquina é uma área altamente ativa de pesquisa contínua, e algumas soluções de software existem para avaliar, quantificar e mitigar injustiças em modelos de aprendizado de máquina. No entanto, o ferramental por si só não é suficiente para garantir a equidade. Considerar a equidade desde o início do processo de desenvolvimento de aplicações; Revisar cuidadosamente os dados de treinamento para garantir que sejam representativos de todos os assuntos potencialmente afetados e avaliar o desempenho preditivo para subseções de sua população de usuários ao longo do ciclo de vida de desenvolvimento.
Fiabilidade e segurança
Os sistemas de IA devem ser executados de forma fiável e segura. Por exemplo, considere um sistema de software baseado em IA para um veículo autónomo ou um modelo de machine learning que diagnostica os sintomas dos pacientes e recomenda prescrições. A falta de fiabilidade destes tipos de sistema pode resultar num risco substancial para a vida humana.
Como acontece com qualquer software, o desenvolvimento de aplicativos de software baseados em IA deve ser submetido a rigorosos testes e processos de gerenciamento de implantação para garantir que eles funcionem conforme o esperado antes do lançamento. Além disso, os engenheiros de software precisam levar em conta a natureza probabilística dos modelos de aprendizado de máquina e aplicar limites apropriados ao avaliar pontuações de confiança para previsões.
Privacidade e segurança
Os sistemas de IA devem ser seguros e respeitar a privacidade. Os modelos de machine learning nos quais os sistemas de IA se baseiam dependem de grandes volumes de dados, que podem conter dados pessoais que têm de ser mantidos em privado. Mesmo depois que os modelos são treinados e o sistema está em produção, eles usam novos dados para fazer previsões ou tomar medidas que podem estar sujeitas a preocupações de privacidade ou segurança; Por conseguinte, devem ser implementadas salvaguardas adequadas para proteger os dados e o conteúdo dos clientes.
Inclusão
Os sistemas de IA devem capacitar todas as pessoas e interagir com as pessoas. A IA deve trazer benefícios para toda a sociedade, independentemente da capacidade física, sexo, orientação sexual, etnia ou outros fatores.
Uma maneira de otimizar para a inclusão é garantir que o design, o desenvolvimento e o teste do seu aplicativo incluam informações de um grupo de pessoas tão diverso quanto possível.
Transparency
Os sistemas de IA devem ser compreensíveis. Os utilizadores devem saber a finalidade do sistema, como funciona e quais as limitações esperadas.
Por exemplo, quando um sistema de IA é baseado em um modelo de aprendizado de máquina, você geralmente deve conscientizar os usuários sobre fatores que podem afetar a precisão de suas previsões, como o número de casos usados para treinar o modelo ou os recursos específicos que têm mais influência sobre suas previsões. Você também deve compartilhar informações sobre a pontuação de confiança para previsões.
Quando um aplicativo de IA depende de dados pessoais, como um sistema de reconhecimento facial que tira imagens de pessoas para reconhecê-las; Deve deixar claro ao utilizador como os seus dados são utilizados e conservados, e quem tem acesso aos mesmos.
Responsabilidade
As pessoas devem ser responsáveis pelos sistemas de IA. Embora muitos sistemas de IA pareçam operar de forma autônoma, em última análise, é responsabilidade dos desenvolvedores que treinaram e validaram os modelos que usam e definiram a lógica que baseia as decisões em previsões de modelos para garantir que o sistema geral atenda aos requisitos de responsabilidade. Para ajudar a atingir esse objetivo, os designers e desenvolvedores de soluções baseadas em IA devem trabalhar dentro de uma estrutura de governança e princípios organizacionais que garantam que a solução atenda a padrões éticos e legais claramente definidos.
Nota
A Microsoft lançou atualizações significativas para o Responsible AI Standard em junho de 2022. Como parte disso, atualizamos a abordagem ao reconhecimento facial, incluindo uma nova política de Acesso Limitado para determinados recursos como salvaguarda para uso responsável. Você pode solicitar esse acesso limitado para habilitar esses recursos para seu aplicativo.
Para obter mais informações sobre os princípios da Microsoft para IA responsável, visite o site de IA responsável da Microsoft.