Compartilhar insights de IA Responsável usando o scorecard de IA Responsável (versão prévia)
Nosso painel de AI Responsável foi projetado para profissionais de machine learning e cientistas de dados explorarem e avaliarem os insights dos modelos e informarem suas decisões controladas por dados. Embora possa ajudar você a implementar a IA Responsável de forma prática no ciclo de vida de machine learning, algumas necessidades não foram atendidas:
- Geralmente existe uma lacuna entre as ferramentas técnicas de IA responsável (projetadas para profissionais de machine learning) e os requisitos éticos, regulatórios e de negócios que definem o ambiente de produção.
- Embora um ciclo de vida de machine learning de ponta a ponta inclua stakeholders técnicos e não técnicos no loop, há pouco suporte para permitir um alinhamento efetivo de vários stakeholders, ajudando os especialistas técnicos a obter feedbacks e direcionamentos em tempo hábil de stakeholders não técnicos.
- Os regulamentos de IA fazem com que seja essencial poder compartilhar insights de modelo e dados com auditores e oficiais de risco para fins de auditoria.
Um dos maiores benefícios do uso do ecossistema de Azure Machine Learning está relacionado ao arquivamento do modelo e dos insights de dados no Histórico de Execuções do Azure Machine Learning (para referência rápida no futuro). Como parte dessa infraestrutura e para acompanhar modelos de machine learning e seus painéis de IA Responsável correspondentes, apresentamos o scorecard de IA Responsável para habilitar os profissionais de ML a gerar e compartilhar seus registros de integridade de dados e modelos facilmente.
Importante
Esse recurso está atualmente em visualização pública. Essa versão prévia é fornecida sem um contrato de nível de serviço e não é recomendada para cargas de trabalho de produção. Alguns recursos podem não ter suporte ou podem ter restrição de recursos.
Para obter mais informações, consulte Termos de Uso Complementares de Versões Prévias do Microsoft Azure.
Quem deve usar um scorecard de IA responsável?
Se você for um cientista de dados ou um profissional de machine learning, após treinar o modelo e gerar os painéis de IA Responsável correspondentes para avaliação e tomada de decisão você poderá extrair esses aprendizados por meio de nosso scorecard em PDF e compartilhar o relatório facilmente com os stakeholders técnicos e não técnicos para criar a confiança e obter a aprovação para implantação.
Se você for um gerente de produto, líder de negócios ou um stakeholder responsável em um produto de IA, poderá passar seus valores de destino de imparcialidade e desempenho de modelo desejados, como precisão de destino, taxa de erro de destino, etc., para sua equipe de ciência de dados, solicitando que eles gerem esse scorecard em relação aos valores de destino identificados e se o modelo os atende. Isso pode fornecer diretrizes sobre se o modelo deve ser implantado ou precisa de mais melhorias.
Próximas etapas
- Saiba como gerar o painel de IA Responsável e o scorecard por meio de CLI e SDK ou da Interface de usuário do Estúdio do Azure Machine Learning.
- Saiba mais sobre o painel de IA Responsável e o scorecard nesta postagem no blog da Tech Community .