Comprendre les considérations relatives à une IA responsable
L’unité précédente présentait la nécessité de tenir compte des considérations relatives au développement responsable et éthique des logiciels basés sur l’IA. Dans cette unité, nous aborderons certains principes fondamentaux pour l’IA responsable adoptés chez Microsoft.
Équité
Les systèmes d’IA doivent être équitables. Par exemple, supposons que vous deviez créer un modèle Machine Learning pour prendre en charge une demande d’approbation de prêt pour une banque. Le modèle doit prévoir si le prêt doit être approuvé ou non sans incorporer de parti pris fondé sur le genre, l’origine ethnique ou d’autres facteurs qui pourraient entraîner un avantage ou un désavantage injuste pour des groupes spécifiques de demandeurs.
L’impartialité des systèmes d’apprentissage machine est une zone très active de recherche en cours et certaines solutions logicielles existent pour l’évaluation, la détermination et la limitation de la partialité dans les modèles d’apprentissage machine. Toutefois, les outils seuls ne suffisent pas pour garantir l’impartialité. Envisagez l’impartialité au début du processus de développement de l’application avec des examens minutieux des données d’apprentissage pour vous assurer qu’elles sont représentatives de tous les sujets potentiellement affectés, ainsi que des évaluations des performances prédictives pour les sous-sections de votre communauté d’utilisateurs tout au long du cycle de développement.
Fiabilité et sécurité
Les systèmes d’IA doivent fonctionner de manière fiable et sécurisée. Prenons par exemple un système logiciel basé sur l’IA conçu pour un véhicule autonome, ou un modèle Machine Learning qui diagnostique les symptômes des patients et recommande des médicaments. Le manque de fiabilité de ces types de systèmes peut entraîner des risques importants pour la vie humaine.
Comme pour tous les logiciels, le développement d’applications logicielles basées sur l’IA doit être soumis à des tests rigoureux et à des processus de gestion du déploiement visant à garantir leur fonctionnement avant leur mise en production. En outre, les ingénieurs logiciels doivent prendre en compte la nature probabiliste des modèles Machine Learning et appliquer les seuils appropriés lors de l’évaluation des indices de confiance pour les prédictions.
Confidentialité et sécurité
Les systèmes d’IA doivent être sécurisés et respecter la vie privée. Les modèles Machine Learning sur lesquels les systèmes d’IA sont basés s’appuient sur de gros volumes de données qui peuvent contenir des informations personnelles qui doivent rester confidentielles. Même après l’apprentissage de modèles et la production du système, ils utilisent de nouvelles données pour faire des prédictions ou entreprendre des actions susceptibles d’occasionner des problèmes de confidentialité ou de sécurité. C’est pourquoi des protections appropriées doivent être implémentées pour protéger les données et le contenu du client.
Inclusivité
Les systèmes d’IA doivent impliquer tout le monde et intéresser les gens. L’IA doit apporter des avantages à toute la société, sans discriminer les capacités physiques, le genre, l’orientation sexuelle, l’origine ethnique ou autres facteurs.
L’une des méthodes permettant d’optimiser l’inclusion consiste à s’assurer que la conception, le développement et les tests de votre application incluent l’entrée d’un groupe de personnes aussi diversifiées que possible.
Transparence
Les systèmes d’IA doivent être compréhensibles. Les utilisateurs doivent être pleinement conscients de la finalité du système, de son fonctionnement et des limites auxquelles ils doivent s’attendre.
Par exemple, lorsqu’un système d’IA est basé sur un modèle Machine Learning, vous devez généralement tenir les utilisateurs informés des facteurs pouvant affecter l’exactitude de ses prédictions, tels que le nombre de cas utilisés pour effectuer l’apprentissage du modèle ou les fonctionnalités spécifiques qui ont le plus d’influence sur ses prédictions. Vous devez également partager des informations sur l’indice de confiance pour les prédictions.
Lorsqu’une application IA s’appuie sur des données personnelles, telles qu’un système de reconnaissance faciale prenant des photos des utilisateurs pour les reconnaître, vous devez préciser la façon dont leurs données sont utilisées et conservées, ainsi que les personnes qui y ont accès.
Responsabilité
La responsabilité des systèmes d’IA doit être imputable à des personnes. Bien que de nombreux systèmes d’IA semblent fonctionner de manière autonome, c’est finalement la responsabilité des développeurs qui ont formé et validé les modèles qu’ils utilisent et qui ont défini la logique fondant les décisions sur les prédictions du modèle afin de s’assurer que le système global répond aux exigences de la responsabilité. Pour ce faire, les concepteurs et les développeurs de solutions basées sur l’IA doivent travailler dans un cadre de gouvernance et de principes organisationnels afin de garantir que la solution respecte des normes éthiques et juridiques clairement définies.
Notes
Microsoft a publié des mises à jour significatives de la norme d’IA responsable en juin 2022. Dans ce cadre, nous avons mis à jour l’approche de la reconnaissance faciale, avec notamment une nouvelle stratégie d’accès limité pour certaines fonctionnalités comme la garantie d’utilisation responsable. Vous pouvez demander cet accès limité afin d’activer ces fonctionnalités pour votre application.
Pour plus d’informations sur les principes de Microsoft en matière d’IA responsable, consultez le site d’IA responsable Microsoft.