Se préparer aux implications de l’IA responsable
L’intelligence artificielle est en train de définir la technologie de notre époque. Elle permet déjà une progression plus rapide et plus profonde dans à peu près tous les domaines de l’activité humaine et contribue à relever certains des défis les plus ambitieux. Par exemple, l’IA peut aider les personnes malvoyantes à comprendre les images en ajoutant du texte descriptif. Dans un autre domaine, l’IA peut aider les agriculteurs à produire suffisamment de nourriture pour la population mondiale croissante.
Chez Microsoft, nous pensons que l’intelligence de calcul de l’intelligence artificielle doit servir à développer la créativité innée et l’ingéniosité des humains. Nous souhaitons que l’intelligence artificielle permette à tous les développeurs d’innover, aux organisations de transformer des secteurs d’activité et aux personnes de transformer la société.
Répercussions sociétales de l’IA
Comme pour toutes les grandes innovations technologiques, l’utilisation de l’IA aura un impact considérable sur la société, tout en soulevant des questions complexes et difficiles sur l’avenir que nous espérons. L’IA a des répercussions sur la prise de décision en ce qui concerne tous les secteurs d’activité, la sécurité des données et la confidentialité, ainsi que les compétences dont les personnes ont besoin pour réussir dans leur travail. En imaginant ce futur, il nous faut nous demander :
- comment concevoir, générer et utiliser des systèmes d’intelligence artificielle qui créeront un impact positif sur les personnes et la société ?
- Comment pouvons-nous préparer au mieux les rôles de travail à l’impact de l’intelligence artificielle ?
- Comment pouvons-nous jouir des avantages de l’intelligence artificielle tout en respectant la confidentialité ?
L’importance d’une approche responsable de l’intelligence artificielle
Il est important de reconnaître que lorsque des technologies intelligentes émergent et prolifèrent dans nos sociétés, leurs avantages sont associés à des conséquences inattendues et imprévues. Certaines de ces conséquences ont des ramifications éthiques importantes et peuvent entraîner de graves dommages. Alors que les organisations ne sont pas encore capables de prédire le futur, il est de notre responsabilité de travailler de concert afin d’anticiper et d’atténuer les conséquences imprévues de la technologie que nous offrons au monde via une planification délibérée et une surveillance continue.
Menaces
Chaque percée dans les technologies d’IA apporte un nouveau rappel de notre responsabilité partagée. Par exemple, en 2016, Microsoft a publié un chatbot sur X appelé Tay, qui pourrait apprendre des interactions avec les utilisateurs de X. L’objectif était de permettre au chatbot de mieux répliquer la communication humaine et les traits de personnalité. Cependant, en l’espace de 24 heures, les utilisateurs ont réalisé que le chatbot pouvait apprendre de la rhétorique fanatique et l’ont transformé en un véhicule pour les discours de haine. Cette expérience est un exemple de la raison pour laquelle nous devons prendre en compte les menaces humaines lors de la conception de systèmes d’IA.
Les nouvelles menaces nécessitent une évolution constante de notre approche de l’IA responsable. Par exemple, étant donné que l’IA générative permet aux utilisateurs de créer ou de modifier des vidéos, des images ou des fichiers audio si crédibles qu’ils semblent réels, il est plus difficile de vérifier l’authenticité des médias. En réponse, Microsoft s’associe à d’autres parties prenantes de la technologie et des actualités pour développer des normes techniques afin de traiter les manipulations liées au deepfake.
Notes
Pour se préparer à de nouveaux types d’attaques susceptibles d’influencer les jeux de données d’apprentissage, Microsoft a développé des technologies telles que des filtres de contenu avancés et introduit des superviseurs pour les systèmes d’IA avec des fonctionnalités d’apprentissage automatique. Les modèles d’IA générative actuels, tels que ceux fournis dans Azure AI Services ou Bing Chat, reposent sur ces insights.
Résultats biaisés
Parmi les conséquences inattendues que les organisations doivent connaître, citons le fait que l’IA peut renforcer les partis pris sociétaux et autres sans planification et conception délibérées. Il est important pour les développeurs de comprendre comment des partis pris peuvent être introduits dans les données d’apprentissage ou les modèles Machine Learning. Ce problème peut être omniprésent dans les modèles prédéfinis, car l’utilisateur peut ne pas gérer les données d’apprentissage lui-même.
Par exemple, imaginez une importante institution de prêts financiers qui souhaite développer un système d’évaluation des risques pour les approbations de prêts. Lorsque les ingénieurs testent le système avant le déploiement, ils se rendent compte qu’il approuve uniquement les prêts pour les emprunteurs masculins. Étant donné que le système a été formé sur les données des clients précédents, il a reproduit le biais sexiste historique des agents de prêt. La validation du système avant le déploiement nous a permis d’identifier et de résoudre le problème avant que le système ne soit opérationnel.
Notes
Chez Microsoft, les chercheurs expérimentent des outils et techniques permettant de détecter et de réduire les biais des systèmes IA. Les modèles prédéfinis sont systématiquement validés, mais doivent néanmoins être utilisés avec sagesse et leurs résultats doivent toujours être audités avant la prise de décision.
Cas d’usages sensibles
Un autre exemple de notre responsabilité à atténuer les conséquences inattendues concerne les technologies sensibles, telles que la reconnaissance faciale. Récemment, la demande de technologie de reconnaissance faciale a augmenté, particulièrement chez les organisations de maintien de l’ordre qui voient le potentiel de la technologie pour des cas comme la recherche d’enfants disparus. Toutefois, nous reconnaissons que ces technologies peuvent mettre en péril les libertés fondamentales. Par exemple, elles peuvent permettre une surveillance continue d’individus spécifiques. Selon nous, la société a la responsabilité de définir des limites appropriées à l’utilisation de ces technologies, ce qui implique que l’usage de la reconnaissance faciale par les organisations gouvernementales reste soumis à la loi.
Bien que de nouvelles lois et réglementations doivent être écrites, elles ne remplacent pas la responsabilité que nous avons tous lors de notre engagement avec l’IA. En travaillant ensemble, les entreprises, les gouvernements, les ONG et les chercheurs universitaires peuvent traiter des cas d’usage sensibles.
Notes
Microsoft évalue et développe des principes pour régir notre travail avec les technologies de reconnaissance faciale. Nous pensons que ces principes évolueront au fur et à mesure que nous continuons à apprendre et à collaborer avec nos clients, d’autres entreprises technologiques, les universitaires, la société civile et bien d’autres concernant ce problème. Microsoft utilise des pratiques d’IA responsables pour détecter, prévenir et atténuer ces problèmes, mais tout projet lié à l’IA doit également les prendre en compte.
Voyons ensuite comment les six principes fondamentaux de Microsoft pour une IA responsable peuvent être appliqués dans d’autres organisations.