Placer les infrastructures d’IA responsable en action
Comme indiqué dans l’unité précédente, Microsoft a développé et affiné son propre processus interne de gouvernance de l’IA responsable. Cette unité explique comment fonctionne ce système de gouvernance dans une situation réelle. Même si chaque organisation a besoin de ses propres infrastructures de gouvernance et processus d’examen uniques, nous pensons que notre infrastructure d’usage sensible peut s’avérer un point de départ très utile. L’une des premières étapes de Microsoft dans notre processus de gouvernance de l’IA responsable a été d’utiliser un déclencheur de révision des utilisations sensibles. L’infrastructure a aidé nos équipes internes et orientées client à identifier quand des cas d’usage spécifiques ont besoin de plus d’aide.
Framework de cas d’usage sensible de Microsoft
D’après notre documentation sur la gouvernance de l’IA responsable, nous considérons un scénario de développement ou de déploiement de l’IA comme un « usage sensible » s’il se classe dans une ou plusieurs des catégories suivantes :
- Refus de services consécutifs : le scénario implique l’utilisation d’une intelligence artificielle d’une manière qui peut entraîner un refus de services consécutifs ou un refus de prise en charge d’un individu (par exemple, dans le cadre de services financiers, de logement, d’assurance, d’enseignement, de recrutement, de santé).
- Risque de blessures : le scénario implique l’utilisation d’une intelligence artificielle d’une manière susceptible de faire courir un risque significatif de blessures physiques, émotionnelles ou psychologiques à un individu (par exemple, des décisions de vie ou de mort dans des environnements de fabrication militaire à haute sécurité, dans des contextes de soins de santé, dans presque tous les scénarios impliquant des enfants ou d’autres personnes vulnérables, etc.).
- Atteinte aux droits de l’homme : le scénario implique l’utilisation d’une intelligence artificielle d’une manière susceptible de restreindre de manière significative la liberté personnelle, d’opinion ou d’expression, de rassemblement ou d’association, de vie privée, etc. (par exemple, au sein des forces de l’ordre ou de police).
Nous formons nos employés à l’utilisation de ce framework pour déterminer si un cas d’usage d’IA doit être signalé pour un examen plus approfondi, qu’il s’agisse d’un vendeur travaillant avec un client ou d’une personne travaillant sur une solution d’intelligence artificielle interne. Nous formons également nos experts de l’IA responsable à leur rôle de médiation entre les employés et les équipes de gouvernance centrale.
Processus d’examen des cas d’usage sensibles de Microsoft
Le processus d’examen des cas d’usage sensibles comporte trois étapes : identification, évaluation et atténuation. Pour mieux illustrer ce processus, une étude de cas réelle joint l’explication de chaque étape. Dans cette étude de cas, un client est venu nous voir pour un système de reconnaissance faciale.
Identification
Si un employé identifie qu’un cas d’usage appartient à l’une des trois catégories (déni de services indirects, risque de préjudice ou violation des droits de la personne), il le signale. La création de rapports est effectuée via un outil de soumission central, puis acheminée vers son ambassadeur d’IA responsable local, une personne chargée de sensibiliser et de comprendre les stratégies, normes et conseils d’IA responsable de l’entreprise.
Dans ce cas, une unité des forces de l’ordre nous a demandé de développer un système de reconnaissance faciale pour augmenter les méthodes de vérification d’identité existantes. Les scénarios comprenaient l’utilisation de la reconnaissance faciale pour vérifier l’identité des conducteurs des véhicules à l’arrêt sur la voie publique, pour accélérer les processus d’entrée dans les prisons et pour vérifier les identités des détenus lors de leur déplacement au sein de l’établissement. Un employé a envoyé ces trois cas d’usage par le biais de l’outil d’admission central pour l’évaluation de l’IA responsable.
Évaluation
L’ambassadeur de l’IA responsable, utilisé avec le bureau de l’IA responsable et l’équipe Microsoft impliquée dans le cas d'usage, enquête sur le cas afin de regrouper les faits importants, suit un processus guidé pour évaluer l’effet du système proposé sur les individus et sur la société et analyse les cas précédents pour déterminer si l’aide existe déjà dans le cadre d’un scénario similaire. Si une aide précédente existe déjà ou si le cas nécessite une expertise et une évaluation supplémentaires, l’ambassadeur de l’IA responsable présente le cas au groupe de travail en charge des usages sensibles au sein du comité Aether.
Dans le cas de cette reconnaissance faciale, l’ambassadeur de l’IA responsable collabore étroitement avec le bureau de l’IA responsable, les équipes du compte et les clients pour évaluer les risques. Il a été décidé que ces trois cas devaient tous être portés à l’attention du groupe de travail en charge des usages sensibles du comité Aether, afin d’y être étudiés davantage, car ils relevaient d’un ou plusieurs des usages sensibles de l’intelligence artificielle.
Atténuation
Le groupe de travail en charge des usages sensibles délibère avec un groupe diversifié d’experts pour fournir des conseils et des recommandations sur la façon de traiter les risques associés au cas d’usage en question. Si la situation exige une escalade supplémentaire, le cas peut remonter jusqu’au comité Aether lui-même, qui conseille directement l’équipe de la haute direction. En fin de compte, l’équipe de la haute direction prend des décisions sur de nouveaux cas à fort impact.
Notes
Lors de l’examen des cas d’usage sensibles, nous vous recommandons de réunir un groupe diversifié de personnes dont l’expérience et les compétences sont les plus variées possible. Il est également important de créer un espace inclusif dans lequel chacun se sent à l’aise pour partager ses idées et points de vue.
Une fois le cas examiné, l’expert de l’IA responsable collabore avec le Bureau de l’IA responsable pour fournir des conseils à l’équipe de projet sur les stratégies d’atténuation conformes à nos pratiques et principes de l’IA responsable. Ces stratégies d’atténuation peuvent inclure des approches techniques, des approches de formation et de gouvernance des employés ou des modifications de l’étendue du projet. Parfois, nous avons conseillé à nos équipes de ne pas poursuivre certains projets, faute d’avoir pu leur fournir un moyen d’assurer le respect de nos principes.
Dans le cas d’usage, le groupe de travail en charge des usages sensibles Aether a pris des décisions distinctes pour chacun des scénarios. Après mûre réflexion, nous avons déterminé que nous ne soutiendrions pas le scénario de patrouille visant à identifier des « personnes présentant un intérêt » lors d’un arrêt de la circulation. Étant donné que l’état de la technologie et de l’écosystème plus large n’était pas suffisamment développé pour atténuer les conséquences néfastes liées aux imperfections de la technologie, le groupe de travail Aether a considéré ce scénario comme un cas d’usage prématuré.
Nous avons expliqué les problèmes au client et il a décidé de ne pas poursuivre ce scénario.
Notes
Soutenu par la recherche : toute tentative d’identification d’individus dans des environnements non contrôlés peut enfreindre les droits de l’homme, en entraînant des arrestations arbitraires dues à des erreurs d’identification. Des études ont montré que l’intelligence artificielle est plus susceptible de se tromper sur l’identité des femmes et des minorités, ce qui peut aussi entraîner une détention disproportionnée de ces populations.1
Pour les cas d’usage sur site, nous avons déterminé que nous pouvions soutenir la conception et le développement d’une preuve de concept (POC), avec des protections en place pour garantir un contrôle humain approprié sur la solution et une boucle de commentaires bidirectionnelle entre le client et Microsoft a pu être établie. Il était également important que le client implémente un programme de formation pour le personnel en interaction avec les solutions et qu’il se réengage auprès de Microsoft sur des déploiements allant au-delà de ces scénarios pris en charge.
L’évolution de la gouvernance de l’IA responsable
Maintenant que vous avez vu notre processus en action, il nous reste un point important à rappeler : nous n’en sommes qu’au début du développement de la gouvernance IA. Les processus liés à l’IA évoluent rapidement. À l’avenir, nous prévoyons d’ajuster nos stratégies de gouvernance au fur et à mesure de nos investissements dans l’intelligence artificielle et nous recommandons aux autres entreprises d’en faire autant. Chaque organisation aura besoin de personnaliser son processus d’évaluation en fonction de ses besoins et de sa maturité dans le domaine de l’IA, mais nous espérons que notre processus pourra servir de point de départ utile.
Récapitulons maintenant ce que vous avez appris avec un contrôle des connaissances.