Identifier les principes fondamentaux d’une IA responsable

Effectué

Dans la dernière unité, nous avons abordé certaines des implications sociétales de l’IA. Nous avons abordé la responsabilité des entreprises, gouvernements, ONG et chercheurs universitaires pour anticiper et atténuer les conséquences imprévues de la technologie de l’IA. À mesure que les organisations prennent en compte ces responsabilités, de plus en plus créent des stratégies et des pratiques internes pour guider leurs efforts en matière d’IA.

Chez Microsoft, nous avons reconnu six principes qui d’après nous devraient guider le développement et l’utilisation de l’IA : l’équité, la fiabilité et la sécurité, la confidentialité et la sécurité, l’inclusivité, la transparence et la responsabilité. Pour nous, ces principes sont la pierre angulaire d’une approche responsable et digne de confiance de l’IA, d’autant plus que celle-ci devient plus présente dans les produits et services que nous utilisons tous les jours.

Équité

Icône représentant l’équité.

Les systèmes d’intelligence artificielle doivent traiter chacun de manière équitable et éviter d’affecter des groupes de personnes à la situation similaire de différentes façons. Par exemple, lorsque les systèmes d’intelligence artificielle fournissent des conseils sur les soins médicaux, les demandes de prêt ou l’emploi, ils devraient faire les mêmes suggestions à toutes les personnes présentant des symptômes, des situations financières ou des qualifications professionnelles similaires.

Pour garantir l’impartialité dans votre système d’IA, vous devez :

  • Comprenez la portée, l’esprit et les utilisations potentielles du système d’intelligence artificielle en vous posant des questions telles que, comment le système devrait-il fonctionner ? Pour qui le système a-t-il été conçu ? Le système fonctionnera-t-il de la même façon pour tout le monde ? Comment peut-il causer du tort à d’autres ?
  • Attirez un vivier de talents variés. Assurez-vous que l’équipe de conception reflète le monde dans lequel nous vivons en incluant des membres de l’équipe ayant des perspectives, des expériences, une éducation et des contextes différents.
  • Identifiez les biais dans les jeux de données en évaluant l’origine des données, en comprenant comment elles ont été organisées et en testant leur représentativité. Les partis pris peuvent être introduits à chaque phase de la création, de la collecte à la modélisation, puis à l’opération. Le tableau de bord d’IA responsable, disponible dans la section Ressources, inclut une fonctionnalité pour faciliter cette tâche.
  • Identifiez les biais dans les algorithmes de Machine Learning en tirant parti des outils et des techniques qui améliorent la transparence et l’intelligibilité des modèles. Les utilisateurs doivent identifier et supprimer activement les biais dans les algorithmes de Machine Learning.
  • Tirez parti des compétences humaines d’évaluation et d’expertise de domaine. Formez les employés à comprendre la signification et les conséquences des résultats de l’intelligence artificielle, en particulier lorsque l’intelligence artificielle est utilisée pour orienter des décisions corrélatives sur des personnes. Les décisions qui utilisent l’IA doivent toujours être associées à une évaluation humaine. Incluez des experts pertinents dans le processus de conception et dans les décisions de déploiement. Un exemple serait d’inclure un expert en matière de crédit à la consommation pour un système d’IA de scoring de crédit. Vous devez utiliser l’IA comme copilote, c’est-à-dire un outil d’assistance qui vous aide à mieux faire votre travail et plus rapidement, mais qui nécessite un certain degré d’analyse.
  • Recherchez et utilisez les meilleures pratiques, les techniques d’analyse et les outils d’autres établissements et entreprises afin d’aider à détecter, éviter et résoudre les partis pris dans les systèmes d’intelligence artificielle.

Fiabilité et sécurité

Icône représentant la fiabilité.

Pour favoriser la confiance, il est essentiel que les systèmes d’IA fonctionnent en toute sécurité, fiabilité et cohérence dans des circonstances normales et des conditions inattendues. Ces systèmes doivent être en mesure de fonctionner comme prévu lors de leur conception, de répondre en toute sécurité aux conditions inattendues et de résister aux manipulations dangereuses. Il est également important de vérifier que ces systèmes se comportent comme prévu dans des conditions de fonctionnement réelles. Leur comportement ainsi que la diversité des conditions qu’ils peuvent gérer en toute fiabilité et sécurité reflète l’éventail de situations et de circonstances que les développeurs anticipent au cours de la conception et du test.

Pour garantir la fiabilité et la sécurité de votre système d’IA, vous devez :

  • Développer des procédures pour l’audit des systèmes IA pour évaluer la qualité et la pertinence des données et des modèles, analyser les performances en cours et vérifier que les systèmes se comportent comme prévu en fonction des mesures de performances établies.
  • Fournissez une explication détaillée du fonctionnement du système comprenant les spécifications de conception, les informations sur les données d’entraînement, les échecs d’entraînement produits et les insuffisances potentielles des données d’entraînement, ainsi que les inférences et les prédictions importantes générées.
  • Prévoyez les circonstances imprévues lors de la conception telles que les interactions accidentelles du système, l’introduction de données malveillantes ou les cyberattaques.
  • Impliquer des experts du domaine dans les processus de conception et d’implémentation, en particulier lorsque l’intelligence artificielle est utilisée pour aider à prendre des décisions sur des personnes.
  • Effectuer des tests rigoureux pendant le développement et le déploiement de systèmes d’intelligence artificielle pour vous assurer que les systèmes peuvent répondre en toute sécurité aux circonstances imprévues, ne subissent pas de défaillances inattendues et n’évoluent de façon imprévue. Les systèmes d’intelligence artificielle impliqués dans des scénarios importants qui affectent la sécurité humaine ou une population importante, doivent être testés en laboratoire ainsi qu’avec des scénarios réels.
  • Évaluer quand et comment un système d’intelligence artificielle doit rechercher un avis humain pour les décisions à fort impact ou lors de situations critiques. Prenez en compte la façon dont un système d’intelligence artificielle doit transférer le contrôle à un homme de manière significative et intelligible. Concevez les systèmes d’intelligence artificielle pour garantir que l’homme a le niveau de contribution nécessaire lors de décisions à fort impact.
  • Développer un mécanisme de commentaires robuste pour que les utilisateurs puissent signaler des problèmes de performances afin qu’ils puissent être résolus rapidement.

Confidentialité et sécurité

Icône représentant la confidentialité.

À mesure que l’intelligence artificielle se répand, la protection de la confidentialité et la sécurisation des informations personnelles et professionnelles importantes représentent des tâches toujours plus complexes et cruciales. Avec l’intelligence artificielle, les problèmes de confidentialité et de sécurité des données nécessitent une attention particulière, car l’accès aux données est essentiel pour que les systèmes d’intelligence artificielle puissent effectuer des prévisions et des décisions sur les personnes qui soient précises et fondées.

Pour garantir la confidentialité et la sécurité dans votre système d’IA, vous devez :

  • Respecter les lois pertinentes en matière de transparence, de confidentialité et de protection des données en investissant des ressources dans le développement de technologies et de processus de conformité ou en collaborant avec un leader technologique lors du développement de systèmes d’intelligence artificielle. Développez des processus pour vérifier continuellement que les systèmes d’intelligence artificielle satisfont à tous les aspects de ces lois.
  • Concevez des systèmes d’intelligence artificielle pour maintenir l’intégrité des données personnelles afin qu’ils ne puissent utiliser des données personnelles que durant la période requise et pour les besoins définis qui ont été partagés avec les clients. Supprimez les données personnelles collectées par inadvertance ou les données qui ne sont plus pertinentes au regard de l’objectif défini.
  • Protégez les systèmes de l’intelligence artificielle des mauvais acteurs par la conception de systèmes d’intelligence artificielle conformes aux développements sécurisés et aux fondements des opérations, utilisant l’accès en fonction du rôle et protégeant les données personnelles et confidentielles qui sont transférées à des tiers. Concevez des systèmes d’intelligence artificielle pour identifier les comportements anormaux et empêcher les attaques malveillantes et manipulatrices.
  • Concevez des systèmes d’intelligence artificielle disposant des contrôles appropriés pour que les clients puissent prendre des décisions sur comment et pourquoi leurs données sont collectées et utilisées.
  • Vous assurer que votre système d’IA maintient l’anonymat en tenant compte de la façon dont le système supprime l’identification personnelle des données.
  • Effectuez des évaluations de sécurité et de confidentialité pour tous les systèmes d’intelligence artificielle.
  • Effectuez des recherches et mettez en œuvre les meilleures pratiques du secteur pour le suivi des informations pertinentes concernant les données client, l’accès et l’utilisation de ces données et l’audit de l’accès et de l’utilisation.

L’intégration

Icône représentant l’inclusion.

Chez Microsoft, nous sommes convaincus que tout le monde doit bénéficier des technologies intelligentes, ce qui signifie qu’elles doivent incorporer et prendre en compte un large éventail de besoins humains et d’expériences. Pour 1 milliard de personnes présentant un handicap dans le monde entier, les technologies d’intelligence artificielle peuvent être une révolution. L’intelligence artificielle peut améliorer l’accès à l’éducation, aux services publics, à l’emploi, à l’information ainsi qu’à une grande diversité d’autres opportunités. Des solutions intelligentes, telles que la transcription de reconnaissance vocale en temps réel, les services de reconnaissance visuelle et la saisie de texte prédictive encouragent déjà celles et ceux qui présentent un handicap auditif, visuel ou autre.

Principes de conception inclusive Microsoft :

  • Reconnaître l’exclusion
  • Résoudre pour le plaisir, partager avec le plus grand nombre
  • Apprendre de la diversité

Pour garantir l’inclusion dans votre système d’IA, vous devez :

  • Vous conformer aux lois relatives à l’accessibilité et à l’inclusion qui imposent l’acquisition de technologies accessibles.
  • Utiliser le Guide 101, disponible dans la section ressources de ce module, pour aider les développeurs de systèmes à comprendre et résoudre les éventuels obstacles dans un environnement de produit qui pourrait exclure involontairement des personnes.
  • Faire tester vos systèmes par des personnes en situation de handicap pour vous aider à déterminer si le système peut être utilisé comme prévu par le public le plus large possible.
  • Prenez en compte les normes d’accessibilité couramment utilisées afin de garantir que votre système est accessible pour des personnes de toutes aptitudes.

Transparence

Icône représentant la transparence.

Il y a deux principes fondamentaux sous-jacents aux valeurs précédentes et ils sont essentiels pour garantir l’efficacité de l’ensemble : la transparence et la responsabilité. Il est essentiel que les utilisateurs comprennent comment les systèmes d’IA arrivent à des conclusions lorsqu’ils sont utilisés pour informer les décisions qui ont un effet sur la vie des gens. Par exemple, une banque peut utiliser un système d’IA pour décider si une personne est solvable, ou une société peut utiliser un système d’IA pour déterminer les candidats les plus qualifiés à l’embauche.

L’intelligibilité est une composante essentielle de la transparence ou l’explication utile du comportement des systèmes d’intelligence artificielle et de leurs composants. Améliorer l’intelligibilité demande que les parties prenantes comprennent comment et pourquoi ils fonctionnent, afin qu’ils puissent identifier d’éventuels problèmes de performances, problèmes de sécurité et de confidentialité, partis pris, pratiques d’exclusion ou résultats inattendus. Nous pensons également que ceux qui utilisent des systèmes IA doivent être honnêtes et francs quant au moment, aux modalités et aux raisons qui déterminent le déploiement.

Pour garantir la transparence dans votre système d’IA, vous devez :

  • Partagez les principales caractéristiques des jeux de données pour aider les développeurs à comprendre si un jeu de données spécifique est adapté à leurs cas d’usage.
  • Améliorer l’intelligibilité des modèles en appliquant des modèles plus simples et en générant des explications intelligibles pour le comportement des modèles. Pour cette tâche, vous pouvez utiliser le tableau de bord IA responsable, disponible dans la section des ressources.
  • Formez les employés à l’interprétation des sorties d’intelligence artificielle et assurez-vous qu’ils restent responsables de la prise de décisions corrélatives basées sur les résultats.

Responsabilité

Icône représentant la responsabilité.

Les personnes qui conçoivent et déploient des systèmes IA doivent être responsables de leur fonctionnement. Les organisations doivent s’inspirer des standards du secteur pour développer des normes de responsabilité. Ces normes peuvent garantir que les systèmes d’IA n’ont pas le dernier mot sur toute décision ayant une incidence sur la vie de personnes, et que les humains gardent un contrôle significatif sur les systèmes d’IA autrement très autonomes.

Pour garantir la responsabilité dans votre système d’IA, vous devez :

  • Configurez des tableaux d’évaluation interne pour fournir une supervision et des conseils sur le développement et le déploiement responsable de systèmes d’intelligence artificielle. Ils peuvent également vous aider à effectuer des tâches telles que la définition de meilleures pratiques pour documenter et tester des systèmes d’IA pendant le développement ou fournir des conseils pour les cas sensibles.
  • Vous assurer que vos employés sont formés à utiliser et à maintenir la solution de manière responsable et éthique et qu’ils comprennent quand la solution nécessite une assistance technique supplémentaire.
  • Gardez des personnes disposant des compétences requises dans le circuit en les consultant et en les impliquant dans la prise de décisions concernant l’exécution du modèle. Lorsque l’automatisation des décisions est requise, vérifiez qu’ils sont en mesure d’inspecter, d’identifier et de résoudre les défis liés à la sortie et à l’exécution du modèle.
  • Mettez en place un système clair de responsabilité et de gouvernance pour gérer les activités de correction, si les modèles se comporte de manière injuste ou potentiellement dangereuse.

Nous sommes conscients que chaque individu, chaque entreprise et chaque région a ses propres normes et opinions qui devraient se refléter dans leur adoption de l’IA. Nous partageons notre point de vue avec vous alors que vous envisagez de développer vos propres principes fondamentaux.

Conseil

Prenez un moment pour réfléchir à d’autres exemples pour chacun des principes de l’IA responsable.
Photographie montrant des personnes travaillant et discutant autour d’une table.

Ces principes fournissent une idée générale de ce que nous devons faire lors du développement et de l’utilisation de l’IA. Toutefois, ils doivent être réfléchis à un niveau plus pratique. Ensuite, nous allons explorer comment ces principes peuvent être garantis avec un système de gouvernance IA.