Modèle de responsabilité partagée pour l'intelligence artificielle (IA)
Lorsque vous envisagez et évaluez l'intégration de l'IA, il est essentiel de comprendre le modèle de responsabilité partagée et de savoir quelles tâches sont prises en charge par la plate-forme d'IA ou le fournisseur d'applications, et quelles tâches sont prises en charge par vous. Les responsabilités de la charge de travail varient selon que l'intégration de l'IA est basée sur un software as a service (SaaS), une plateform as a service (PaaS) ou une infrastructure as a service (IaaS).
Répartition des responsabilités
Comme pour les services cloud, vous disposez d'options pour mettre en œuvre des capacités d'IA au sein de votre organisation. Selon l'option choisie, vous assumez la responsabilité de différentes parties des opérations et politiques nécessaires à l'utilisation de l'IA en toute sécurité.
Le diagramme suivant illustre les domaines de responsabilité entre vous et Microsoft, en fonction du type de déploiement.
Vue d'ensemble de la couche d'IA
Une application basée sur l'IA se compose de trois couches de fonctionnalités qui regroupent les tâches que vous ou un fournisseur d'IA exécutez. Les responsabilités en matière de sécurité incombent généralement à la personne qui exécute les tâches, mais un fournisseur d'IA peut choisir d'exposer la sécurité ou d'autres contrôles comme option de configuration pour vous, le cas échéant. Ces trois couches sont :
Plateforme Intelligence artificielle
la couche de plate-forme d'IA qui fournit les capacités d'IA aux applications. Sur la couche de plate-forme, il est nécessaire de créer et de protéger l'infrastructure qui exécute le modèle d'IA, les données de formation et les configurations spécifiques qui modifient le comportement du modèle, comme les poids et les biais. Cette couche permet d'accéder à des fonctionnalités via des API, qui transmettent au modèle d'IA un texte appelé Metaprompt pour traitement, puis renvoient le résultat généré, appelé Prompt-Response.
Considérations relatives à la sécurité de la plate-forme d'IA – pour protéger la plate-forme d'IA contre les entrées malveillantes, un système de sécurité doit être mis en place pour filtrer les instructions potentiellement nuisibles envoyées au modèle d'IA (entrées). Les modèles d'IA étant génératifs, il est également possible que des contenus nuisibles soient générés et renvoyés à l'utilisateur (sorties). Tout système de sécurité doit au préalable se protéger contre les entrées et sorties potentiellement nuisibles de nombreuses classifications, y compris la haine, les jailbreaks et autres. Ces classifications évolueront probablement au fil du temps en fonction de la connaissance du modèle, du lieu et de l'industrie.
Microsoft a intégré des systèmes de sécurité pour les offres PaaS et SaaS :
- PaaS – Azure OpenAI Service
- SaaS – Microsoft Security Copilot
Application d'IA
L'application d'IA accède aux capacités d'IA et fournit le service ou l'interface que l'utilisateur utilise. Les composants de cette couche peuvent varier de relativement simples à très complexes, en fonction de l'application. Les applications d'IA autonomes les plus simples agissent comme une interface avec un ensemble d'API. Elles prennent un message textuel de l'utilisateur et transmettent ces données au modèle pour qu'il y réponde. Les applications d'IA plus complexes incluent la possibilité de fonder le message de l'utilisateur sur un contexte supplémentaire, y compris une couche de persistance, un index sémantique ou des plug-ins permettant d'accéder à d'autres sources de données. Les applications d'IA avancées peuvent également servir d'interface avec des applications et des systèmes existants. Les applications et systèmes existants peuvent travailler avec du texte, du son et des images pour générer différents types de contenu.
Considérations relatives à la sécurité de l'application d'IA – un système de sécurité de l'application doit être mis en place pour protéger l'application d'IA contre les activités malveillantes. Le système de sécurité permet une inspection approfondie du contenu utilisé dans le Metaprompt envoyé au modèle d'IA. Le système de sécurité inspecte également les interactions avec les plug-ins, les connecteurs de données et les autres applications d'IA (connues sous le nom d'orchestration de l'IA). L'une des façons d'intégrer ce système de sécurité dans votre propre application d'IA basée sur IaaS/PaaS est d'utiliser le service Azure AI Sécurité du Contenu. Des capacités supplémentaires sont disponibles en fonction de vos besoins.
Utilisation de l'IA
La couche d'utilisation de l'IA décrit comment les capacités d'IA sont finalement utilisées et consommées. L'IA générative offre un nouveau type d'interface utilisateur/ordinateur qui est fondamentalement différent des autres interfaces informatiques, comme l'API, l'invite de commande et les interfaces graphiques utilisateur (GUI). L'interface d'IA générative est à la fois interactive et dynamique, permettant ainsi aux capacités de l'ordinateur de s'adapter à l'utilisateur et à ses intentions. L'interface d'IA générative met en contraste les interfaces précédentes qui obligent principalement les utilisateurs à découvrir la conception et la fonctionnalité du système et à s'y adapter. Cette interactivité permet à l'utilisateur, et non aux concepteurs d'applications, d'avoir une grande influence sur les résultats du système, ce qui rend les garde-fous de sécurité essentiels à la protection des personnes, des données et des actifs de l'entreprise.
Considérations relatives à la sécurité de l'utilisation de l'IA – la protection de l'utilisation de l'IA est similaire à celle de tout système informatique, car elle repose sur des garanties de sécurité pour les contrôles d'identité et d'accès, la protection et la surveillance des appareils, la protection et la gouvernance des données, les contrôles administratifs, ainsi que d'autres contrôles.
Il convient de mettre davantage l'accent sur le comportement et la responsabilité des utilisateurs en raison de l'influence accrue qu'ils exercent sur les résultats des systèmes. Il est essentiel de mettre à jour les politiques d'utilisation acceptable et d'éduquer les utilisateurs sur la différence entre les applications informatiques standard et les applications basées sur l'IA. Ces applications devraient inclure des considérations spécifiques à l'IA en matière de sécurité, de protection de la vie privée et d'éthique. En outre, les utilisateurs doivent être informés des attaques basées sur l'IA qui peuvent être utilisées pour les duper avec de faux textes, de fausses voix, de fausses vidéos, etc.
Les types d'attaques spécifiques à l'IA sont définis dans :
- Classification des vulnérabilités du Centre de réponse à la sécurité Microsoft (MSRC) pour les systèmes d'IA
- MITRE Adversarial Threat Landscape for Artificial-Intelligence Systems (ATLAS)
- Le top 10 de l'OWASP pour les applications de type Large Language Model (LLM)
- Top 10 de l'OWASP sur la sécurité de l'apprentissage automatique (ML)
- Cadre de gestion des risques liés à l'IA du NIST
Cycle de vie de la sécurité
Comme pour la sécurité d'autres types de capacités, il est essentiel de prévoir une approche complète. Une approche complète inclut les personnes, les processus et la technologie tout au long du cycle de vie de la sécurité : identifier, protéger, détecter, répondre, récupérer et gouverner. Toute lacune ou faiblesse dans ce cycle de vie peut vous empêcher de :
- sécuriser les ressources importantes
- éviter des attaques facilement évitables
- faire face aux attaques
- rétablir rapidement les services essentiels à l'activité de l'entreprise
- appliquer les contrôles de manière incohérente
Pour en savoir plus sur la nature unique des tests de menace de l'IA, reportez-vous à comment Microsoft AI Red Team construit l'avenir d'une IA plus sûre.
Configurer avant de personnaliser
Microsoft recommande aux organisations de commencer par des approches basées sur la SaaS, comme le modèle Copilot, pour leur première adoption de l'IA et pour toutes les charges de travail d'IA ultérieures. Cela minimise le niveau de responsabilité et d'expertise que votre organisation doit fournir pour concevoir, exploiter et sécuriser ces capacités très complexes.
Si les capacités actuelles « prêtes à l'emploi » ne répondent pas aux besoins spécifiques d'une charge de travail, vous pouvez adopter un modèle PaaS en utilisant des services d'IA, comme Azure OpenAI Service, pour répondre à ces exigences spécifiques.
La création de modèles personnalisés ne devrait être adoptée que par des organisations ayant une expertise approfondie en science des données et en matière de sécurité, de confidentialité et d'éthique de l'IA.
Pour contribuer à la diffusion de l'IA dans le monde, Microsoft développe des solutions Copilot pour chacune des principales solutions de productivité : de Bing et Windows à GitHub et Office 365. Microsoft développe des solutions complètes pour tous les types de scénarios de productivité. Ces solutions sont proposées sous forme de solutions SaaS. Intégrées à l'interface utilisateur du produit, ces solutions sont conçues pour aider l'utilisateur à effectuer des tâches spécifiques afin d'accroître sa productivité.
Microsoft s'assure que chaque solution Copilot est conçue conformément à ses principes de gouvernance de l'IA.
Étapes suivantes
Pour en savoir plus sur les exigences de Microsoft en matière de développement de produits pour une IA responsable, reportez-vous à Norme Microsoft Responsible AI Standard.
En savoir plus sur les responsabilités partagées en matière de cloud computing.