Recommandations de sécurité pour les charges de travail d’IA sur Azure
Cet article propose des recommandations de sécurité pour les organisations exécutant des charges de travail d’IA sur Azure. Il se concentre sur les solutions de plateforme en tant que service (PaaS) Azure AI, y compris Azure AI Studio, Azure OpenAI, Azure Machine Learning, et Azure AI Services. Il couvre à la fois les charges de travail d’IA générative et non générative.
Alors que l’IA s’intègre de plus en plus aux opérations commerciales, il est crucial de protéger ces ressources contre les menaces potentielles pour maintenir l’intégrité des données et la conformité. L’application de bases de sécurité standardisées et le suivi de cadres bien conçus aident les organisations à protéger leur infrastructure d’IA contre les vulnérabilités.
Sécuriser les ressources IA
Sécuriser les ressources d’IA signifie appliquer des bases de sécurité et des bonnes pratiques pour protéger l’infrastructure utilisée pour les charges de travail d’IA sur Azure. Cette protection réduit les risques liés aux menaces externes et garantit une posture de sécurité cohérente à travers l’organisation.
Sécuriser les plateformes IA d’Azure. Standardisez l’application des baselines de sécurité Azure pour chaque ressource IA. Suivez les recommandations de sécurité dans la section Guides de service Azure au sein du cadre bien conçu Azure Well-Architected Framework.
Base de sécurité de la plateforme Azure AI | Guide de service du cadre bien conçu Azure Well-Architected Framework |
---|---|
Azure Machine Learning | Azure Machine Learning |
Azure AI Studio | |
Azure OpenAI | Azure OpenAI |
Sécurisez les modèles d’IA
Sécuriser les modèles d’IA signifie mettre en œuvre une protection contre les menaces, surveiller les risques d’injection d’invite, vérifier l’intégrité des modèles et centraliser la gouvernance. Ces pratiques garantissent que les modèles d’IA restent à l’abri de manipulations malveillantes, conservent leur fiabilité et fournissent des résultats précis.
Mettez en œuvre une protection contre les menaces pour tous les modèles d’IA. Utilisez Microsoft Defender pour le cloud pour protéger les modèles d’IA contre des menaces telles que les attaques d’injection d’invite et la manipulation de modèles. Cet outil fournit une surveillance continue des charges de travail d’IA, aidant à détecter et à prévenir les menaces émergentes. La mise en œuvre de cette protection sur toutes les charges de travail garantit une posture de sécurité cohérente au sein de l’organisation.
Surveillez les sorties et appliquez la protection des invites. Inspectez régulièrement les données renvoyées par les modèles d’IA pour détecter et atténuer les risques associés aux invites malveillantes ou imprévisibles des utilisateurs. Mettez en œuvre des protections d’invite pour analyser le texte à la recherche d’un risque d’attaque par entrée utilisateur sur les modèles génératifs d’IA.
Assurez-vous de la vérification des modèles. Établissez des mécanismes de vérification à l’échelle de l’entreprise pour garantir que tous les modèles d’IA utilisés sont légitimes et sécurisés. Si vous utilisez des modèles open-source, utilisez des signatures de modèle ou d’autres processus de vérification pour confirmer l’authenticité des modèles d’IA, évitant ainsi que des modèles non autorisés ou altérés ne soient déployés.
Envisagez d’utiliser une passerelle d’IA. La gestion des API Azure (APIM) peut contribuer à garantir une sécurité cohérente pour les charges de travail d’IA. Utilisez ses politiques intégrées pour le contrôle du trafic et l’application de la sécurité. Intégrez APIM avec Microsoft Entra ID pour centraliser l’authentification et l’autorisation et garantir que seuls les utilisateurs ou applications autorisés interagissent avec vos modèles d’IA. Assurez-vous de configurer un accès au moins privilégié pour l’identité managée du proxy inversé. Pour plus d’informations, consultez Authentification d’IA avec APIM.
Sécurisez l’accès à l’IA
Sécuriser l’accès à l’IA inclut la mise en place de contrôles d’authentification et d’autorisation pour le plan de gestion et l’accès externe aux ressources d’IA. Une gestion correcte de l’accès restreint l’utilisation des ressources aux seuls utilisateurs ayant des autorisations vérifiées. Cela réduit les risques d’interactions non autorisées avec les modèles d’IA. Des contrôles d’accès solides, tels que l’accès basé sur les rôles et les politiques d’accès conditionnel, contribuent à protéger les données sensibles et à respecter les normes de sécurité.
Organisez les ressources et les contrôles d’accès. Utilisez des espaces de travail distincts pour organiser et gérer les artefacts d’IA tels que les ensembles de données, les modèles et les expériences. Les espaces de travail centralisent la gestion des ressources et simplifient le contrôle d’accès. Par exemple, utilisez des projets au sein d’Azure AI Studio pour gérer efficacement les ressources et les autorisations, facilitant ainsi la collaboration tout en maintenant des frontières de sécurité.
Utilisez Microsoft Entra ID pour l’authentification. Dans la mesure du possible, éliminez les clés API statiques au profit de Microsoft Entra ID pour l’authentification. Cette étape renforce la sécurité grâce à une gestion centralisée des identités et réduit la surcharge de gestion des secrets. Limitez également la distribution des clés API. Préférez les identités dans Microsoft Entra ID plutôt que les clés API pour l’authentification. Vérifiez la liste des personnes ayant accès aux clés API pour garantir qu’elle est à jour. Pour des conseils en matière d’authentification, consultez Azure AI Studio, Azure OpenAI, Azure AI services, Azure Machine Learning.
Configurez l’authentification. Activez l’authentification multifactorielle (MFA) et préférez des comptes administratifs secondaires ou un accès à la demande avec Gestion des identités privilégiées (PIM) pour les comptes sensibles. Limitez l’accès au plan de contrôle en utilisant des services comme Azure Bastion comme points d’entrée sécurisés dans les réseaux privés.
Utilisez les politiques d’accès conditionnel. Implémentez des politiques d’accès conditionnel basées sur le risque qui répondent à une activité de connexion inhabituelle ou suspecte. Utilisez des signaux comme l’emplacement de l’utilisateur, l’état de l’appareil et le comportement de connexion pour déclencher des étapes de vérification supplémentaires. Exigez la MFA pour accéder aux ressources IA critiques pour renforcer la sécurité. Restreignez l’accès à l’infrastructure IA en fonction des emplacements géographiques ou des plages d’IP de confiance. Assurez-vous que seuls les appareils conformes (ceux qui répondent aux exigences de sécurité) peuvent accéder aux ressources IA.
Configurez un accès de moindre privilège. Configurez un accès de moindre privilège en implémentant le contrôle d’accès basé sur les rôles (RBAC) pour fournir un accès minimal aux données et aux services. Attribuez des rôles aux utilisateurs et aux groupes en fonction de leurs responsabilités. Utilisez Azure RBAC pour affiner le contrôle d’accès pour des ressources spécifiques telles que les machines virtuelles et les comptes de stockage. Assurez-vous que les utilisateurs n’ont que le niveau minimal d’accès nécessaire pour accomplir leurs tâches. Révisez et ajustez régulièrement les permissions pour éviter l’accumulation de privilèges. Par exemple,
Rôle Exemples d’autorisations Scientifiques des données Accès en lecture/écriture au stockage de données, autorisation d’exécuter des travaux d’entraînement, et accès aux environnements d’entraînement des modèles. Développeurs IA Accès aux environnements de développement, autorisations de déploiement, et capacité à modifier les applications IA. Administrateurs IT Accès complet pour gérer l’infrastructure, les configurations réseau, et les politiques de sécurité. Sécurisez les interactions de service Azure à service Azure. Utilisez l’identité managée pour permettre aux services Azure de s’authentifier mutuellement sans gestion de d’informations d’identification.
Sécurisez l’accès externe aux points de terminaison des modèles d’IA. Exigez que les clients s’authentifient avec Microsoft Entra ID lorsqu’ils accèdent aux points de terminaison des modèles d’IA. Envisagez d’utiliser la gestion des API Azure comme passerelle d’IA devant les points de terminaison des modèles d’IA pour appliquer des politiques d’accès, contrôler l’utilisation, et fournir des capacités de surveillance.
Sécurisez l’exécution de l’IA
La sécurisation de l’exécution de l’IA implique de protéger les processus par lesquels les agents d’IA, tels que des assistants virtuels ou des agents autonomes, exécutent du code en réponse aux requêtes des utilisateurs. Isolez les environnements d’exécution, effectuez des examens de code, et définissez des limites de ressources. Ces mesures garantissent que ces exécutions ne compromettent pas la stabilité ou la sécurité du système. Ces pratiques empêchent les activités malveillantes et protègent l’intégrité des systèmes dans lesquels les agents d’IA opèrent, leur permettant de fonctionner de manière fiable au sein d’un cadre sécurisé.
Mettez en œuvre des mécanismes d’isolation. Utilisez une gestion de sessions dynamiques, telle que les sessions dynamiques dans Azure Container Apps, pour garantir que chaque exécution de code se déroule dans un environnement isolé et temporaire, qui est détruit après utilisation.
Sécurisez le code d’exécution. Effectuez des examens et des tests de code approfondis avant de déployer des scripts pour l’exécution par des agents d’IA. Ce processus aide à identifier et à atténuer les vulnérabilités potentielles. Utilisez des systèmes de contrôle de version pour gérer les modifications de code et assurez-vous que seules les versions approuvées des scripts sont exécutées.
Mettez en œuvre des limites de ressources. Définissez des limites de ressources (CPU, mémoire, utilisation disque) pour les environnements d’exécution de code afin d’empêcher qu’une exécution unique ne consomme trop de ressources et ne perturbe potentiellement d’autres services. Définissez des délais d’exécution pour garantir que les processus longs ou potentiellement bloqués soient automatiquement interrompus.
Pour plus d’informations, consultez Comment créer des assistants avec Azure OpenAI Service, Comment utiliser les appels de fonction d’Azure OpenAI Assistants, et Mise en œuvre des agents.