Obtenir le contexte de l’application et de l’utilisateur final pour les alertes IA
La protection contre les menaces de Microsoft Defender for Cloud pour les charges de travail IA vous permet d’améliorer la possibilité d’actions et la valeur de sécurité des alertes IA générées en fournissant le contexte à la fois de l’utilisateur final et de l’application.
Dans la plupart des cas, les applications et les scénarios tirant parti des services IA sont générés dans le cadre d’une application, de sorte que les appels d’API au service IA proviennent d’une application web, d’une instance de calcul ou d’une passerelle IA. Cette configuration d’architecture introduit une complexité due à un manque de contexte lors de l’examen des demandes d’IA pour déterminer l’application métier ou l’utilisateur final impliqué.
Defender for Cloud, avec Azure AI, permet d’ajouter des paramètres à vos appels d’API Azure AI pour propager le contexte critique de l’utilisateur final ou de l’application aux alertes IA de Defender for Cloud. Cela permet alors un triage et des résultats plus efficaces. Par exemple, lors de l’ajout de l’adresse IP ou de l’identité de l’utilisateur final, vous pouvez bloquer cet utilisateur ou mettre en corrélation des incidents et des alertes liés à cet utilisateur. Lorsque vous ajoutez un contexte d’application, vous pouvez hiérarchiser ou déterminer si le comportement suspect peut être considéré comme standard pour cette application dans l’organisation.
Prérequis
Pour en savoir plus, consultez l’article Vue d’ensemble – Protection contre les menaces d’IA.
Activer la protection contre les menaces pour les charges de travail IA (préversion) sur une application IA, avec un modèle sous-jacent Azure OpenAI, directement via le service Azure OpenAI. Notez que cette fonctionnalité n’est actuellement pas prise en charge lors de l’utilisation de modèles déployés via l’API d’inférence de modèle Azure AI .
Ajouter des paramètres de sécurité à votre appel Azure OpenAI
Pour recevoir des alertes de sécurité IA avec plus de contexte, vous pouvez ajouter l’un ou l’ensemble des exemples suivants de paramètres SecurityContext
à vos appels d’API Azure OpenAI.
Tous les champs relatifs à SecurityContext
sont facultatifs.
Pour le contexte de l’utilisateur final, nous vous recommandons de transmettre au minimum les champs EndUserId
et SourceIP
. Les champs EndUserId
et SourceIP
fournissent aux analystes du centre des opérations de sécurité (SOC) la possibilité d’examiner les incidents de sécurité qui impliquent des ressources IA et des applications d’IA générative.
Pour le contexte de l’application, transmettez simplement le champ applicationName
sous forme de chaîne simple.
Si un nom de champ est mal orthographié, l’appel d’API Azure OpenAI réussit toujours. Le schéma SecurityContext
ne nécessite pas de validation pour passer le champ utilisateur Azure OpenAI. Les développeurs d’applications doivent s’assurer qu’un JSON valide est transmis au champ user
dans chaque requête effectuée par l’application auprès d’Azure OpenAI.
Schéma SecurityContext
Vous trouverez le schéma exact dans la documentation de référence de l’API REST Azure OpenAI.
L’objet de contexte de sécurité utilisateur fait partie du corps de la requête de l’API de complétion de conversation.
Cette fonctionnalité n’est actuellement pas prise en charge lors de l’utilisation de modèles déployés via l’API d’inférence de modèle Azure AI .
Étape suivante
Vue d’ensemble- Protection contre les menaces IA