Nouveautés d’Azure AI Sécurité du Contenu
Découvrir les nouveautés du service. Ces éléments peuvent être des notes de publication, des vidéos, des billets de blog et d’autres types d’informations. Ajoutez cette page à vos signets pour vous tenir informé des nouveautés, des améliorations, des correctifs et des mises à jour de la documentation.
Octobre 2024
Dépréciations à venir
Pour s’aligner sur les stratégies de gestion des versions et du cycle de vie de content Safety, les versions suivantes sont planifiées pour la dépréciation :
- à compter du 28 janvier 2024 : toutes les versions, sauf
2024-09-01
,2024-09-15-preview
et2024-09-30-preview
seront déconseillées et ne seront plus prises en charge. Nous encourageons les utilisateurs à passer aux dernières versions disponibles pour continuer à recevoir une prise en charge complète et des mises à jour. Si vous avez des questions sur ce processus ou si vous avez besoin d’aide pour la transition, contactez notre équipe de support technique.
Septembre 2024
Analyse multimodale (aperçu)
L’API Modal analyse les matériaux contenant à la fois du contenu image et du contenu texte pour aider à rendre les applications et les services plus sécuritaires du contenu généré par l’utilisateur(-trice) ou généré par l’IA. L’analyse d’une image et de son contenu texte associé peut conserver le contexte et fournir une compréhension plus complète du contenu. Pour vous lancer, suivez le guide de démarrage rapide.
Détection de matériel protégé pour le code (préversion)
L’interface de programmation d’applications (API) Matériel protégé pour le code signale du contenu de code protégé (provenant de référentiels GitHub connus, notamment les bibliothèques de logiciels, le code source, les algorithmes et d’autres contenus de programmation propriétaires) qui est susceptible être généré par de grands modèles de langage. Pour vous lancer, suivez le guide de démarrage rapide.
Attention
Le scanneur/indexeur de code du service de sécurité du contenu est uniquement actif jusqu’au 6 novembre 2021. Le code ajouté à GitHub après cette date n’est pas détecté. Utilisez votre propre jugement lors de l’utilisation de Matériel protégé pour le code afin de détecter des corps récents de code.
Correction de fondement (préversion)
L’API de détection du fondement inclut une fonctionnalité de correction qui corrige automatiquement toute information non fondée détectée dans le texte en fonction des sources de fondement fournies. Lorsque la fonctionnalité de correction est activée, la réponse inclut un champ corrected Text
qui présente le texte corrigé, aligné sur les sources de fondement. Pour vous lancer, suivez le guide de démarrage rapide.
Août 2024
De nouvelles fonctionnalités sont la disponibilité générale (GA)
L’API Prompt Shields et l’API Protected Material for text sont maintenant en disponibilité générale (GA). Suivez un guide de démarrage rapide pour les essayer.
Juillet 2024
Préversion de l’API Catégories personnalisées (standard)
L’API catégories personnalisées (standard) vous permet de créer et d’entraîner vos propres catégories de contenu personnalisées et d’analyser du texte afin de trouver des correspondances. Consultez catégories personnalisées pour en savoir plus.
Mai 2024
Préversion publique de l’API Catégories personnalisées (rapide)
L’API catégories personnalisées (rapide) vous permet de définir rapidement des modèles de contenu dangereux émergents et d’analyser du texte et des images pour les correspondances. Consultez catégories personnalisées pour en savoir plus.
Mars 2024
Préversion publique des boucliers de prompt
Anciennement appelée Détection des risques de jailbreak, cette fonctionnalité mise à jour détecte les attaques d’invite, dans lesquelles les utilisateurs exploitent délibérément les vulnérabilités du système pour déclencher un comportement non autorisé dans un grand modèle de langage. La fonctionnalité Boucliers d’invite analyse les attaques directes des invites utilisateur et les attaques indirectes incorporées dans les documents ou les images d’entrée. Pour en savoir plus, consultez Boucliers de prompt.
Préversion publique de la détection de fondement
L’API de détection de fondement détecte si les réponses textuelles des grands modèles de langage (LLM) sont fondées sur les documents sources fournis par les utilisateurs. L’absence de fondement décrit les instances où les LLM produisent des informations non factuelles ou inexactes vis-à-vis de ce que contenaient les documents sources. Pour en savoir plus, consultez Détection de fondement.
Janvier 2024
Kit de développement logiciel (SDK) Sécurité du Contenu en disponibilité générale
Le service Azure AI Sécurité du Contenu est désormais en disponibilité générale via les kits SDK de bibliothèque de client suivants :
- C# : Package | Référence API | Exemples | Démarrage rapide : Texte, Image
- Python : Package | Référence API | Exemples | Démarrage rapide : Texte, Image
- Java : Package | Référence API | Exemples | Démarrage rapide : Texte, Image
- JavaScript : Package | Référence API | Exemples | Démarrage rapide : Texte, Image
Important
Les versions préliminaires publiques des Kits de développement logiciel (SDK) Azure AI Sécurité du Contenu seront déconseillées le 31 mars 2024. Mettez à jour vos applications pour utiliser les versions en disponibilité générale.
Novembre 2023
Détection de risque de jailbreak et de matériel protégé (préversion)
Les nouvelles API de détection de risque de jailbreak et de détection de textes protégés vous permettent d’atténuer certains des risques lors de l’utilisation de l’IA générative.
- La détection de risque de jailbreak analyse le texte à la recherche d’un risque d’attaque par jailbreak sur un grand modèle de langage. Démarrage rapide
- La détection de textes protégés analyse le texte généré par IA à la recherche de contenu textuel connu (par exemple, paroles de chanson, articles, recettes, contenu web sélectionné). Démarrage rapide
Les risques de jailbreak et la détection de matériel protégé ne sont disponibles que dans certaines régions. Consultez Disponibilité dans les régions.
Octobre 2023
Azure AI Sécurité du Contenu est en disponibilité générale (GA)
Le service Azure AI Content Safety est désormais en disponibilité générale en tant que service cloud.
- Le service est disponible dans beaucoup d’autres régions Azure. Consultez la Vue d’ensemble pour obtenir une liste.
- Les formats de retour des API Analyser ont changé. Pour obtenir les derniers exemples, consultez les démarrage rapide.
- Les noms et les formats de retour de plusieurs autres API ont changé. Veuillez consulter le guide de migration pour une liste complète des modifications critiques. D’autres guides et guides de démarrage rapide reflètent désormais la version en disponibilité générale.
Kits SDK JavaScript et Java Azure AI Sécurité du Contenu
Le service Azure AI Content Safety est désormais disponible via un kit de développement logiciel (SDK) Java et JavaScript. Les kits SDK sont disponibles respectivement sur Maven et npm. Pour bien démarrer, suivez un guide de démarrage rapide.
Juillet 2023
Kit SDK C# Azure AI Sécurité du Contenu
Le service Azure AI Content Safety est désormais disponible via un kit de développement logiciel (SDK) C#. Le Kit de développement logiciel (SDK) est disponible sur NuGet.org. Pour bien démarrer, suivez un guide de démarrage rapide.
Mai 2023
Préversion publique Azure AI Sécurité du Contenu
Azure AI Content Safety détecte les matériaux potentiellement offensants, risqués ou indésirables. Ce service offre des modèles texte et image de pointe qui détectent le contenu problématique. Azure AI Content Safety permet de sécuriser les applications et les services contre les contenus dangereux générés par l’utilisateur par l’IA. Pour bien démarrer, suivez un guide de démarrage rapide.