Partager via


Nouveautés d’Azure AI Sécurité du Contenu

Découvrir les nouveautés du service. Ces éléments peuvent être des notes de publication, des vidéos, des billets de blog et d’autres types d’informations. Ajoutez cette page à vos signets pour vous tenir informé des nouveautés, des améliorations, des correctifs et des mises à jour de la documentation.

Octobre 2024

Dépréciations à venir

Pour s’aligner sur les stratégies de gestion des versions et du cycle de vie de content Safety, les versions suivantes sont planifiées pour la dépréciation :

  • à compter du 28 janvier 2024 : toutes les versions, sauf 2024-09-01, 2024-09-15-previewet 2024-09-30-preview seront déconseillées et ne seront plus prises en charge. Nous encourageons les utilisateurs à passer aux dernières versions disponibles pour continuer à recevoir une prise en charge complète et des mises à jour. Si vous avez des questions sur ce processus ou si vous avez besoin d’aide pour la transition, contactez notre équipe de support technique.

Septembre 2024

Analyse multimodale (aperçu)

L’API Modal analyse les matériaux contenant à la fois du contenu image et du contenu texte pour aider à rendre les applications et les services plus sécuritaires du contenu généré par l’utilisateur(-trice) ou généré par l’IA. L’analyse d’une image et de son contenu texte associé peut conserver le contexte et fournir une compréhension plus complète du contenu. Pour vous lancer, suivez le guide de démarrage rapide.

Détection de matériel protégé pour le code (préversion)

L’interface de programmation d’applications (API) Matériel protégé pour le code signale du contenu de code protégé (provenant de référentiels GitHub connus, notamment les bibliothèques de logiciels, le code source, les algorithmes et d’autres contenus de programmation propriétaires) qui est susceptible être généré par de grands modèles de langage. Pour vous lancer, suivez le guide de démarrage rapide.

Attention

Le scanneur/indexeur de code du service de sécurité du contenu est uniquement actif jusqu’au 6 novembre 2021. Le code ajouté à GitHub après cette date n’est pas détecté. Utilisez votre propre jugement lors de l’utilisation de Matériel protégé pour le code afin de détecter des corps récents de code.

Correction de fondement (préversion)

L’API de détection du fondement inclut une fonctionnalité de correction qui corrige automatiquement toute information non fondée détectée dans le texte en fonction des sources de fondement fournies. Lorsque la fonctionnalité de correction est activée, la réponse inclut un champ corrected Text qui présente le texte corrigé, aligné sur les sources de fondement. Pour vous lancer, suivez le guide de démarrage rapide.

Août 2024

De nouvelles fonctionnalités sont la disponibilité générale (GA)

L’API Prompt Shields et l’API Protected Material for text sont maintenant en disponibilité générale (GA). Suivez un guide de démarrage rapide pour les essayer.

Juillet 2024

Préversion de l’API Catégories personnalisées (standard)

L’API catégories personnalisées (standard) vous permet de créer et d’entraîner vos propres catégories de contenu personnalisées et d’analyser du texte afin de trouver des correspondances. Consultez catégories personnalisées pour en savoir plus.

Mai 2024

Préversion publique de l’API Catégories personnalisées (rapide)

L’API catégories personnalisées (rapide) vous permet de définir rapidement des modèles de contenu dangereux émergents et d’analyser du texte et des images pour les correspondances. Consultez catégories personnalisées pour en savoir plus.

Mars 2024

Préversion publique des boucliers de prompt

Anciennement appelée Détection des risques de jailbreak, cette fonctionnalité mise à jour détecte les attaques d’invite, dans lesquelles les utilisateurs exploitent délibérément les vulnérabilités du système pour déclencher un comportement non autorisé dans un grand modèle de langage. La fonctionnalité Boucliers d’invite analyse les attaques directes des invites utilisateur et les attaques indirectes incorporées dans les documents ou les images d’entrée. Pour en savoir plus, consultez Boucliers de prompt.

Préversion publique de la détection de fondement

L’API de détection de fondement détecte si les réponses textuelles des grands modèles de langage (LLM) sont fondées sur les documents sources fournis par les utilisateurs. L’absence de fondement décrit les instances où les LLM produisent des informations non factuelles ou inexactes vis-à-vis de ce que contenaient les documents sources. Pour en savoir plus, consultez Détection de fondement.

Janvier 2024

Kit de développement logiciel (SDK) Sécurité du Contenu en disponibilité générale

Le service Azure AI Sécurité du Contenu est désormais en disponibilité générale via les kits SDK de bibliothèque de client suivants :

Important

Les versions préliminaires publiques des Kits de développement logiciel (SDK) Azure AI Sécurité du Contenu seront déconseillées le 31 mars 2024. Mettez à jour vos applications pour utiliser les versions en disponibilité générale.

Novembre 2023

Détection de risque de jailbreak et de matériel protégé (préversion)

Les nouvelles API de détection de risque de jailbreak et de détection de textes protégés vous permettent d’atténuer certains des risques lors de l’utilisation de l’IA générative.

  • La détection de risque de jailbreak analyse le texte à la recherche d’un risque d’attaque par jailbreak sur un grand modèle de langage. Démarrage rapide
  • La détection de textes protégés analyse le texte généré par IA à la recherche de contenu textuel connu (par exemple, paroles de chanson, articles, recettes, contenu web sélectionné). Démarrage rapide

Les risques de jailbreak et la détection de matériel protégé ne sont disponibles que dans certaines régions. Consultez Disponibilité dans les régions.

Octobre 2023

Azure AI Sécurité du Contenu est en disponibilité générale (GA)

Le service Azure AI Content Safety est désormais en disponibilité générale en tant que service cloud.

  • Le service est disponible dans beaucoup d’autres régions Azure. Consultez la Vue d’ensemble pour obtenir une liste.
  • Les formats de retour des API Analyser ont changé. Pour obtenir les derniers exemples, consultez les démarrage rapide.
  • Les noms et les formats de retour de plusieurs autres API ont changé. Veuillez consulter le guide de migration pour une liste complète des modifications critiques. D’autres guides et guides de démarrage rapide reflètent désormais la version en disponibilité générale.

Kits SDK JavaScript et Java Azure AI Sécurité du Contenu

Le service Azure AI Content Safety est désormais disponible via un kit de développement logiciel (SDK) Java et JavaScript. Les kits SDK sont disponibles respectivement sur Maven et npm. Pour bien démarrer, suivez un guide de démarrage rapide.

Juillet 2023

Kit SDK C# Azure AI Sécurité du Contenu

Le service Azure AI Content Safety est désormais disponible via un kit de développement logiciel (SDK) C#. Le Kit de développement logiciel (SDK) est disponible sur NuGet.org. Pour bien démarrer, suivez un guide de démarrage rapide.

Mai 2023

Préversion publique Azure AI Sécurité du Contenu

Azure AI Content Safety détecte les matériaux potentiellement offensants, risqués ou indésirables. Ce service offre des modèles texte et image de pointe qui détectent le contenu problématique. Azure AI Content Safety permet de sécuriser les applications et les services contre les contenus dangereux générés par l’utilisateur par l’IA. Pour bien démarrer, suivez un guide de démarrage rapide.

Mises à jour des services Azure AI

Annonces de mise à jour Azure pour Azure AI services