Présentation
La quantité de contenu généré par les utilisateurs et publié en ligne augmente rapidement. Nous sommes également de plus en plus conscients de la nécessité de protéger tous les utilisateurs contre les contenus inappropriés ou nocifs.
Azure AI Sécurité du Contenu est un service d’IA conçu pour aider les développeurs à intégrer une sécurité de contenu avancée dans leurs applications et services.
Les défis liés au maintien d’espaces en ligne sûrs et respectueux sont de plus en plus nombreux pour les équipes de développeurs chargées d’héberger des discussions en ligne. Azure AI Sécurité du Contenu identifie les contenus potentiellement nocifs et aide les organisations à se conformer aux réglementations et à respecter leurs propres normes de qualité.
La nécessité d’améliorer la sécurité du contenu en ligne découle de quatre facteurs principaux :
- Augmentation des contenus nocifs : les contenus en ligne générés par les utilisateurs, y compris les contenus nocifs et inappropriés, sont en forte augmentation.
- Pressions réglementaires : les gouvernements font pression pour réglementer le contenu en ligne.
- Transparence : les utilisateurs ont besoin de transparence dans les normes de modération du contenu et leur application.
- Contenu complexe : les avancées technologiques permettent aux utilisateurs de publier plus facilement du contenu et des vidéos multimodaux.
Remarque
Azure AI Sécurité du Contenu remplace Azure Content Moderator, qui a été déconseillé en février 2024 et qui sera mis hors service d’ici février 2027.
Dans ce module, vous allez découvrir les principales fonctionnalités d’Azure AI Sécurité du Contenu et voir quand utiliser chacune d’elles.