Sammanfattning
Spridningen av användargenererat innehåll gör det nästan omöjligt för mänskliga moderatorer att effektivt hantera onlineplattformar. Men i takt med att mängden användargenererat innehåll växer, så ökar även vikten av onlinesäkerhet.
Azure AI Content Safety använder AI-modeller för att automatiskt identifiera våldsamt, sexuellt, självskadebeteende eller hatiskt språk i realtid. Den allokerar en allvarlighetsgrad så att mänskliga moderatorer kan fokusera på högprioriterade fall och exponeras för en mindre mängd störande innehåll. Azure AI Content Safety innehåller funktioner för att moderera både persongenererat och AI-genererat material.
I den här modulen har du sett hur funktionerna i Azure AI Content Safety kan hjälpa e-handelsvarumärken, spelföretag och lärare att tillhandahålla säkrare utrymmen för användare.