Vad är Azure Content Moderator?
Viktigt!
Azure Content Moderator är inaktuell från februari 2024 och kommer att dras tillbaka i februari 2027. Den ersätts av Azure AI Content Safety, som erbjuder avancerade AI-funktioner och förbättrade prestanda.
Azure AI Content Safety är en omfattande lösning som är utformad för att identifiera skadligt användargenererat och AI-genererat innehåll i program och tjänster. Azure AI Content Safety lämpar sig för många scenarier som marknadsplatser online, spelföretag, plattformar för sociala meddelanden, företagsmedieföretag och leverantörer av K-12-utbildningslösningar. Här är en översikt över dess funktioner:
- API:er för text- och bildidentifiering: Skanna text och bilder efter sexuellt innehåll, våld, hat och självskadebeteende med flera allvarlighetsnivåer.
- Content Safety Studio: Ett onlineverktyg som är utformat för att hantera potentiellt stötande, riskabelt eller oönskat innehåll med hjälp av våra senaste ML-modeller för con tältläge ration. Den innehåller mallar och anpassade arbetsflöden som gör det möjligt för användare att skapa egna con tältläge rationssystem.
- Språkstöd: Azure AI Content Safety stöder fler än 100 språk och är särskilt tränat på engelska, tyska, japanska, spanska, franska, italienska, portugisiska och kinesiska.
Azure AI Content Safety är en robust och flexibel lösning för dina behov av kon tältläge ration. Genom att växla från Content Moderator till Azure AI Content Safety kan du dra nytta av de senaste verktygen och teknikerna för att säkerställa att innehållet alltid modereras enligt dina exakta specifikationer.
Läs mer om Azure AI Content Safety och utforska hur det kan höja din strategi för con tältläge ration.
Azure Content Moderator är en AI-tjänst som låter dig hantera innehåll som kan vara stötande, riskabelt eller på annat sätt oönskat. Den innehåller den AI-baserade con tältläge ration-tjänsten som söker igenom text, bild och videor och tillämpar innehållsflaggor automatiskt.
Du kanske vill skapa programvara för innehållsfiltrering i din app för att följa reglerna eller underhålla den avsedda miljön för dina användare.
Den här dokumentationen innehåller följande artikeltyper:
- Snabbstarter är komma igång-instruktioner som hjälper dig att göra begäranden till tjänsten.
- Instruktionsguider innehåller instruktioner för hur du använder tjänsten på mer specifika eller anpassade sätt.
- Begrepp ger djupgående förklaringar av tjänstens funktioner och funktioner.
Om du vill ha en mer strukturerad metod följer du en utbildningsmodul för Content Moderator.
Där den används
Följande är några scenarier där en programutvecklare eller ett team skulle kräva en con tältläge ration-tjänst:
- Marknadsplatser online som moderera produktkataloger och annat användargenererat innehåll.
- Spelföretag som modererade användargenererade spelartefakter och chattrum.
- Plattformar för sociala meddelanden som moderera bilder, text och videor som läggs till av användarna.
- Företagsmedieföretag som implementerar centraliserad moderering för sitt innehåll.
- K-12 utbildningslösningsleverantörer filtrerar bort innehåll som är olämpligt för studenter och lärare.
Viktigt!
Du kan inte använda Content Moderator för att identifiera otillåtna barnexploateringsbilder. Kvalificerade organisationer kan dock använda PhotoDNA Cloud Service för att söka efter den här typen av innehåll.
Vad det innehåller
Content Moderator-tjänsten består av flera webbtjänst-API:er som är tillgängliga via både REST-anrop och en .NET-SDK.
API:er för moderering
Content Moderator-tjänsten innehåller API:er för moderering, som kontrollerar innehåll efter material som kan vara olämpligt eller stötande.
I följande tabell beskrivs de olika typerna av modererings-API:er.
API-grupp | beskrivning |
---|---|
Textmoderering | Söker igenom text efter stötande innehåll, sexuellt explicit eller suggestivt innehåll, svordomar och personliga data. |
Anpassade termlistor | Söker igenom text mot en anpassad lista med termer tillsammans med de inbyggda termerna. Använd anpassade listor för att blockera eller tillåta innehåll baserat på dina egna innehållsprinciper. |
Bildmoderering | Söker igenom bilder efter vuxet eller olämpligt innehåll, identifierar text i bilder med funktionen för optisk teckenläsning (OCR) och identifierar ansikten. |
Anpassade bildlistor | Söker igenom bilder mot en anpassad lista med bilder. Använd anpassade bildlistor för att filtrera bort instanser av ofta återkommande innehåll som du inte vill klassificera igen. |
Videomoderering | Söker igenom videor efter vuxet eller olämpligt innehåll och returnerar tidsmarkörer för sådant innehåll. |
Datasekretess och säkerhet
Precis som med alla Azure AI-tjänster bör utvecklare som använder Content Moderator-tjänsten vara medvetna om Microsofts principer för kunddata. Mer information finns på sidan Azure AI-tjänster i Microsoft Trust Center.
Nästa steg
- Slutför ett klientbibliotek eller en REST API-snabbstart för att implementera de grundläggande scenarierna i kod.