Erkennung von nicht jugendfreien Inhalten
Azure KI Vision kann jugendgefährdende Inhalte in Bildern erkennen, damit Entwickler*innen die Anzeige solcher Bilder in ihrer Software einschränken können. Inhaltsflags werden mit einem Wert von 0 bis 1 angewendet, damit Entwickler die Ergebnisse ihren eigenen Vorgaben entsprechend interpretieren können.
Testen Sie mithilfe von Vision Studio ganz schnell und einfach die Features zur Erkennung nicht jugendfreien Inhalten in Ihrem Browser.
Tipp
Azure KI Inhaltssicherheit ist das neueste Angebot für KI-Inhaltsmoderation. Weitere Informationen finden Sie in der Übersicht über Azure KI Inhaltssicherheit.
Definitionen für Inhaltsflags
Die Klassifizierung „Nicht jugendfrei“ enthält mehrere verschiedene Kategorien:
- Nicht jugendfreie Bilder sind explizit sexueller Natur und zeigen oft Nacktheit und sexuelle Handlungen.
- Anzügliche Bilder sind gemäß Definition sexuell suggestiv und enthalten häufig in sexueller Hinsicht weniger explizite Inhalte als Bilder, die als Nicht jugendfrei gekennzeichnet sind.
- Gewaltverherrlichende Bilder zeigen Blut bzw. blutrünstige Szenen.
Verwenden der API
Mit der API Bild analysieren 3.2 können Sie nicht jugendfreie Inhalte erkennen. Wenn Sie den Wert von Adult
zum visualFeatures-Abfrageparameter hinzufügen, gibt die API in ihrer JSON-Antwort drei boolesche Eigenschaften (isAdultContent
, isRacyContent
und isGoryContent
) zurück. Die Methode gibt auch die entsprechenden Eigenschaften (adultScore
, racyScore
und goreScore
) zurück, die Zuverlässigkeitsbewertungen zwischen 0 und 1 für jede Kategorie darstellen.