Freigeben über


Erkennung von nicht jugendfreien Inhalten

Azure KI Vision kann jugendgefährdende Inhalte in Bildern erkennen, damit Entwickler*innen die Anzeige solcher Bilder in ihrer Software einschränken können. Inhaltsflags werden mit einem Wert von 0 bis 1 angewendet, damit Entwickler die Ergebnisse ihren eigenen Vorgaben entsprechend interpretieren können.

Testen Sie mithilfe von Vision Studio ganz schnell und einfach die Features zur Erkennung nicht jugendfreien Inhalten in Ihrem Browser.

Tipp

Azure KI Inhaltssicherheit ist das neueste Angebot für KI-Inhaltsmoderation. Weitere Informationen finden Sie in der Übersicht über Azure KI Inhaltssicherheit.

Definitionen für Inhaltsflags

Die Klassifizierung „Nicht jugendfrei“ enthält mehrere verschiedene Kategorien:

  • Nicht jugendfreie Bilder sind explizit sexueller Natur und zeigen oft Nacktheit und sexuelle Handlungen.
  • Anzügliche Bilder sind gemäß Definition sexuell suggestiv und enthalten häufig in sexueller Hinsicht weniger explizite Inhalte als Bilder, die als Nicht jugendfrei gekennzeichnet sind.
  • Gewaltverherrlichende Bilder zeigen Blut bzw. blutrünstige Szenen.

Verwenden der API

Mit der API Bild analysieren 3.2 können Sie nicht jugendfreie Inhalte erkennen. Wenn Sie den Wert von Adult zum visualFeatures-Abfrageparameter hinzufügen, gibt die API in ihrer JSON-Antwort drei boolesche Eigenschaften (isAdultContent, isRacyContent und isGoryContent) zurück. Die Methode gibt auch die entsprechenden Eigenschaften (adultScore, racyScore und goreScore) zurück, die Zuverlässigkeitsbewertungen zwischen 0 und 1 für jede Kategorie darstellen.