Tool zur Inhaltssicherheit (Text)
Azure AI Content Safety ist ein von Microsoft entwickelter Con Zelt-Modus rationsdienst, der Ihnen hilft, schädliche Inhalte aus verschiedenen Modalitäten und Sprachen zu erkennen. Das Tool content Safety (Text) ist ein Wrapper für die Azure AI Content Safety Text-API, mit dem Sie Textinhalte erkennen und Moderationsergebnisse erhalten können. Weitere Informationen finden Sie unter Azure KI Inhaltssicherheit.
Voraussetzungen
- Erstellen Sie eine Azure AI Content Safety-Ressource .
- Fügen Sie eine
Azure Content Safety
Verbindung im Eingabeaufforderungsfluss hinzu. Füllen Sie dasAPI key
Feld ausPrimary key
demKeys and Endpoint
Abschnitt der erstellten Ressource aus.
Eingaben
Sie können als Eingaben für dieses Tool die folgenden Parameter verwenden:
Name | Typ | Beschreibung | Erforderlich |
---|---|---|---|
text | Zeichenfolge | Text, der moderiert werden muss. | Ja |
hate_category | Zeichenfolge | Moderationsempfindlichkeit für die Hate Kategorie. Wählen Sie aus vier Optionen: disable , , low_sensitivity , medium_sensitivity oder high_sensitivity . Die disable Option bedeutet keine Moderation für die Hate Kategorie. Die anderen drei Optionen stehen für eine unterschiedlich strenge Filterung von Hassinhalten. Der Standardwert ist medium_sensitivity . |
Ja |
sexual_category | Zeichenfolge | Moderationsempfindlichkeit für die Sexual Kategorie. Wählen Sie aus vier Optionen: disable , , low_sensitivity , medium_sensitivity oder high_sensitivity . Die disable Option bedeutet keine Moderation für die Sexual Kategorie. Die anderen drei Optionen stehen für eine unterschiedlich strenge Filterung von sexuellen Inhalten. Der Standardwert ist medium_sensitivity . |
Ja |
self_harm_category | Zeichenfolge | Moderationsempfindlichkeit für die Self-harm Kategorie. Wählen Sie aus vier Optionen: disable , , low_sensitivity , medium_sensitivity oder high_sensitivity . Die disable Option bedeutet keine Moderation für die Self-harm Kategorie. Die anderen drei Optionen stehen für eine unterschiedlich strenge Filterung von Inhalten mit Bezug auf Selbstverletzung. Der Standardwert ist medium_sensitivity . |
Ja |
violence_category | Zeichenfolge | Moderationsempfindlichkeit für die Violence Kategorie. Wählen Sie aus vier Optionen: disable , , low_sensitivity , medium_sensitivity oder high_sensitivity . Die disable Option bedeutet keine Moderation für die Violence Kategorie. Die anderen drei Optionen stehen für eine unterschiedlich strenge Filterung von Gewaltinhalten. Der Standardwert ist medium_sensitivity . |
Ja |
Weitere Informationen finden Sie unter Azure KI Inhaltssicherheit.
Ausgaben
Das folgende Beispiel ist eine Beispiel-JSON-Formatantwort, die vom Tool zurückgegeben wird:
{
"action_by_category": {
"Hate": "Accept",
"SelfHarm": "Accept",
"Sexual": "Accept",
"Violence": "Accept"
},
"suggested_action": "Accept"
}
Das action_by_category
Feld enthält einen binärwert für jede Kategorie: Accept
oder Reject
. Dieser Wert zeigt an, ob der Text die Empfindlichkeitsstufe erfüllt, die Sie in den Anforderungsparametern für diese Kategorie festgelegt haben.
Das Feld suggested_action
gibt Ihnen eine allgemeine Empfehlung basierend auf den vier Kategorien. Wenn eine Kategorie einen Reject
-Wert aufweist, ist suggested_action
auch Reject
.