Azure OpenAI blockiert Anfragen aufgrund von "Prompt shields for jailbreak attacks"

Christoph Schuster 45 Zuverlässigkeitspunkte
2024-11-27T11:06:50.1266667+00:00

wir verwenden Azure OpenAI (GTP -4o 2024-08-06) und erhalten für einige Prompts eine Blockierung durch die „Prompt shields for jailbreak attacks“.

So wie ich die Dokumentation verstehe, können wir dies überprüfen, indem wir den Prompt an einen Azure AI Content Safety Endpoint senden, um zu sehen, warum dieser blockiert wird.

Leider ist unser Prompt ca. 90kb Text und die Content Safety API blockiert dies (aufgrund der 10.000 Zeichen Grenze).

Wenn ich den Prompt in 10.000-Zeichen-Blöcke aufteile, wird er von der Content Safety API nicht blockiert.

Gibt es eine Möglichkeit, den Grund zu finden, warum der OpenAI Prompt Shield unsere Anfrage blockiert?

vielen Dank für Hilfe

Azure SDKs
Azure SDKs
Eine Reihe von Visual Studio-Tools, Befehlszeilentools, Laufzeitbinärdateien und Clientbibliotheken, die Clients beim Entwickeln, Testen und Bereitstellen von Apps unterstützen, die in Azure ausgeführt werden.
94 Fragen
0 Kommentare Keine Kommentare
{count} Stimmen

Ihre Antwort

Fragesteller*innen können Antworten als akzeptierte Antworten markiert werden, wodurch Benutzer*innen wissen, dass diese Antwort das Problem gelöst hat.