Standardprinciper för innehållssäkerhet för Azure AI-modellinferens
Azure AI-modellinferens innehåller standardsäkerhet som tillämpas på alla modeller, exklusive Azure OpenAI Whisper. De här konfigurationerna ger dig en ansvarsfull upplevelse som standard.
Standardsäkerhet syftar till att minska risker som hat och rättvisa, sexuellt, våld, självskadebeteende, skyddat materialinnehåll och användarinmatningsattacker. Mer information om innehållsfiltrering finns i vår dokumentation som beskriver kategorier och allvarlighetsnivåer.
I det här dokumentet beskrivs standardkonfigurationen.
Dricks
Som standard använder alla modelldistributioner standardkonfigurationen. Du kan dock konfigurera innehållsfiltrering per modelldistribution enligt beskrivningen i Konfigurera innehållsfiltrering.
Textmodeller
Textmodeller i Azure AI-modellinferens kan ta in och generera både text och kod. Dessa modeller använder Azures modeller för textinnehållsfiltrering för att identifiera och förhindra skadligt innehåll. Det här systemet fungerar både när du frågar och slutför.
Riskkategori | Fråga/slutföra | Tröskelvärde för allvarlighetsgrad |
---|---|---|
Hat och rättvisa | Frågor och slutföranden | Medium |
Våld | Frågor och slutföranden | Medium |
Sexuell | Frågor och slutföranden | Medium |
Självskadebeteende | Frågor och slutföranden | Medium |
Användarinmatningsattack (Jailbreak) | Frågor | Ej tillämpligt |
Skyddat material – text | Kompletteringar | Ej tillämpligt |
Skyddat material – kod | Kompletteringar | Ej tillämpligt |
Vision och chatta med visionsmodeller
Visionsmodeller kan ta både text och bilder samtidigt som en del av indata. Standardfunktionerna för innehållsfiltrering varierar beroende på modell och leverantör.
Azure OpenAI: GPT-4o och GPT-4 Turbo
Riskkategori | Fråga/slutföra | Tröskelvärde för allvarlighetsgrad |
---|---|---|
Hat och rättvisa | Frågor och slutföranden | Medium |
Våld | Frågor och slutföranden | Medium |
Sexuell | Frågor och slutföranden | Medium |
Självskadebeteende | Frågor och slutföranden | Medium |
Identifiering av individer och slutsatsdragning av känsliga attribut | Frågor | Ej tillämpligt |
Användarinmatningsattack (Jailbreak) | Frågor | Ej tillämpligt |
Azure OpenAI: DALL-E 3 och DALL-E 2
Riskkategori | Fråga/slutföra | Tröskelvärde för allvarlighetsgrad |
---|---|---|
Hat och rättvisa | Frågor och slutföranden | Låg |
Våld | Frågor och slutföranden | Låg |
Sexuell | Frågor och slutföranden | Låg |
Självskadebeteende | Frågor och slutföranden | Låg |
Autentiseringsuppgifter för innehåll | Kompletteringar | Ej tillämpligt |
Bedräglig generation av politiska kandidater | Frågor | Ej tillämpligt |
Skildringar av offentliga figurer | Frågor | Ej tillämpligt |
Användarinmatningsattack (Jailbreak) | Frågor | Ej tillämpligt |
Skyddat material – Konst och Studio-tecken | Frågor | Ej tillämpligt |
Olämpligt språk | Frågor | Ej tillämpligt |
Utöver de tidigare säkerhetskonfigurationerna levereras Azure OpenAI DALL-E också med snabbomvandling som standard. Denna omvandling sker på alla uppmaningar för att förbättra säkerheten för din ursprungliga uppmaning, särskilt i riskkategorierna för mångfald, bedräglig generation av politiska kandidater, skildringar av offentliga personer, skyddat material och andra.
Meta: Llama-3.2-11B-Vision-Instruct och Llama-3.2-90B-Vision-Instruct
Innehållsfilter gäller endast för textprompter och slutföranden. Bilder omfattas inte av kon tältläge ration.
Microsoft: Phi-3.5-vision-instruct
Innehållsfilter gäller endast för textprompter och slutföranden. Bilder omfattas inte av kon tältläge ration.