Sammanfattning

Slutförd

Den här modulen har gett en inledande utforskning av AI-säkerhetstestning, från att förstå de unika utmaningarna med AI-system till att planera och utföra effektiva röda teamindelningsövningar. I takt med att AI fortsätter att utvecklas måste även våra metoder för säkerhet och säkerhet göra AI red team-metoder nödvändiga för att upprätthålla integriteten och pålitligheten hos AI-lösningar.

Ytterligare läsning

Följande artiklar och videopresentationer innehåller mer information om Microsofts metod för ai-röd teamindelning.

Azure OpenAI-tjänsten – Azure OpenAI

Innehållsfiltrering i Azure OpenAI-tjänsten – Azure OpenAI

Så här närmar sig Microsoft AI Red Teaming

Microsoft AI Red Team skapar framtiden för säkrare AI

Röda team tänker som hackare för att hålla AI säkert