Sammanfattning
Den här modulen har gett en inledande utforskning av AI-säkerhetstestning, från att förstå de unika utmaningarna med AI-system till att planera och utföra effektiva röda teamindelningsövningar. I takt med att AI fortsätter att utvecklas måste även våra metoder för säkerhet och säkerhet göra AI red team-metoder nödvändiga för att upprätthålla integriteten och pålitligheten hos AI-lösningar.
Ytterligare läsning
Följande artiklar och videopresentationer innehåller mer information om Microsofts metod för ai-röd teamindelning.
Azure OpenAI-tjänsten – Azure OpenAI
Innehållsfiltrering i Azure OpenAI-tjänsten – Azure OpenAI
Så här närmar sig Microsoft AI Red Teaming
Microsoft AI Red Team skapar framtiden för säkrare AI
Röda team tänker som hackare för att hålla AI säkert