Säkerhetsrekommendationer för AI-arbetsbelastningar i Azure
Den här artikeln innehåller säkerhetsrekommendationer för organisationer som kör AI-arbetsbelastningar i Azure. Den fokuserar på PaaS-lösningar (plattform som en tjänst) i Azure AI, inklusive Azure AI Foundry, Azure OpenAI, Azure Machine Learning och Azure AI Services. Den omfattar både generativa och icke-generativa AI-arbetsbelastningar.
I takt med att AI blir mer integrerat i verksamheten är det viktigt att skydda dessa resurser mot potentiella hot för att upprätthålla dataintegritet och efterlevnad. Genom att tillämpa standardiserade säkerhetsbaslinjer och följa väldefinierade ramverk kan organisationer skydda sin AI-infrastruktur mot sårbarheter.
Skydda AI-resurser
Att skydda AI-resurser innebär att tillämpa säkerhetsbaslinjer och metodtips för att skydda infrastrukturen som används för AI-arbetsbelastningar i Azure. Det här skyddet minimerar riskerna med externa hot och säkerställer en konsekvent säkerhetsstatus i hela organisationen.
Skydda Azure AI-plattformar. Standardisera tillämpningen av Azure-säkerhetsbaslinjer för varje AI-resurs. Följ säkerhetsrekommendationerna i Azure Service Guides i Azure Well-Architected Framework.
Säkerhetsbaslinje för Azure AI-plattformen | Tjänstguide för Azure Well-Architected Framework |
---|---|
Azure Machine Learning | Azure Machine Learning |
Azure AI Foundry | |
Azure OpenAI | Azure OpenAI |
Skydda AI-modellerna
Att skydda AI-modeller avser implementering av skydd mot hot, övervakning av risk för snabb inmatning, verifiering av modellintegritet och centralisering av styrning. Dessa metoder säkerställer att AI-modeller förblir säkra från skadlig manipulering, bibehåller deras tillförlitlighet och ger korrekta resultat.
Implementera skydd mot hot för alla AI-modeller. Använd Microsoft Defender för molnet för att skydda AI-modeller från hot som snabbinmatningsattacker och modellmanipulering. Det här verktyget ger kontinuerlig övervakning av AI-arbetsbelastningar, vilket hjälper till att identifiera och förhindra nya hot. Genom att implementera det här skyddet för alla arbetsbelastningar säkerställs en konsekvent säkerhetsstatus i hela organisationen.
Övervaka utdata och tillämpa promptskärmning. Inspektera regelbundet de data som returneras av AI-modeller för att identifiera och minimera risker som är kopplade till skadliga eller oförutsägbara användarfrågor. Implementera Prompt Shields för att genomsöka text för risken för en användarinmatningsattack på generativa Al-modeller.
Kontrollera modellverifiering. Upprätta företagsomfattande verifieringsmekanismer för att säkerställa att alla AI-modeller som används är legitima och säkra. Om du använder modeller med öppen källkod använder du modellsignaturer eller andra verifieringsprocesser för att bekräfta AI-modellers äkthet, vilket förhindrar att obehöriga eller manipulerade modeller distribueras.
Överväg att använda en AI Gateway.Azure API Management (APIM) kan bidra till att säkerställa konsekvent säkerhet mellan AI-arbetsbelastningar. Använd de inbyggda principerna för trafikkontroll och säkerhetstillämpning. Integrera APIM med Microsoft Entra-ID för att centralisera autentisering och auktorisering och se till att endast behöriga användare eller program interagerar med dina AI-modeller. Se till att du konfigurerar åtkomst med lägsta behörighet för den omvända proxyns hanterade identitet. Mer information finns i AI-autentisering med APIM
Säker AI-åtkomst
Att skydda AI-åtkomst omfattar etablering av autentiserings- och auktoriseringskontroller för både hanteringsplan och extern åtkomst till AI-resurser. Korrekt åtkomsthantering begränsar resursanvändningen till endast användare med verifierade behörigheter. Det minskar risken för obehöriga interaktioner med AI-modeller. Starka åtkomstkontroller, till exempel rollbaserad åtkomst och principer för villkorlig åtkomst, hjälper till att skydda känsliga data och upprätthålla efterlevnad av säkerhetsstandarder.
Organisera resurser och åtkomstkontroller. Använd distinkta arbetsytor för att organisera och hantera AI-artefakter som datauppsättningar, modeller och experiment. Arbetsytor centraliserar resurshantering och förenklar åtkomstkontroll. Använd till exempel projekt i Azure AI Foundry för att hantera resurser och behörigheter effektivt, vilket underlättar samarbete samtidigt som säkerhetsgränser upprätthålls.
Använd Microsoft Entra-ID för autentisering. När det är möjligt eliminerar du statiska API-nycklar till förmån för Microsoft Entra-ID för autentisering. Det här steget förbättrar säkerheten genom centraliserad identitetshantering och minskar kostnaderna för hemlig hantering. Begränsa även fördelningen av API-nycklar. I stället föredrar du identiteter i Microsoft Entra-ID framför API-nycklar för autentisering. Granska listan över personer med API-nyckelåtkomst för att säkerställa att den är aktuell. Autentiseringsvägledning finns i Azure AI Foundry, Azure OpenAI, Azure AI-tjänster, Azure Machine Learning.
Konfigurera autentisering. Aktivera multifaktorautentisering (MFA) och föredra sekundära administrativa konton eller just-in-time-åtkomst med Privileged Identity Management (PIM) för känsliga konton. Begränsa åtkomsten till kontrollplanet med hjälp av tjänster som Azure Bastion som säkra startpunkter i privata nätverk.
Använd principer för villkorlig åtkomst. Implementera riskbaserade principer för villkorlig åtkomst som svarar på ovanlig inloggningsaktivitet eller misstänkt beteende. Använd signaler som användarplats, enhetstillstånd och inloggningsbeteende för att utlösa extra verifieringssteg. Kräv MFA för åtkomst till viktiga AI-resurser för att förbättra säkerheten. Begränsa åtkomsten till AI-infrastruktur baserat på geografiska platser eller betrodda IP-intervall. Se till att endast kompatibla enheter (de som uppfyller säkerhetskraven) kan komma åt AI-resurser.
Konfigurera åtkomst med minst behörighet. Konfigurera åtkomst med minst behörighet genom att implementera rollbaserad åtkomstkontroll (RBAC) för att ge minimal åtkomst till data och tjänster. Tilldela roller till användare och grupper baserat på deras ansvarsområden. Använd Azure RBAC för att finjustera åtkomstkontroll för specifika resurser, till exempel virtuella datorer och lagringskonton. Se till att användarna bara har den lägsta åtkomstnivå som krävs för att utföra sina uppgifter. Granska och justera behörigheter regelbundet för att förhindra krypning av privilegier. Ett exempel:
Roll Exempelbehörigheter Data scientists Läs-/skrivåtkomst till datalagring, behörighet att köra träningsjobb och åtkomst till modellträningsmiljöer. AI-utvecklare Åtkomst till utvecklingsmiljöer, distributionsbehörigheter och möjligheten att ändra AI-program. IT-administratörer Fullständig åtkomst för att hantera infrastruktur, nätverkskonfigurationer och säkerhetsprinciper. Skydda azure service-to-service-interaktioner. Använd hanterad identitet för att tillåta att Azure-tjänster autentiserar mot varandra utan att hantera autentiseringsuppgifter.
Skydda extern åtkomst till AI-modellslutpunkter. Kräv att klienter autentiserar med Microsoft Entra-ID vid åtkomst till AI-modellslutpunkter. Överväg att använda Azure API Management som en AI-gateway framför AI-modellslutpunkter för att framtvinga åtkomstprinciper, kontrollera användning och tillhandahålla övervakningsfunktioner.
Säker AI-körning
Att skydda AI-körning innebär att skydda de processer genom vilka AI-agenter, till exempel virtuella assistenter eller autonoma agenter, kör kod som svar på användarbegäranden. Isolera körningsmiljöerna, genomför kodgranskningar och ange resursgränser. Dessa åtgärder bidrar till att säkerställa att dessa körningar inte äventyrar systemets stabilitet eller säkerhet. Dessa metoder förhindrar skadliga aktiviteter och skyddar integriteten i de system där AI-agenter fungerar, så att de kan fungera tillförlitligt inom ett säkert ramverk.
Implementera isoleringsmekanismer. Använd dynamisk sessionshantering, till exempel dynamiska sessioner i Azure Container Apps, för att säkerställa att varje kodkörning sker i en ny, isolerad miljö som förstörs efter användning.
Säker körningskod. Utför noggranna kodgranskningar och tester innan du distribuerar skript för körning av AI-agenter. Den här processen hjälper till att identifiera och minimera potentiella sårbarheter. Använd versionskontrollsystem för att hantera kodändringar och se till att endast godkända versioner av skript körs.
Implementera resursgränser. Ange resursgränser (CPU, minne, diskanvändning) för kodkörningsmiljöer för att förhindra att en enskild körning förbrukar överdrivna resurser och potentiellt stör andra tjänster. Definiera tidsgränser för körning för att säkerställa att tidskrävande eller potentiellt fastnade processer avslutas automatiskt.
Mer information finns i How to create Assistants with Azure OpenAI Service , How to use Azure OpenAI Assistants function calling , and Agent implementation .