Delen via


Aanbevelingen voor beveiliging voor AI-workloads in Azure

Dit artikel bevat aanbevelingen voor beveiliging voor organisaties die AI-workloads uitvoeren in Azure. Het richt zich op PaaS-oplossingen (Platform-as-a-Service) van Azure AI, waaronder Azure AI Foundry, Azure OpenAI, Azure Machine Learning en Azure AI Services. Het omvat zowel generatieve als niet-generatieve AI-workloads.

Naarmate AI meer wordt geïntegreerd in bedrijfsactiviteiten, is het essentieel om deze resources te beschermen tegen mogelijke bedreigingen om gegevensintegriteit en naleving te behouden. Door gestandaardiseerde beveiligingsbasislijnen toe te passen en goed ontworpen frameworks te volgen, kunnen organisaties hun AI-infrastructuur beschermen tegen beveiligingsproblemen.

AI-resources beveiligen

Het beveiligen van AI-resources betekent het toepassen van beveiligingsbasislijnen en aanbevolen procedures om de infrastructuur te beveiligen die wordt gebruikt voor AI-workloads in Azure. Deze beveiliging minimaliseert risico's van externe bedreigingen en zorgt voor een consistent beveiligingspostuur binnen de hele organisatie.

Azure AI-platformen beveiligen. Standaardiseer de toepassing van Azure-beveiligingsbasislijnen voor elke AI-resource. Volg de beveiligingsaanbeveling in Azure Service Guides binnen het Azure Well-Architected Framework.

Azure AI-platformbeveiligingsbasislijn Servicehandleiding voor Azure Well-Architected Framework
Azure Machine Learning Azure Machine Learning
Azure AI Foundry
Azure OpenAI Azure OpenAI

De AI-modellen beveiligen

Het beveiligen van AI-modellen verwijst naar het implementeren van bedreigingsbeveiliging, het bewaken van promptinjectierisico's, het verifiëren van modelintegriteit en het centraliseren van governance. Deze procedures zorgen ervoor dat AI-modellen veilig blijven tegen schadelijke manipulatie, hun betrouwbaarheid behouden en nauwkeurige resultaten bieden.

  • Implementeer bedreigingsbeveiliging voor alle AI-modellen. Gebruik Microsoft Defender voor Cloud om AI-modellen te beschermen tegen bedreigingen, zoals promptinjectieaanvallen en modelmanipulatie. Dit hulpprogramma biedt continue bewaking van AI-workloads die helpen bij het detecteren en voorkomen van opkomende bedreigingen. Het implementeren van deze beveiliging voor alle workloads zorgt voor een consistent beveiligingspostuur in de hele organisatie.

  • Controleer de uitvoer en pas promptafscherming toe. Inspecteer regelmatig de gegevens die door AI-modellen worden geretourneerd om risico's te detecteren en te beperken die zijn gekoppeld aan schadelijke of onvoorspelbare gebruikersprompts. Implementeer Prompt Shields om tekst te scannen op het risico van een aanval van gebruikersinvoer op generatieve Al-modellen.

  • Zorg voor modelverificatie. Stel bedrijfsbrede verificatiemechanismen in om ervoor te zorgen dat alle GEBRUIKTE AI-modellen legitiem en veilig zijn. Als u opensource-modellen gebruikt, gebruikt u modelhandtekeningen of andere verificatieprocessen om de echtheid van AI-modellen te bevestigen, zodat niet-geautoriseerde of gemanipuleerde modellen niet kunnen worden geïmplementeerd.

  • Overweeg een AI-gateway te gebruiken.Met Azure API Management (APIM) kunt u zorgen voor consistente beveiliging voor AI-workloads. Gebruik de ingebouwde beleidsregels voor verkeerscontrole en beveiligingshandhaving. Integreer APIM met Microsoft Entra ID om verificatie en autorisatie te centraliseren en ervoor te zorgen dat alleen geautoriseerde gebruikers of toepassingen communiceren met uw AI-modellen. Zorg ervoor dat u toegang tot minimale bevoegdheden configureert voor de beheerde identiteit van de omgekeerde proxy. Zie AI-verificatie met APIM voor meer informatie

Beveiligde AI-toegang

Het beveiligen van AI-toegang omvat het tot stand brengen van verificatie- en autorisatiecontroles voor zowel het beheervlak als externe toegang tot AI-resources. Het juiste toegangsbeheer beperkt het resourcegebruik tot alleen gebruikers met geverifieerde machtigingen. Het vermindert de kans op onbevoegde interacties met AI-modellen. Krachtige toegangsbeheer, zoals op rollen gebaseerd toegangsbeleid en beleid voor voorwaardelijke toegang, helpt gevoelige gegevens te beveiligen en de naleving van beveiligingsstandaarden te handhaven.

  • Resources en toegangsbeheer organiseren. Gebruik afzonderlijke werkruimten om AI-artefacten, zoals gegevenssets, modellen en experimenten, te organiseren en te beheren. Werkruimten centraliseren resourcebeheer en vereenvoudigen toegangsbeheer. Gebruik bijvoorbeeld projecten in Azure AI Foundry om resources en machtigingen efficiënt te beheren, waardoor samenwerking wordt vergemakkelijkt terwijl de beveiligingsgrenzen behouden blijven.

  • Gebruik Microsoft Entra-id voor verificatie. Verwijder waar mogelijk statische API-sleutels ten gunste van Microsoft Entra ID voor verificatie. Deze stap verbetert de beveiliging via gecentraliseerd identiteitsbeheer en vermindert de overhead voor geheimbeheer. Beperk ook de distributie van API-sleutels. Geef in plaats daarvan de voorkeur aan identiteiten in Microsoft Entra-id via API-sleutels voor verificatie. Controleer de lijst met personen met TOEGANG tot API-sleutels om ervoor te zorgen dat deze actueel is. Zie Azure AI Foundry-, Azure OpenAI-, Azure AI-services, Azure Machine Learning-voor verificatierichtlijnen.

  • Verificatie configureren. Schakel meervoudige verificatie (MFA) in en geef de voorkeur aan secundaire beheerdersaccounts of Just-In-Time-toegang met Privileged Identity Management (PIM) voor gevoelige accounts. Beperk de toegang tot het besturingsvlak met behulp van services zoals Azure Bastion als beveiligde toegangspunten in privénetwerken.

  • Beleid voor voorwaardelijke toegang gebruiken. Implementeer beleid voor voorwaardelijke toegang op basis van risico's dat reageert op ongebruikelijke aanmeldingsactiviteiten of verdacht gedrag. Gebruik signalen zoals gebruikerslocatie, apparaatstatus en aanmeldingsgedrag om extra verificatiestappen te activeren. MFA vereisen voor toegang tot kritieke AI-resources om de beveiliging te verbeteren. Beperk de toegang tot AI-infrastructuur op basis van geografische locaties of vertrouwde IP-bereiken. Zorg ervoor dat alleen compatibele apparaten (die voldoen aan beveiligingsvereisten) toegang hebben tot AI-resources.

  • Configureer toegang tot minimale bevoegdheden. Configureer minimale toegangsrechten door op rollen gebaseerd toegangsbeheer (RBAC) te implementeren om minimale toegang tot gegevens en services te bieden. Rollen toewijzen aan gebruikers en groepen op basis van hun verantwoordelijkheden. Gebruik Azure RBAC om toegangsbeheer af te stemmen voor specifieke resources, zoals virtuele machines en opslagaccounts. Zorg ervoor dat gebruikers alleen het minimale toegangsniveau hebben dat nodig is om hun taken uit te voeren. Controleer en pas de machtigingen regelmatig aan om bevoegdheden te voorkomen. Bijvoorbeeld:

    Role Voorbeeldmachtigingen
    Gegevenswetenschappers Lees-/schrijftoegang tot gegevensopslag, machtiging voor het uitvoeren van trainingstaken en toegang tot modeltrainingsomgevingen.
    AI-ontwikkelaars Toegang tot ontwikkelomgevingen, implementatiemachtigingen en de mogelijkheid om AI-toepassingen te wijzigen.
    IT-beheerders Volledige toegang tot het beheren van infrastructuur, netwerkconfiguraties en beveiligingsbeleid.
  • Beveilig interacties tussen services van Azure. Gebruik beheerde identiteit om Azure-services toe te staan om zich bij elkaar te verifiëren zonder referenties te beheren.

  • Externe toegang tot AI-modeleindpunten beveiligen. Clients verplichten zich te verifiëren met behulp van Microsoft Entra-id bij het openen van eindpunten voor AI-modellen. Overweeg om Azure API Management te gebruiken als een AI-gateway vóór AI-modeleindpunten om toegangsbeleid af te dwingen, het gebruik te beheren en bewakingsmogelijkheden te bieden.

Beveiligde AI-uitvoering

Het beveiligen van AI-uitvoering omvat het beveiligen van de processen waarmee AI-agents, zoals virtuele assistenten of autonome agents, code uitvoeren als reactie op gebruikersaanvragen. Isoleer de uitvoeringsomgevingen, voer codebeoordelingen uit en stel resourcelimieten in. Deze maatregelen helpen ervoor te zorgen dat deze uitvoeringen geen inbreuk maken op de stabiliteit of beveiliging van het systeem. Deze procedures voorkomen schadelijke activiteiten en beschermen de integriteit van de systemen waarin AI-agents werken, zodat ze betrouwbaar kunnen functioneren binnen een beveiligd framework.

  • Isolatiemechanismen implementeren. Gebruik dynamisch sessiebeheer, zoals dynamische sessies in Azure Container Apps, om ervoor te zorgen dat elke code-uitvoering plaatsvindt in een nieuwe, geïsoleerde omgeving die na gebruik wordt vernietigd.

  • Beveiligingsuitvoeringscode. Voer grondige codebeoordelingen en tests uit voordat u scripts implementeert voor uitvoering door AI-agents. Met dit proces kunt u potentiële beveiligingsproblemen identificeren en beperken. Gebruik versiebeheersystemen om codewijzigingen te beheren en ervoor te zorgen dat alleen goedgekeurde versies van scripts worden uitgevoerd.

  • Resourcelimieten implementeren. Stel resourcelimieten (CPU, geheugen, schijfgebruik) in voor code-uitvoeringsomgevingen om te voorkomen dat één uitvoering overmatige resources verbruikt en andere services mogelijk verstoort. Definieer uitvoeringstime-outs om ervoor te zorgen dat langlopende of mogelijk vastgelopen processen automatisch worden beëindigd.

Zie Assistenten maken met De Azure OpenAI-service, De functie aanroepen van Azure OpenAI-assistenten en agentimplementatie gebruiken voor meer informatie.

Volgende stap