Delen via


Beveiligde AI: proces om AI te beveiligen

Dit artikel bevat een overzicht van het organisatieproces voor het beveiligen van AI-workloads. Het richt zich op de vertrouwelijkheid, integriteit en beschikbaarheid (CIA) van AI. Effectieve beveiligingsprocedures verminderen het risico van inbreuk door de vertrouwelijkheid, integriteit en beschikbaarheid van AI-modellen en -gegevens te beschermen. Een beveiligde AI-omgeving is ook afgestemd op bedrijfsbeveiligingsdoelen en verbetert het vertrouwen in AI-gestuurde processen.

Diagram van het AI-acceptatieproces: AI-strategie, AI-plan, AI Ready, Governance AI, BEHEER AI en Beveiligde AI.

AI-beveiligingsrisico's beoordelen

Het beoordelen van AI-beveiligingsrisico's omvat het identificeren en evalueren van mogelijke beveiligingsproblemen die van invloed kunnen zijn op AI-workloads. Proactief aanpakken van deze risico's helpt schendingen, manipulatie en misbruik te voorkomen, waardoor de betrouwbaarheid van AI-toepassingen wordt versterkt. Deze aanpak ondersteunt ook organisatiedoelen door gevoelige gegevens te beschermen en het vertrouwen van belanghebbenden te behouden.

  • Algemene AI-beveiligingsrisico's identificeren. Gebruik herkende resources zoals MITRE ATLAS, OWASP Machine Learning-risico en OWASP Generatieve AI-risico's om regelmatig risico's te evalueren voor alle AI-workloads. Overweeg voor doorlopend beveiligingspostuurbeheer AI-beveiligingshulpprogramma's zoals AI-beveiligingspostuurbeheer in Microsoft Defender voor Cloud te gebruiken. Deze hulpprogramma's kunnen de detectie en herstel van generatieve AI-risico's automatiseren.

  • Gegevensrisico's identificeren. Gevoelige gegevensverlies of blootstelling kunnen aanzienlijke gevolgen hebben voor de belanghebbenden en nalevingsverplichtingen van uw organisatie. Gebruik bedrijfsbrede hulpprogramma's zoals Microsoft Purview Intern risicobeheer om intern risico te beoordelen en gegevensbeveiliging in het hele bedrijf te behouden. In alle AI-workloads kunt u risico's classificeren en prioriteren op basis van de gevoeligheid van de gegevens die ze verwerken, opslaan of verzenden.

  • AI-bedreigingsmodellering uitvoeren. Voer bedrijfsbrede AI-bedreigingsmodellering uit met behulp van frameworks zoals STRIDE om mogelijke aanvalsvectoren voor alle AI-workloads te beoordelen. Werk bedreigingsmodellen regelmatig bij om zich aan te passen aan nieuwe AI-use cases en bedreigingen. Het AI Center of Excellence moet overwegen om AI-bedreigingsmodellering te centraliseren om een uniforme benadering binnen de organisatie te garanderen en risico's te beperken die zijn gekoppeld aan verschillende AI-modellen, gegevensbronnen en processen.

  • AI-modellen testen. Voer red-teamtests uit op generatieve AI-modellen en niet-generatieve modellen om hun kwetsbaarheid voor aanvallen te beoordelen. Hulpprogramma's zoals PyRIT kunnen dit proces automatiseren voor generatieve AI, zodat u de uitvoer van het model onder verschillende omstandigheden kunt uitdagen. Deze stap is zeer technisch en vereist speciale expertise om effectief te kunnen presteren.

AI-beveiligingscontroles implementeren

Het implementeren van AI-beveiligingscontroles betekent het tot stand brengen van beleid, procedures en hulpprogramma's waarmee AI-resources en -gegevens worden beschermd. Deze controles zorgen voor naleving van wettelijke vereisten en beschermen tegen onbevoegde toegang, ondersteuning voor continue werking en gegevensprivacy. Wanneer u consistente besturingselementen toepast voor AI-workloads, kunt u de beveiliging effectiever beheren.

AI-resources beveiligen

Het beveiligen van AI-resources omvat het beheren en beveiligen van de systemen, modellen en infrastructuur die AI-toepassingen ondersteunen. Deze stap vermindert de kans op onbevoegde toegang en helpt beveiligingsprocedures in de hele organisatie te standaardiseren. Een uitgebreide resource-inventarisatie maakt een consistente toepassing van beveiligingsbeleid mogelijk en versterkt de algehele controle van AI-assets.

  • Een gecentraliseerde INVENTARISATIE van AI-assets tot stand brengen. Door een gedetailleerde en actuele inventarisatie van uw AI-workloadresources te onderhouden, kunt u beveiligingsbeleid uniform toepassen op alle AI-workloads. Compileer een bedrijfsbrede inventarisatie van alle AI-systemen, modellen, gegevenssets en infrastructuur in Azure. Gebruik hulpprogramma's zoals Azure Resource Graph Explorer en Microsoft Defender voor Cloud om het detectieproces te automatiseren. Microsoft Defender voor Cloud kunnen generatieve AI-workloads en in predeploymentgeneratieve AI-artefacten detecteren.

  • Azure AI-platformen beveiligen. Standaardiseer de toepassing van Azure-beveiligingsbasislijnen voor elke AI-resource. Volg de beveiligingsaanveling in Azure-servicehandleidingen.

  • Gebruik richtlijnen voor specifieke governance voor workloads. Gedetailleerde beveiligingsrichtlijnen zijn beschikbaar voor AI-workloads op Azure-platformservices (PaaS) en Azure-infrastructuur (IaaS). Gebruik deze richtlijnen voor het beveiligen van AI-modellen, -resources en -gegevens binnen deze workloadtypen.

AI-gegevens beveiligen

Het beveiligen van AI-gegevens omvat het beveiligen van de gegevens die AI-modellen gebruiken en genereren. Effectieve procedures voor gegevensbeveiliging helpen onbevoegde toegang, gegevenslekken en nalevingsschendingen te voorkomen. Het beheren van de toegang tot gegevens en het onderhouden van een gedetailleerde catalogus biedt ook ondersteuning voor geïnformeerde besluitvorming en het verminderen van het risico op het blootstellen van gevoelige informatie.

  • Gegevensgrenzen definiëren en onderhouden. Zorg ervoor dat AI-workloads gegevens gebruiken die geschikt zijn voor hun toegangsniveau. AI-toepassingen die toegankelijk zijn voor alle werknemers, mogen alleen gegevens verwerken die geschikt zijn voor alle werknemers. Internetgerichte AI-toepassingen moeten gegevens gebruiken die geschikt zijn voor openbaar gebruik. Gebruik afzonderlijke gegevenssets of omgevingen voor verschillende AI-toepassingen om onbedoelde gegevenstoegang te voorkomen. Overweeg het gebruik van de suite met hulpprogramma's voor gegevensbeveiliging van Microsoft Purview om uw gegevens te beveiligen.

  • Implementeer strikte besturingselementen voor gegevenstoegang. Zorg ervoor dat toepassingen controleren of eindgebruikers gemachtigd zijn om toegang te krijgen tot de gegevens die betrokken zijn bij hun query's. Vermijd brede systeemmachtigingen voor gebruikersacties. Gebruik het principe dat als de AI toegang heeft tot bepaalde gegevens, de gebruiker rechtstreeks toegang moet krijgen tot deze gegevens.

  • Een gegevenscatalogus onderhouden. Houd een up-to-date catalogus bij van alle gegevens die zijn verbonden met en worden gebruikt door AI-systemen, inclusief opslaglocaties en toegangsgegevens. Scan en label gegevens regelmatig om gevoeligheidsniveaus en geschiktheid bij te houden, met behulp van analyse en risico-identificatie. Overweeg het gebruik van Microsoft Purview-gegevenscatalogus om uw gegevens toe te wijzen en te beheren.

  • Maak een wijzigingsbeheerplan voor gegevensgevoeligheid. Houd de vertrouwelijkheidsniveaus van gegevens bij, omdat ze na verloop van tijd kunnen worden gewijzigd. Gebruik uw gegevenscatalogus om informatie te bewaken die wordt gebruikt in AI-workloads. Implementeer een proces om gevoelige gegevens te zoeken en te verwijderen uit AI-workloads.

  • Beveiligde AI-artefacten. AI-modellen en -gegevenssets herkennen als waardevol intellectueel eigendom en maatregelen implementeren om ze dienovereenkomstig te beveiligen. Sla AI-modellen en -gegevenssets op achter privé-eindpunten en in beveiligde omgevingen, zoals Azure Blob Storage en toegewezen werkruimten. Pas strikt toegangsbeleid en versleuteling toe om AI-artefacten te beschermen tegen onbevoegde toegang of diefstal om gegevensvergiftiging te voorkomen.

  • Gevoelige gegevens beveiligen. Wanneer de oorspronkelijke gegevensbron niet geschikt is voor direct gebruik, gebruikt u duplicaten, lokale kopieën of subsets die alleen de benodigde informatie bevatten. Gevoelige gegevens verwerken in gecontroleerde omgevingen met netwerkisolatie en strenge toegangscontroles om onbevoegde toegang of gegevenslekken te voorkomen. Implementeer bovendien uitgebreide beveiligingsmaatregelen, zoals versleuteling, continue bewaking en inbraakdetectiesystemen ter bescherming tegen gegevensschendingen tijdens de verwerking.

AI-beveiligingscontroles onderhouden

Het onderhouden van AI-beveiligingscontroles omvat doorlopende bewaking, testen en bijwerken van beveiligingsmaatregelen om zich te richten op veranderende bedreigingen. Regelmatig controleren van beveiligingscontroles zorgt ervoor dat AI-workloads beveiligd blijven en dat de organisatie zich kan aanpassen aan nieuwe risico's. Proactief onderhoud helpt schendingen te voorkomen en vertrouwen in AI-systemen in de loop van de tijd te behouden.

  • Implementeer tests voor gegevenslekken en dwang in AI-systemen. Voer strenge tests uit om te bepalen of gevoelige gegevens kunnen worden gelekt of gecodeerd via AI-systemen. DLP-tests (Preventie van gegevensverlies) uitvoeren en AI-specifieke aanvalsscenario's simuleren. Simuleer modelinversion- of adversarial-aanvallen om de tolerantie van gegevensbeschermingsmaatregelen te evalueren. Ervoor zorgen dat AI-modellen en gegevensverwerkingsprocessen veilig zijn tegen onbevoegde toegang en manipulatie, is essentieel voor het behouden van gegevensintegriteit en vertrouwen in AI-toepassingen.

  • Bied training en bewustzijn voor medewerkers die gericht zijn op AI. Trainingsprogramma's bieden voor alle werknemers die betrokken zijn bij AI-projecten. Benadruk het belang van gegevensbeveiliging en best practices die specifiek zijn voor AI-ontwikkeling en -implementatie. Informeer medewerkers over het verwerken van gevoelige gegevens die worden gebruikt bij het trainen en herkennen van bedreigingen zoals modelinversion- of gegevensvergiftigingsaanvallen. Regelmatige training zorgt ervoor dat teamleden op de hoogte zijn van de nieuwste AI-beveiligingsprotocollen en inzicht hebben in hun rol bij het onderhouden van de integriteit van AI-workloads.

  • Ontwikkel en onderhoud een plan voor reactie op incidenten voor AI-beveiligingsincidenten. Maak een strategie voor reactie op incidenten die is afgestemd op AI-systemen om potentiële schendingen van gegevens of beveiligingsincidenten aan te pakken. In het plan moeten duidelijke procedures worden beschreven voor het detecteren, rapporteren en beperken van beveiligingsincidenten die van invloed kunnen zijn op AI-modellen, -gegevens of -infrastructuur. Voer regelmatig analyses en simulaties uit die zijn gericht op AI-specifieke scenario's om ervoor te zorgen dat het antwoordteam is voorbereid op het efficiënt verwerken van echte AI-beveiligingsincidenten.

  • Voer periodieke risicoanalyses uit. Evalueer opkomende bedreigingen en beveiligingsproblemen die specifiek zijn voor AI regelmatig via risicoanalyses en impactanalyses. Deze evaluaties helpen bij het identificeren van nieuwe risico's die zijn gekoppeld aan AI-modellen, gegevensverwerkingsprocessen en implementatieomgevingen. Evaluaties beoordelen ook de mogelijke gevolgen van beveiligingsschendingen op AI-systemen.

Volgende stappen

Beheer AI, BEHEER AI en Beveiligde AI zijn doorlopende processen die u regelmatig moet doorlopen. Ga zo nodig opnieuw naar elke AI-strategie, AI-plan en AI Ready. Gebruik de controlelijsten voor AI-acceptatie om te bepalen wat uw volgende stap moet zijn.