Vertrouwelijke AI
AI heeft verschillende branches gevormd, zoals financiën, reclame, productie en gezondheidszorg, ruim vóór de recente vooruitgang in generatieve AI. Generatieve AI-modellen hebben het potentieel om een nog grotere impact op de samenleving te creëren. Microsoft heeft zich voor het eerst bezig gehouden met het definiëren van de principes van verantwoordelijke AI om te dienen als kader voor het verantwoord gebruik van AI-technologieën. Confidential computing en confidential AI zijn een belangrijk hulpmiddel om beveiliging en privacy in de verantwoordelijke AI-werkset mogelijk te maken.
Wat is Vertrouwelijke AI?
Confidential AI is een set op hardware gebaseerde technologieën die cryptografisch verifieerbare beveiliging van gegevens en modellen bieden gedurende de hele AI-levenscyclus, inclusief wanneer gegevens en modellen in gebruik zijn. Vertrouwelijke AI-technologieën omvatten accelerators zoals CPU's voor algemeen gebruik en GPU's die ondersteuning bieden voor het maken van TEE's (Trusted Execution Environments) en services die het verzamelen, vooraf verwerken, trainen en implementeren van AI-modellen mogelijk maken. Vertrouwelijke AI biedt ook hulpprogramma's voor het vergroten van vertrouwen, transparantie en verantwoordelijkheid in AI-implementaties.
In welke scenario's wordt vertrouwelijke AI-adres behandeld?
Vertrouwelijke AI behandelt verschillende scenario's die de volledige AI-levenscyclus omvatten.
Vertrouwelijke training. Vertrouwelijke AI beschermt trainingsgegevens, modelarchitectuur en modelgewichten tijdens de training tegen geavanceerde aanvallers, zoals rogue beheerders en insiders. Het beveiligen van gewichten kan essentieel zijn in scenario's waarin modeltraining resource-intensief is en/of gevoelige model-IP omvat, zelfs als de trainingsgegevens openbaar zijn. Met vertrouwelijke training kunnen modelbouwers ervoor zorgen dat modelgewichten en tussenliggende gegevens, zoals controlepunten en kleurovergangsupdates die tijdens de training tussen knooppunten worden uitgewisseld, niet zichtbaar zijn buiten TEE's.
Vertrouwelijk afstemmen. Het is gebruikelijk om algemene AI-modellen af te stemmen met domeinspecifieke privégegevens om de precisie voor specifieke taken te verbeteren. Een financiële organisatie kan bijvoorbeeld een bestaand taalmodel verfijnen met behulp van eigen financiële gegevens. Vertrouwelijke AI kan worden gebruikt om bedrijfseigen gegevens en het getrainde model te beveiligen tijdens het verfijnen.
Vertrouwelijke training voor meerdere partijen. Vertrouwelijke AI maakt een nieuwe klasse van trainingsscenario's van meerdere partijen mogelijk. Organisaties kunnen samenwerken om modellen te trainen zonder hun modellen of gegevens aan elkaar bloot te stellen en beleidsregels af te dwingen voor hoe de resultaten worden gedeeld tussen de deelnemers.
Vertrouwelijk federatief leren. Federatief leren is voorgesteld als alternatief voor gecentraliseerde/gedistribueerde training voor scenario's waarin trainingsgegevens niet kunnen worden samengevoegd, bijvoorbeeld vanwege vereisten voor gegevenslocatie of beveiligingsproblemen. In combinatie met federatief leren kan confidential computing een sterkere beveiliging en privacy bieden. Kleurovergangsupdates die door elke client worden gegenereerd, kunnen bijvoorbeeld worden beveiligd door de modelbouwer te beveiligen door de centrale aggregator in een TEE tee te hosten. Op dezelfde manier kunnen modelontwikkelaars vertrouwen bouwen in het getrainde model door te vereisen dat clients hun trainingspijplijnen uitvoeren in TEE's. Dit zorgt ervoor dat de bijdrage van elke client aan het model is gegenereerd met behulp van een geldig, vooraf gecertificeerd proces zonder toegang tot de gegevens van de client.
Vertrouwelijke deductie. Een typische modelimplementatie omvat verschillende deelnemers. Modelontwikkelaars maken zich zorgen over het beveiligen van hun model-IP van serviceoperators en mogelijk de cloudserviceprovider. Klanten die interactie hebben met het model, bijvoorbeeld door prompts te verzenden die gevoelige gegevens kunnen bevatten naar een generatief AI-model, maken zich zorgen over privacy en mogelijk misbruik. Vertrouwelijke deductie maakt verifieerbare beveiliging van model-IP mogelijk en beschermt tegelijkertijd deductieaanvragen en -antwoorden van de modelontwikkelaar, servicebewerkingen en de cloudprovider. Vertrouwelijke AI kan bijvoorbeeld worden gebruikt om verifieerbaar bewijs te bieden dat aanvragen alleen worden gebruikt voor een specifieke deductietaak en dat antwoorden worden geretourneerd naar de originator van de aanvraag via een beveiligde verbinding die binnen een TEE wordt beëindigd.
Wat zijn de gebruiksvoorbeelden voor de branche voor Vertrouwelijke AI?
Met Azure Confidential Computing bouwen klanten en partners vertrouwelijke AI-oplossingen om veel gebruiksvoorbeelden aan te pakken.
Spraak- en gezichtsherkenning. Modellen voor spraak- en gezichtsherkenning werken op audio- en videostreams die gevoelige gegevens bevatten. In sommige scenario's, zoals toezicht op openbare plaatsen, is toestemming als een middel om te voldoen aan privacyvereisten mogelijk niet praktisch. Met Vertrouwelijke AI kunnen gegevensprocessors modellen trainen en deductie in realtime uitvoeren, terwijl het risico op gegevenslekken wordt geminimaliseerd.
Anti-witwassen/fraudedetectie. Met Vertrouwelijke AI kunnen meerdere banken gegevenssets combineren in de cloud voor het trainen van nauwkeurigere AML-modellen zonder persoonlijke gegevens van hun klanten weer te geven. Modellen die zijn getraind met behulp van gecombineerde gegevenssets kunnen de verplaatsing van geld door één gebruiker tussen meerdere banken detecteren, zonder dat de banken toegang hebben tot elkaars gegevens. Via vertrouwelijke AI kunnen deze financiële instellingen de fraudedetectiepercentages verhogen en fout-positieven verminderen.
Ondersteunde diagnostische gegevens en voorspellende gezondheidszorg. Ontwikkeling van diagnostische gegevens en voorspellende gezondheidszorgmodellen vereist toegang tot zeer gevoelige gezondheidsgegevens. Het verkrijgen van toegang tot dergelijke gegevenssets is zowel duur als tijdrovend. Vertrouwelijke AI kan de waarde in dergelijke gegevenssets ontgrendelen, waardoor AI-modellen kunnen worden getraind met behulp van gevoelige gegevens, terwijl zowel de gegevenssets als modellen gedurende de hele levenscyclus worden beveiligd.
Waarom confidential computing?
De effectiviteit van AI-modellen is zowel afhankelijk van de kwaliteit als de hoeveelheid gegevens. Hoewel er veel vooruitgang is geboekt door trainingsmodellen met behulp van openbaar beschikbare gegevenssets, is het mogelijk dat modellen nauwkeurige complexe adviestaken kunnen uitvoeren, zoals medische diagnose, financiële risicoanalyse of bedrijfsanalyse, toegang nodig hebben tot persoonlijke gegevens, zowel tijdens training als deductie.
Er zijn veel technologieën met privacybehoud die persoonlijke gegevens beschermen die gegevens in gebruik kunnen beschermen. Gegevens kunnen bijvoorbeeld worden verwijderd en gedesineerd voordat ze worden gedeeld. De identificatie alleen blijkt echter broos te zijn en kan in sommige gevallen het nut verminderen. Andere benaderingen zoals volledig homomorfe versleuteling (FHE) en veilige berekeningen van meerdere partijen (MPC) kunnen expressiviteit beperken of aanzienlijke overhead voor prestaties veroorzaken.
Vertrouwelijke computing kan de toegang tot gevoelige gegevenssets ontgrendelen terwijl wordt voldaan aan beveiligings- en nalevingsproblemen met lage overhead. Met confidential computing kunnen gegevensproviders het gebruik van hun gegevenssets autoriseren voor specifieke taken (geverifieerd door attestation), zoals training of afstemming van een overeengekomen model, terwijl de gegevens beveiligd blijven. Vertrouwelijke training kan worden gecombineerd met differentiële privacy om het lekken van trainingsgegevens verder te verminderen door middel van deductie. Modelbouwers kunnen hun modellen transparanter maken door vertrouwelijke computing te gebruiken om niet-weerlegbare gegevens en modelgegevensrecords te genereren. Clients kunnen externe attestation gebruiken om te controleren of deductieservices alleen deductieaanvragen gebruiken in overeenstemming met gedeclareerd beleid voor gegevensgebruik.
Wat zijn de opties om aan de slag te gaan?
ACC-platformaanbiedingen waarmee Vertrouwelijke AI kan worden ingeschakeld
Azure biedt al geavanceerde aanbiedingen voor het beveiligen van gegevens en AI-workloads. U kunt de beveiligingspostuur van uw workloads verder verbeteren met behulp van de volgende Azure Confidential Computing-platformaanbiedingen.
Vertrouwelijke VM's op SNP en TDX (in beperkte preview). AI-workloads op basis van CPU, bijvoorbeeld gegevensverwerking en training en deductie voor kleinere modellen, kunnen vertrouwelijke VM's gebruiken op basis van SNP en TDX om gevoelige code en gegevens in gebruik te beveiligen.
Vertrouwelijke containers op ACI. Vertrouwelijke containers in ACI zijn een andere manier om containerworkloads in Azure te implementeren. Naast beveiliging van de cloudbeheerders bieden vertrouwelijke containers bescherming tegen tenantbeheerders en sterke integriteitseigenschappen met behulp van containerbeleid. Dit maakt ze een geweldige match voor scenario's met weinig vertrouwen, samenwerking met meerdere partijen. Zie hier voor een voorbeeld waarin vertrouwelijke deductie wordt gedemonstreerd op basis van niet-gewijzigde NVIDIA Triton-deductieserver.
Voor AI-workloads die afhankelijk zijn van GPU's, werken Microsoft en NVIDIA samen om vertrouwelijke computing naar NVIDIA GPU's te brengen. Azure Confidential GPU-VM's op basis van AMD SEV-SNP en A100 GPU's zijn momenteel in beperkte preview.
ACC-partneroplossingen die Vertrouwelijke AI inschakelen
Gebruik een partner die Vertrouwelijke AI-oplossingen heeft gebouwd op het Azure Confidential Computing-platform.
Anjuna biedt een confidential computing-platform om verschillende gebruiksvoorbeelden voor organisaties in staat te stellen machine learning-modellen te ontwikkelen zonder gevoelige informatie beschikbaar te maken.
Beekeeper AI maakt ai in de gezondheidszorg mogelijk via een beveiligd samenwerkingsplatform voor algoritmeeigenaren en gegevensstewards. BeeKeeperAI maakt gebruik van analyses met privacybehoud op multi-institutionele bronnen van beveiligde gegevens in een vertrouwelijke computingomgeving. De oplossing ondersteunt end-to-end-versleuteling, beveiligde computing-enclaves en intels nieuwste SGX-processors om de gegevens en het ALGORITME-IP te beveiligen.
Fortanix biedt een confidential computing-platform waarmee vertrouwelijke AI kan worden ingeschakeld, waaronder meerdere organisaties die samenwerken voor analyses van meerdere partijen.
Mithril Security biedt hulpprogramma's om SaaS-leveranciers te helpen AI-modellen in beveiligde enclaves te bedienen en een on-premises niveau van beveiliging en controle te bieden aan eigenaren van gegevens. Gegevenseigenaren kunnen hun SaaS AI-oplossingen gebruiken terwijl ze voldoen aan het beleid en de controle over hun gegevens.
Ondoorzichtig biedt een vertrouwelijk computingplatform voor gezamenlijke analyses en AI, waardoor het mogelijk is om analyses uit te voeren en end-to-end gegevens te beveiligen en organisaties in staat te stellen te voldoen aan wettelijke en wettelijke mandaten.