Delen via


Verantwoorde AI in Azure-workloads

Het doel van verantwoorde AI in workloadontwerp is ervoor te zorgen dat het gebruik van AI-algoritmen eerlijk, transparant en inclusief is. Goed ontworpen beveiligingsprincipes zijn verbonden met een focus op vertrouwelijkheid en integriteit. Er moeten beveiligingsmaatregelen worden getroffen om de privacy van gebruikers te behouden, gegevens te beschermen en de integriteit van het ontwerp te waarborgen, die niet mogen worden misbruikt voor onbedoelde doeleinden.

In AI-workloads worden beslissingen genomen door modellen die vaak ondoorzichtige logica gebruiken. De gebruikers moeten de functionaliteit van het systeem vertrouwen en erop vertrouwen dat beslissingen op verantwoorde wijze worden genomen. Onethisch gedrag, zoals manipulatie, inhoudsvergiftiging, IP-inbreuk en ge fabriceerde reacties, moet worden vermeden.

Overweeg een use-case waarbij een media-entertainmentbedrijf aanbevelingen wil doen met behulp van AI-modellen. Het niet implementeren van verantwoorde AI en de juiste beveiliging kan leiden tot een slechte actor die de controle over de modellen neemt. Het model kan mogelijk media-inhoud aanbevelen die tot schadelijke resultaten kan leiden. Voor de organisatie kan dit gedrag leiden tot merkschade, onveilige omgevingen en juridische problemen. Daarom is het handhaven van ethische bewaking gedurende de levenscyclus van het systeem essentieel en niet-onderhandelbaar.

Ethische beslissingen moeten prioriteit geven aan beveiligings- en workloadbeheer met menselijke resultaten in het achterhoofd. Maak kennis met het verantwoordelijke AI-framework van Microsoft en zorg ervoor dat de principes worden weerspiegeld en gemeten in uw ontwerp. In deze afbeelding ziet u de belangrijkste concepten van het framework.

Diagram met het Microsoft Responsible AI-framework.

Belangrijk

Nauwkeurigheid van voorspellings- en verantwoordelijke AI-metrische gegevens zijn vaak onderling verbonden. Het verbeteren van de nauwkeurigheid van een model kan de billijkheid en afstemming met de realiteit verbeteren. Hoewel ethische AI vaak overeenkomt met nauwkeurigheid, bevat nauwkeurigheid alleen niet alle ethische overwegingen. Het is van cruciaal belang om deze ethische principes op verantwoorde wijze te valideren.

Dit artikel bevat aanbevelingen voor ethische besluitvorming, het valideren van gebruikersinvoer en het garanderen van een veilige gebruikerservaring. Het biedt ook richtlijnen voor gegevensbeveiliging om ervoor te zorgen dat gebruikersgegevens worden beveiligd.

Aanbevelingen

Hier volgt een samenvatting van de aanbevelingen in dit artikel.

Aanbeveling Beschrijving
Ontwikkel beleidsregels die ethische praktijken afdwingen in elke fase van de levenscyclus. Voeg controlelijstitems toe die expliciet ethische vereisten aangeven, die zijn afgestemd op de workloadcontext. Voorbeelden hiervan zijn transparantie van gebruikersgegevens, configuratie van toestemming en procedures voor het afhandelen van het 'Recht om te vergeten'.

Uw verantwoorde AI-beleid ontwikkelen
Governance afdwingen voor verantwoord AI-beleid
Bescherm gebruikersgegevens met het doel om de privacy te maximaliseren. Verzamel alleen wat nodig is en met de juiste gebruikerstoestemming. Pas technische besturingselementen toe om gebruikersprofielen, hun gegevens en toegang tot die gegevens te beveiligen.

Gebruikersgegevens ethisch verwerken
Binnenkomende en uitgaande gegevens controleren
Houd AI-beslissingen helder en begrijpelijk. Behoud duidelijke uitleg over de werking van aanbevelingsalgoritmen en bied gebruikers inzicht in gegevensgebruik en algoritmebeslissing om ervoor te zorgen dat ze het proces begrijpen en vertrouwen.

De gebruikerservaring veilig maken

Verantwoordelijk AI-beleid ontwikkelen

Documenteer uw benadering van ethisch en verantwoord AI-gebruik. Beleidsregels die expliciet worden toegepast in elke fase van de levenscyclus, zodat het workloadteam hun verantwoordelijkheden begrijpt. Hoewel de verantwoordelijke AI-standaarden van Microsoft richtlijnen bieden, moet u definiëren wat dit specifiek betekent voor uw context.

Het beleid moet bijvoorbeeld controlelijstitems bevatten voor mechanismen voor transparantie van gebruikersgegevens en toestemmingsconfiguratie, in het ideale geval zodat gebruikers zich kunnen afmelden voor het opnemen van gegevens. Gegevenspijplijnen, analyses, modeltraining en andere fasen moeten die keuze respecteren. Een ander voorbeeld is procedures voor het afhandelen van het 'Recht om te vergeten'. Neem contact op met de ethische afdeling en het juridische team van uw organisatie om weloverwogen beslissingen te nemen.

Maak transparant beleid voor gegevensgebruik en algoritmebeslissing om ervoor te zorgen dat gebruikers het proces begrijpen en vertrouwen. Documenteer deze beslissingen om een duidelijke geschiedenis te behouden voor mogelijke toekomstige juridische procedures.

Het implementeren van ethische AI omvat drie belangrijke rollen: het onderzoeksteam, het beleidsteam en het technische team. Samenwerking tussen deze teams moet operationeel zijn. Als uw organisatie een bestaand team heeft, kunt u profiteren van hun werk; anders kunt u deze procedures zelf vaststellen.

Houd rekening met de scheiding van taken:

  • Het onderzoeksteam voert risicodetectie uit door advies te geven over de richtlijnen van de organisatie, industriestandaarden, wetten, voorschriften en bekende rode teamtactieken.

  • Het beleidsteam ontwikkelt beleidsregels die specifiek zijn voor de workload, waarbij richtlijnen van de bovenliggende organisatie en overheidsvoorschriften worden opgenomen.

  • Het technische team implementeert het beleid in hun processen en producten, zodat ze naleving valideren en testen.

Elk team formaliseert de richtlijnen, maar het workloadteam moet verantwoordelijk zijn voor zijn eigen gedocumenteerde procedures. Het team moet alle aanvullende stappen of opzettelijke afwijkingen duidelijk documenteren, zodat er geen dubbelzinnigheid is over wat is toegestaan. Wees ook transparant over mogelijke tekortkomingen of onverwachte resultaten in de oplossing.

Governance afdwingen voor verantwoord AI-beleid

Ontwerp uw workload om te voldoen aan organisatie- en regelgevingsbeheer. Als transparantie bijvoorbeeld een organisatievereiste is, bepaalt u hoe deze van toepassing is op uw workload. Identificeer gebieden in uw ontwerp, levenscyclus, code of andere onderdelen, waar transparantiefuncties moeten worden geïntroduceerd om aan die standaard te voldoen.

Inzicht in de vereiste governance, verantwoordelijkheid, beoordelingsborden en rapportagemandaten. Zorg ervoor dat workloadontwerpen worden goedgekeurd en afgemeld door uw governanceraad om herontwerpen te voorkomen en ethische of privacyproblemen te beperken. Mogelijk moet u meerdere goedkeuringslagen doorlopen. Hier volgt een typische structuur voor governance.

Diagram met een typische governancestructuur in een organisatie.

Zie Cloud Adoption Framework: Een verantwoorde AI-strategie definiëren voor informatie over organisatiebeleid en goedkeurders.

De gebruikerservaring veilig maken

Gebruikerservaringen moeten zijn gebaseerd op brancherichtlijnen. Profiteer van de ontwerpbibliotheek voor Microsoft Human-AI-ervaringen die principes bevat en implementatie-do's en don'ts biedt, met voorbeelden van Microsoft-producten en andere branchebronnen.

Er zijn workloadverantwoordelijkheden gedurende de hele levenscyclus van de gebruikersinteractie, te beginnen met de intentie van de gebruiker om het systeem te gebruiken, tijdens een sessie en onderbrekingen vanwege systeemfouten. Hier volgen enkele procedures om rekening mee te houden:

  • Maak transparantie. Gebruikers op de hoogte stellen van hoe het systeem het antwoord op hun query heeft gegenereerd.

    Voeg koppelingen toe naar gegevensbronnen die worden geraadpleegd door het model voor voorspellingen om het vertrouwen van gebruikers te verbeteren door de oorsprong van de informatie weer te geven. Gegevensontwerp moet ervoor zorgen dat deze bronnen worden opgenomen in de metagegevens. Wanneer de orchestrator in een uitgebreide toepassing voor ophalen een zoekopdracht uitvoert, worden bijvoorbeeld 20 documentsegmenten opgehaald en worden de tien bovenste 10 segmenten, die behoren tot drie verschillende documenten, naar het model als context verzonden. De gebruikersinterface kan vervolgens verwijzen naar deze drie brondocumenten bij het weergeven van het antwoord van het model, waardoor transparantie en vertrouwen van gebruikers worden verbeterd.

    Transparantie wordt belangrijker bij het gebruik van agents, die fungeren als tussenpersonen tussen front-endinterfaces en back-endsystemen. In een ticketsysteem interpreteert de indelingscode bijvoorbeeld de intentie van de gebruiker en worden API-aanroepen naar agents uitgevoerd om de benodigde informatie op te halen. Als u deze interacties beschikbaar maakt, kan de gebruiker op de hoogte worden van de acties van het systeem.

    Voor geautomatiseerde werkstromen met meerdere betrokken agents maakt u logboekbestanden waarmee elke stap wordt vastgelegd. Deze mogelijkheid helpt bij het identificeren en corrigeren van fouten. Daarnaast kan het gebruikers uitleg geven over beslissingen, die transparantie operationeel maken.

    Let op

    Vermijd bij het implementeren van aanbevelingen voor transparantie de gebruiker met te veel informatie. Gebruik een geleidelijke benadering, waarbij u begint met minimale verstorende UI-methoden.

    Geef bijvoorbeeld knopinfo weer met een betrouwbaarheidsscore van het model. U kunt een koppeling opnemen waarop gebruikers kunnen klikken om meer informatie te krijgen, zoals koppelingen naar brondocumenten. Met deze door de gebruiker geïnitieerde methode blijft de gebruikersinterface niet storend en kunnen gebruikers alleen aanvullende informatie zoeken als ze ervoor kiezen.

  • Feedback verzamelen. Feedbackmechanismen implementeren.

    Vermijd overweldigende gebruikers met uitgebreide vragenlijsten na elk antwoord. Gebruik in plaats daarvan eenvoudige, snelle feedbackmechanismen zoals duim omhoog/omlaag of classificatiesystemen voor specifieke aspecten van het antwoord op een schaal van 1 tot 5. Met deze methode kunt u gedetailleerde feedback geven zonder intrusief te zijn, waardoor het systeem in de loop van de tijd kan worden verbeterd. Houd rekening met mogelijke vooroordelen in feedback, omdat er mogelijk secundaire redenen zijn achter reacties van gebruikers.

    Het implementeren van een feedbackmechanisme is van invloed op de architectuur vanwege de noodzaak van gegevensopslag. Behandel dit als gebruikersgegevens en pas waar nodig niveaus van privacybeheer toe.

    U kunt niet alleen feedback geven, maar ook feedback verzamelen over de effectiviteit van de gebruikerservaring. Dit kan worden gedaan door metrische gegevens voor betrokkenheid te verzamelen via uw bewakingsstack van het systeem.

Veiligheidsmaatregelen voor inhoud operationeel maken

Integreer inhoudsveiligheid in elke fase van de AI-levenscyclus met behulp van aangepaste oplossingscode, geschikte hulpprogramma's en effectieve beveiligingsprocedures. Hier volgen enkele strategieën.

  • Gegevens anoniem maken. Naarmate gegevens van opname naar training of evaluatie worden verplaatst, moet u controles uitvoeren om het risico op het lekken van persoonlijke gegevens te minimaliseren en blootstelling van onbewerkte gebruikersgegevens te voorkomen.

  • Con tentmodus ration. Gebruik de API voor inhoudsveiligheid die aanvragen en antwoorden in realtime evalueert en zorg ervoor dat deze API's bereikbaar zijn.

  • Bedreigingen identificeren en beperken. Pas bekende beveiligingsprocedures toe op uw AI-scenario's. Voer bijvoorbeeld bedreigingsmodellering uit en documenteer bedreigingen en hun risicobeperking. Algemene beveiligingsprocedures, zoals Red Team-oefeningen, zijn van toepassing op AI-workloads. Rode teams kunnen testen of modellen kunnen worden gemanipuleerd om schadelijke inhoud te genereren. Deze activiteiten moeten worden geïntegreerd in AI-bewerkingen.

    Zie Red TeamIng plannen voor grote taalmodellen (LLM's) en hun toepassingen voor informatie over het uitvoeren van rode teamtests.

  • Gebruik de juiste metrische gegevens. Gebruik de juiste metrische gegevens die effectief zijn bij het meten van het ethische gedrag van het model. Metrische gegevens variëren, afhankelijk van het type AI-model. Het meten van generatieve modellen is mogelijk niet van toepassing op regressiemodellen. Denk aan een model dat de levensverwachting voorspelt en de resultaten van invloed zijn op de verzekeringstarieven. Bias in dit model kan leiden tot ethische problemen, maar dat probleem komt voort uit afwijking in kernmetingstests. Het verbeteren van de nauwkeurigheid kan ethische problemen verminderen, omdat metrische gegevens over ethische en nauwkeurigheid vaak onderling verbonden zijn.

  • Voeg ethische instrumentatie toe. Resultaten van AI-modellen moeten kunnen worden uitgelegd. U moet uitvullen en traceren hoe deducties worden gemaakt, inclusief de gegevens die worden gebruikt voor training, de berekende functies en de grondgegevens. In discriminerende AI kunt u stap voor stap beslissingen rechtvaardigen. Voor generatieve modellen kan het uitleggen van resultaten echter complex zijn. Documenteer het besluitvormingsproces om potentiële juridische implicaties aan te pakken en transparantie te bieden.

    Dit aspect van de uitleg moet gedurende de hele AI-levenscyclus worden geïmplementeerd. Gegevens opschonen, herkomst, selectiecriteria en verwerking zijn essentiële fasen waar beslissingen moeten worden bijgehouden.

Hulpprogramma's

Hulpprogramma's voor inhoudsveiligheid en tracering van gegevens, zoals Microsoft Purview, moeten worden geïntegreerd. Azure AI Content Safety API's kunnen worden aangeroepen vanuit uw test om het testen van inhoudsveiligheid te vergemakkelijken.

Azure AI Foundry biedt metrische gegevens die het gedrag van het model evalueren. Zie Evaluatie- en bewakingsgegevens voor generatieve AI voor meer informatie.

Voor trainingsmodellen raden we u aan de metrische gegevens van Azure Machine Learning te bekijken.

Binnenkomende en uitgaande gegevens controleren

Promptinjectieaanvallen, zoals jailbreaking, zijn een veelvoorkomende zorg voor AI-workloads. In dit geval kunnen sommige gebruikers proberen het model te misbruiken voor onbedoelde doeleinden. Om de veiligheid te waarborgen, inspecteert u gegevens om aanvallen te voorkomen en ongepaste inhoud uit te filteren. Deze analyse moet worden toegepast op zowel de invoer van de gebruiker als de antwoorden van het systeem om ervoor te zorgen dat er grondige con tentmodus ration is in zowel binnenkomende als uitgaande stromen.

In scenario's waarin u meerdere modelinvocations maakt, zoals via Azure OpenAI, om één clientaanvraag uit te voeren, kan het toepassen van inhoudsveiligheidscontroles op elke aanroep kostbaar en onnodig zijn. Overweeg het centraliseren van die werkzaamheden in de architectuur en tegelijkertijd de beveiliging als een verantwoordelijkheid aan de serverzijde te houden. Stel dat een architectuur een gateway heeft vóór het eindpunt van de modeldeductie om bepaalde back-endmogelijkheden te offloaden. Deze gateway kan worden ontworpen om veiligheidscontroles voor inhoud af te handelen voor aanvragen en antwoorden die de back-end mogelijk niet systeemeigen ondersteunt. Hoewel een gateway een algemene oplossing is, kan een indelingslaag deze taken effectief verwerken in eenvoudigere architecturen. In beide gevallen kunt u deze controles selectief toepassen wanneer dat nodig is, waardoor de prestaties en kosten worden geoptimaliseerd.

Inspecties moeten multimodaal zijn, met verschillende formaten. Wanneer u multimodale invoer gebruikt, zoals afbeeldingen, is het belangrijk om ze te analyseren op verborgen berichten die schadelijk of gewelddadig kunnen zijn. Deze berichten zijn mogelijk niet direct zichtbaar, vergelijkbaar met onzichtbaar inkt en vereisen zorgvuldige inspectie. Gebruik hiervoor hulpprogramma's zoals Content Safety-API's.

Als u privacy- en gegevensbeveiligingsbeleid wilt afdwingen, inspecteert u gebruikersgegevens en grondgegevens voor naleving van privacyvoorschriften. Zorg ervoor dat de gegevens zijn opgeschoond of gefilterd terwijl deze door het systeem stromen. Gegevens uit eerdere gesprekken van klantenondersteuning kunnen bijvoorbeeld fungeren als grondgegevens. Deze moet worden opgeschoond voordat deze opnieuw wordt gebruikt.

Gebruikersgegevens ethisch verwerken

Ethische procedures omvatten zorgvuldige verwerking van gebruikersgegevensbeheer. Dit omvat het weten wanneer gegevens moeten worden gebruikt en wanneer u moet voorkomen dat u vertrouwt op gebruikersgegevens.

  • Deductie zonder gebruikersgegevens te delen. Als u gebruikersgegevens veilig wilt delen met andere organisaties voor inzichten, gebruikt u een clearinghouse-model. In dit scenario bieden organisaties gegevens aan een vertrouwde derde partij, die een model traint met behulp van de geaggregeerde gegevens. Dit model kan vervolgens door alle instellingen worden gebruikt, waardoor gedeelde inzichten worden toegestaan zonder afzonderlijke gegevenssets weer te geven. Het doel is om de deductiemogelijkheden van het model te gebruiken zonder gedetailleerde trainingsgegevens te delen.

  • Promoot diversiteit en inclusiviteit. Wanneer gebruikersgegevens nodig zijn, gebruikt u een breed scala aan gegevens, waaronder ondervertegenwoordigde genres en makers, om vooroordelen te minimaliseren. Implementeer functies die gebruikers aanmoedigen om nieuwe en gevarieerde inhoud te verkennen. Houd doorlopend toezicht op het gebruik en pas aanbevelingen aan om te voorkomen dat één inhoudstype te veel wordt weergegeven.

  • Respecteer het "Recht om te worden vergeten". Vermijd het gebruik van gebruikersgegevens, indien mogelijk. Zorg ervoor dat het recht om te worden vergeten wordt nageleefd door de nodige maatregelen te treffen om ervoor te zorgen dat gebruikersgegevens zorgvuldig worden verwijderd.

    Om naleving te garanderen, kunnen er aanvragen zijn om gebruikersgegevens uit het systeem te verwijderen. Voor kleinere modellen kan dit worden bereikt door opnieuw te trainen met gegevens die persoonlijke gegevens uitsluiten. Voor grotere modellen, die kunnen bestaan uit verschillende kleinere, onafhankelijk getrainde modellen, is het proces complexer en zijn de kosten en inspanning aanzienlijk. Zoek juridische en ethische richtlijnen voor het afhandelen van deze situaties en zorg ervoor dat dit is opgenomen in uw beleid voor verantwoorde AI, zoals beschreven in Beleid voor verantwoorde AI ontwikkelen.

  • Op verantwoorde wijze behouden. Wanneer het verwijderen van gegevens niet mogelijk is, vraagt u expliciete gebruikerstoestemming voor het verzamelen van gegevens en geeft u duidelijk privacybeleid op. Verzamel en bewaar alleen gegevens wanneer dit absoluut noodzakelijk is. Zorg ervoor dat er bewerkingen worden uitgevoerd om gegevens agressief te verwijderen wanneer ze niet meer nodig zijn. U kunt bijvoorbeeld de chatgeschiedenis wissen zodra dit praktisch is en gevoelige gegevens anoniem maken voordat ze worden bewaard. Zorg ervoor dat geavanceerde versleutelingsmethoden worden gebruikt voor deze data-at-rest.

  • Uitlegbaarheid van ondersteuning. Traceer beslissingen in het systeem om uitlegvereisten te ondersteunen. Ontwikkel duidelijke uitleg over hoe aanbevelingsalgoritmen werken, zodat gebruikers inzicht krijgen in waarom specifieke inhoud aan hen wordt aanbevolen. Het doel is ervoor te zorgen dat AI-workloads en hun resultaten transparant en rechtvaardig zijn, waarin wordt beschreven hoe beslissingen worden genomen, welke gegevens zijn gebruikt en hoe modellen zijn getraind.

  • Gebruikersgegevens versleutelen. Invoergegevens moeten in elke fase van de pijplijn voor gegevensverwerking worden versleuteld vanaf het moment dat de gebruiker gegevens invoert. Dit omvat gegevens terwijl ze van het ene naar het andere punt worden verplaatst, waar ze worden opgeslagen en tijdens deductie, indien nodig. Houd de beveiliging en functionaliteit in balans, maar probeer gegevens gedurende de gehele levenscyclus privé te houden.

    Zie Toepassingsontwerp voor informatie over versleutelingstechnieken.

  • Krachtige besturingselementen voor toegang bieden. Verschillende typen identiteiten hebben mogelijk toegang tot gebruikersgegevens. Implementeer op rollen gebaseerd toegangsbeheer (RBAC) voor zowel het besturingsvlak als het gegevensvlak, waarin gebruikers- en systeem-naar-systeemcommunicatie worden besproken.

    Behoud ook de juiste gebruikerssegmentatie om privacy te beschermen. Copilot voor Microsoft 365 kan bijvoorbeeld zoeken en antwoorden geven op basis van de specifieke documenten en e-mailberichten van een gebruiker, zodat alleen inhoud die relevant is voor die gebruiker wordt geopend.

    Zie Toepassingsontwerp voor informatie over het afdwingen van toegangsbeheer.

  • Beperk het oppervlak. Een fundamentele strategie van de pijler Well-Architected Framework Security is het minimaliseren van het kwetsbaarheid voor aanvallen en het beperken van resources. Deze strategie moet worden toegepast op standaardprocedures voor eindpuntbeveiliging door API-eindpunten strikt te beheren, alleen essentiële gegevens weer te geven en overbodige informatie in reacties te voorkomen. De ontwerpkeuze moet worden verdeeld tussen flexibiliteit en controle.

    Zorg ervoor dat er geen anonieme eindpunten zijn. Over het algemeen vermijdt u het geven van meer controle dan nodig is. In de meeste scenario's hoeven clients geen hyperparameters aan te passen, behalve in experimentele omgevingen. Voor typische gebruiksvoorbeelden, zoals interactie met een virtuele agent, moeten clients alleen essentiële aspecten beheren om beveiliging te garanderen door onnodig beheer te beperken.

    Zie Toepassingsontwerp voor meer informatie.

Volgende stappen