Dela via


Styra AI – Process för att styra AI

Den här artikeln beskriver organisationsprocessen för att styra AI. Den följer NIST:s Ramverk för hantering av artificiell intelligens (AI RMF) och NIST AI RMF-spelboken. Det överensstämmer också med ramverket i CAF Govern.

Den här vägledningen hjälper dig att integrera AI-riskhantering i bredare riskhanteringsstrategier. Den här integreringen ger en mer sammanhängande hantering av AI, cybersäkerhet och integritetsrisker för en enhetlig styrningsmetod.

Diagram som visar AI-implementeringsprocessen: AI-strategi, AI-plan, AI Ready, Govern AI, Manage AI och Secure AI.

Utvärdera risker i AI-organisationen

AI-riskbedömning identifierar och åtgärdar potentiella risker som introduceras av AI-tekniker. Den här processen skapar förtroende för AI-system och minskar oavsiktliga konsekvenser. Att hantera organisationsrisker säkerställer att AI-distributioner överensstämmer med organisationens värden, risktolerans och operativa mål.

  • Förstå AI-arbetsbelastningarna. För att minimera AI-risker måste du förstå dina AI-arbetsbelastningar. Genom att förtydliga omfattningen och syftet med varje AI-arbetsbelastning kan du mappa associerade risker. Detta förtydligande bör omfatta alla antaganden och begränsningar som rör AI-arbetsbelastningen.

  • Använd ansvarsfulla AI-principer för att identifiera risker. Dessa principer utgör ett ramverk för att bedöma AI-risker. Använd följande tabell för att identifiera och minimera risker genom en strukturerad utvärdering av AI-principer.

    Ansvarsfull AI-princip Definition Riskbedömningsfråga
    AI-sekretess och säkerhet AI-arbetsbelastningar bör respektera sekretess och vara säkra. Hur kan AI-arbetsbelastningar hantera känsliga data eller bli sårbara för säkerhetsöverträdelser?
    Tillförlitlighet och säkerhet AI-arbetsbelastningar bör fungera på ett säkert och tillförlitligt sätt. I vilka situationer kan AI-arbetsbelastningar misslyckas med att fungera på ett säkert sätt eller leda till otillförlitliga resultat?
    Rättvisa AI-arbetsbelastningar bör behandla människor rättvist. Hur kan AI-arbetsbelastningar leda till ojämlik behandling eller oavsiktliga fördomar i beslutsfattandet?
    Inkludering AI-arbetsbelastningar bör vara inkluderande och stärkande. Hur kan vissa grupper undantas eller missgynnas vid utformning eller distribution av AI-arbetsbelastningar?
    Transparency AI-arbetsbelastningar bör vara begripliga. Vilka aspekter av AI-beslutsfattande kan vara svåra för användarna att förstå eller förklara?
    Ansvar Personer bör vara ansvariga för AI-arbetsbelastningar. Var kan ansvarstagandet vara oklart eller svårt att fastställa i utvecklingen eller användningen av AI?
  • Identifiera AI-risker. Börja med att utvärdera säkerhetsriskerna för AI-arbetsbelastningar, inklusive potentiella dataintrång, obehörig åtkomst eller missbruk. Kontakta intressenter för att upptäcka mindre synliga risker och utvärdera både kvalitativa och kvantitativa effekter, inklusive ryktesrisker, för att fastställa organisationens risktolerans.

  • Identifiera risker från externa beroenden. Utvärdera risker relaterade till datakällor från tredje part, programvara och integreringar. Åtgärda problem som säkerhetsrisker, bias och immateriella rättigheter genom att upprätta principer som säkerställer anpassning till organisationens sekretess- och efterlevnadsstandarder.

  • Utvärdera integrationsrisker. Utvärdera AI-arbetsbelastningar integreras med befintliga arbetsbelastningar och processer. Dokumentera potentiella risker, till exempel beroende av andra arbetsbelastningar, ökad komplexitet eller inkompatibiliteter som kan påverka funktionaliteten.

Dokumentera AI-styrningsprinciper

AI-styrningsprinciper tillhandahåller ett strukturerat ramverk för ansvarsfull AI-användning. Dessa principer överensstämmer med etiska standarder, regelkrav och affärsmål för AI-aktiviteter. Dokumenteringsprinciper säkerställer tydliga riktlinjer för hantering av AI-modeller, data och åtgärder.

Principområde för AI-styrning Rekommendationer för AI-styrningsprinciper
Definiera principer för att välja och registrera modeller Upprätta principer för att välja AI-modeller. Principer bör ange kriterier för att välja modeller som uppfyller organisationens värden, funktioner och kostnadsbegränsningar. Granska potentiella modeller för anpassning till risktolerans och avsedda uppgiftskrav.

Registrera nya modeller med strukturerade principer. En formell process för modellregistrering upprätthåller konsekvens i modellmotivering, validering och godkännande. Använd sandbox-miljöer för inledande experiment och verifiera och granska sedan modeller i produktionskatalogen för att undvika duplicering.
Definiera principer för användning av verktyg och data från tredje part Ange kontroller för verktyg från tredje part. En granskningsprocess för verktyg från tredje part skyddar mot säkerhets-, efterlevnads- och justeringsrisker. Principer bör innehålla riktlinjer för datasekretess, säkerhet och etiska standarder när du använder externa datauppsättningar.

Definiera standarder för datakänslighet. Att hålla känsliga och offentliga data åtskilda är viktigt för att minimera AI-risker. Skapa principer kring datahantering och separation.

Definiera datakvalitetsstandarder. En "gyllene datamängd" ger ett tillförlitligt riktmärke för testning och utvärdering av AI-modeller. Upprätta tydliga principer för datakonsekvens och kvalitet för att säkerställa höga prestanda och tillförlitliga utdata.
Definiera principer för underhåll och övervakning av modeller Ange omträningsfrekvens efter användningsfall. Frekvent omträning stöder noggrannhet för AI-arbetsbelastningar med hög risk. Definiera riktlinjer som beaktar användningsfall och risknivå för varje modell, särskilt för sektorer som hälso- och sjukvård och ekonomi.

Övervaka prestandaförsämring. Övervakning av modellprestanda över tid hjälper till att identifiera problem innan de påverkar resultatet. Dokumentmått och om en modells prestanda försämras initierar du en omtränings- eller granskningsprocess.
Definiera principer för regelefterlevnad Uppfylla regionala juridiska krav. Att förstå regionala lagar säkerställer att AI-åtgärder förblir kompatibla på olika platser. Undersöka tillämpliga regler för varje distributionsområde, till exempel lagar om datasekretess, etiska standarder och branschregler.

Utveckla regionspecifika principer. Att skräddarsy AI-principer efter regionala överväganden stöder efterlevnad av lokala standarder. Principer kan omfatta språkstöd, datalagringsprotokoll och kulturella anpassningar.

Anpassa AI för regional variabilitet. Flexibilitet i AI-arbetsbelastningar möjliggör platsspecifika funktionsjusteringar. För globala åtgärder dokumenterar du regionspecifika anpassningar som lokaliserade träningsdata och funktionsbegränsningar.
Definiera principer för användarbeteende Definiera riskreduceringsstrategier för missbruk. Principer för skydd mot missbruk hjälper till att skydda mot avsiktliga eller oavsiktliga skador. Beskriva möjliga missbruksscenarier och införliva kontroller, till exempel begränsade funktioner eller funktioner för missbruksidentifiering.

Ange riktlinjer för användarbeteende. Användaravtal klargör godtagbara beteenden när de interagerar med AI-arbetsbelastningen, vilket minskar risken för missbruk. Formulera tydliga användningsvillkor för att kommunicera standarder och stödja ansvarsfull AI-interaktion.
Definiera principer för AI-integrering och ersättning Dispositionsintegreringsprinciper. Integreringsriktlinjer säkerställer att AI-arbetsbelastningar upprätthåller dataintegritet och säkerhet under arbetsbelastningsinterfacing. Ange tekniska krav, protokoll för datadelning och säkerhetsåtgärder.

Planera för övergång och ersättning. Övergångsprinciper ger struktur när gamla processer ersätts med AI-arbetsbelastningar. Beskriva steg för att fasa ut äldre processer, utbilda personal och övervaka prestanda under hela ändringen.

Tillämpa AI-styrningsprinciper

Genom att tillämpa AI-styrningsprinciper säkerställs konsekventa och etiska AI-metoder inom en organisation. Automatiserade verktyg och manuella åtgärder stöder principefterlevnad mellan distributioner. Korrekt tillämpning hjälper till att upprätthålla efterlevnad och minimerar mänskliga fel.

  • Automatisera tvingande principer där det är möjligt Använd plattformar som Azure Policy och Microsoft Purview för att tillämpa principer automatiskt i AI-distributioner, vilket minskar de mänskliga felen. Utvärdera regelbundet områden där automatisering kan förbättra policyefterlevnad.

  • Tillämpa AI-principer manuellt. Tillhandahålla AI-risk- och efterlevnadsutbildning för anställda för att säkerställa att de förstår sin roll i AI-styrning. Regelbundna workshops håller personalen uppdaterad om AI-principer och regelbundna granskningar hjälper till att övervaka efterlevnad och identifiera förbättringsområden.

  • Använd arbetsbelastningsspecifik styrningsvägledning. Detaljerad säkerhetsvägledning är tillgänglig för AI-arbetsbelastningar på Azure-plattformstjänster (PaaS) och Azure-infrastruktur (IaaS). Använd den här vägledningen för att styra AI-modeller, resurser och data inom dessa arbetsbelastningstyper.

Övervaka risker i AI-organisationen

Genom att övervaka AI-risker kan organisationer identifiera nya risker och åtgärda dem snabbt. Regelbundna utvärderingar säkerställer att AI-arbetsbelastningar fungerar som avsett. Konsekvent övervakning hjälper organisationer att anpassa sig till föränderliga förhållanden och förhindra negativa effekter från AI-system.

  • Upprätta procedurer för pågående riskbedömning. Konfigurera regelbundna granskningar för att identifiera nya risker och engagera intressenter för att bedöma de bredare effekterna av AI. Utveckla en svarsplan för problem som uppstår för att möjliggöra riskomvärdering och nödvändiga justeringar.

  • Utveckla en måttplan. En tydlig mätplan säkerställer konsekvent datainsamling och analys. Definiera datainsamlingsmetoder, till exempel automatiserad loggning för driftsmått och undersökningar för kvalitativ feedback. Upprätta måttfrekvensen och omfattningen, med fokus på högriskområden, och skapa feedbackslingor för att förfina riskbedömningar baserat på intressenternas indata.

  • Kvantifiera och kvalificera AI-risker. Välj kvantitativa mått (felfrekvenser, noggrannhet) och kvalitativa indikatorer (användarfeedback, etiska frågor) som överensstämmer med arbetsbelastningens syfte. Prestandamätning mot branschstandarder för att spåra AI:ns påverkan, pålitlighet och prestanda.

  • Dokument- och rapportmätningsresultat. Regelbunden dokumentation och rapporter förbättrar transparensen och ansvarsskyldigheten. Skapa standardiserade rapporter som sammanfattar mått, resultat och eventuella avvikelser för att vägleda beslutsfattandet. Dela dessa insikter med intressenter och använd dem för att förfina riskreduceringsstrategier och förbättra framtida distributioner.

  • Upprätta oberoende granskningsprocesser. Regelbundna oberoende granskningar ger objektiva utvärderingar av AI-risker och efterlevnad med hjälp av externa eller oengagerade interna granskare. Använd resultaten för att stärka riskbedömningar och förfina styrningsprinciper.

Gå vidare

Exempel på riskreducering för AI

I följande tabell visas några vanliga AI-risker och en åtgärdsstrategi och en exempelprincip för var och en. Tabellen visar inte en fullständig uppsättning risker.

Risk-ID AI-risk Riskreducering Policy
R001 Inkompatibilitet med dataskyddslagar Använd Microsoft Purview Compliance Manager för att utvärdera dataefterlevnad. Livscykeln för säkerhetsutveckling måste implementeras för att säkerställa att all AI-utveckling och distribution följer dataskyddslagarna.
R005 Brist på transparens i AI-beslutsfattandet Tillämpa ett standardiserat ramverk och språk för att förbättra transparensen i AI-processer och beslutsfattande. NIST AI Risk Management Framework måste antas och alla AI-modeller måste dokumenteras noggrant för att upprätthålla transparens för alla AI-modeller.
R006 Felaktiga förutsägelser Använd Azure API Management för att spåra AI-modellmått för att säkerställa noggrannhet och tillförlitlighet. Kontinuerlig prestandaövervakning och mänsklig feedback måste användas för att säkerställa att AI-modellförutsägelserna är korrekta.
R007 Angrepp mot angripare Använd PyRIT för att testa AI-arbetsbelastningar för sårbarheter och stärka skyddet. Testningen av säkerhetsutvecklingslivscykeln och ai-teamets röda team måste användas för att skydda AI-arbetsbelastningar mot attacker mot angrepp.
R008 Insiderhot Använd Microsoft Entra-ID för att framtvinga strikta åtkomstkontroller som baseras på roller och gruppmedlemskap för att begränsa insideråtkomst till känsliga data. Strikt identitets- och åtkomsthantering och kontinuerlig övervakning måste användas för att minimera insiderhot.
R009 Oväntade kostnader Använd Microsoft Cost Management för att spåra processor-, GPU-, minnes- och lagringsanvändning för att säkerställa effektiv resursanvändning och förhindra kostnadstoppar. Övervakning och optimering av resursanvändning och automatisk identifiering av kostnadsöverskridanden måste användas för att hantera oväntade kostnader.
R010 Underutnyttjande av AI-resurser Övervaka AI-tjänstmått, till exempel begärandefrekvenser och svarstider, för att optimera användningen. Prestandamått och automatiserad skalbarhet måste användas för att optimera AI-resursutnyttjandet.