Ansvarsfull AI-överväganden för intelligenta apparbetsbelastningar
Intelligenta apparbetsbelastningar måste följa principerna för ansvarsfull AI för att säkerställa rättvisa, ansvar, transparens och etiskt beteende.
Utforma AI-systemet så att det behandlar alla användare rättvist, håller utvecklare och användare ansvariga för dess prestanda, säkerställer transparens i AI-verksamheten och följer etiska standarder.
På Microsoft är vi engagerade i utvecklingen av AI som drivs av principer som sätter människor först. Generativa modeller har betydande potentiella fördelar, men utan noggrann design och genomtänkta åtgärder kan sådana modeller generera felaktigt eller till och med skadligt innehåll. Microsoft har gjort betydande investeringar för att skydda mot missbruk och oavsiktlig skada, vilket inkluderar inkorporering av Microsofts principer för användning av ansvarsfull AI, anta en uppförandekod, bygga innehållsfilter för att stödja kunder och tillhandahålla information och vägledning om AI-information som kunder bör tänka på när de använder generativ AI.
Power Platform copilots och generativ AI-funktioner följer en uppsättning grundläggande metoder för säkerhet och sekretess samt Microsoft ansvarsfull AI-standard. Power Platform-data skyddas av omfattande, branschledande efterlevnads-, säkerhets- och sekretesskontroller.
Läs mer:
- Microsoft AI-principer
- Resurser för Microsoft ansvarsfull AI
- Microsoft Azure Utbildningskurser om ansvarsfull AI
- Ansvarsfull AI, vanliga frågor för Copilot Studio
- Översikt över ansvarsfulla AI-metoder för Azure OpenAI-modeller
Grundläggande principer för ansvarsfull AI
Kärnprinciperna för ansvarsfull AI är rättvisa, ansvarsskyldighet, transparens och etik. Att se till att en intelligent programarbetsbelastning som skapats med Power Platform följer dessa grundläggande principer omfattar flera viktiga metoder:
- Rättvisa: Använd olika och representativa träningsdata för att minimera fördomar. Uppdatera regelbundet träningsdata och anlita revisorer för att validera rättvisa och jämlikhet.
- Ansvar: Definiera tydliga roller och ansvarsområden för teammedlemmar som är involverade i AI-projektet. Upprätta och följ etiska standarder som prioriterar rättvisa och ansvarsskyldighet.
- Transparens: Se till att användarna vet att de använder en arbetsbelastning som använder generativa AI-funktioner. Kommunicera tydligt varför en AI-lösning valdes, hur den utformades och hur den övervakas och uppdateras.
- Etik: Främja en inkluderande arbetsstyrka och sök synpunkter från olika diskussionsgrupper tidigt i utvecklingsprocessen. Regelbundet bedöma och testa modeller för etiska problem och skillnader i prestanda. Upprätta ett ramverk för styrning som omfattar regelbundna revisioner.
Införliva dessa metoder i dina utvecklings- och distributionsprocesser för att skapa en intelligent programarbetsbelastning som följer kärnprinciperna för ansvarsfull AI.
Datasäkerhet och sekretess
Det är viktigt att säkerställa datasekretess, särskilt eftersom den intelligenta programarbetsbelastningen kan hantera känsliga data. När du planerar en intelligent programarbetsbelastning med Power Platform är det viktigt att hantera flera viktiga risker och implementera effektiva åtgärdsstrategier:
- Plattformsfunktioner: Förstå inbyggda kontroller och plattformsfunktioner som skyddar dina data. Microsoft Copilot är byggd på Microsoft Azure OpenAI Service och körs helt inom Azure-molnet. Copilot använder OpenAI-modeller med alla säkerhetsfunktioner för Microsoft Azure. Copilot är integrerat i Microsoft-tjänster som Dynamics 365 och Power Platform och ärver deras säkerhets-, sekretess- och efterlevnadspolicyer och processer, t.ex. multifaktorautentisering och efterlevnadsgränser.
- Datakryptering: Servicetekniker krypterar organisationsinnehåll i vila och vid överföring för robust säkerhet. Anslutningar skyddas med Transport Layer Security (TLS) och dataöverföringar mellan Dynamics 365, Power Platform och Azure OpenAI sker över Microsofts backbone-nätverk för att säkerställa tillförlitlighet och säkerhet. Läs mer om kryptering i Microsoft Cloud.
- Åtkomstkontroller: Data tillhandahålls Copilot (eller en anpassad agent) baserat på åtkomstnivån för den aktuella användaren. Implementera rollbaserad åtkomstkontroll (RBAC) med Microsoft Entra ID för att säkerställa att endast behöriga användare kan komma åt data. Tillämpa principen om lägsta behörighet för att begränsa åtkomsten till endast det som är nödvändigt.
- Övervakning och granskning: Identifiera och svara på potentiella säkerhetsincidenter genom att regelbundet övervaka åtkomst och användning av AI-systemet. Upprätthåll detaljerade granskningsloggar för att spåra dataåtkomst och ändringar.
- Efterlevnad och styrning: Se till att relevanta bestämmelser om datasekretess följs, till exempel GDPR (allmän dataskyddsförordning), HIPAA (Health Insurance Portability and Accountability Act) och CCPA (California Consumer Privacy Act). Implementera etiska AI-metoder för att undvika fördomar och säkerställa rättvisa i AI-resultat.
- Användarutbildning och träning: Utbilda användarna om bästa praxis för säkerhet och vikten av datasekretess. Håll användarna informerade om uppdateringar och ändringar av säkerhetspolicyer och procedurer.
Läs mer: Vanliga frågor och svar om datasäkerhet och sekretess för Copilot i Dynamics 365 och Power Platform
Medvetenhet och åtgärdande av fördomar
Inse vikten av att ta itu med fördomar i systemet och säkerställa rättvisa för att undvika fördomar i AI-svar.
- Mångsidiga och representativa data: Se till att utbildningsdata är mångsidiga och representativa för olika demografiska grupper för att minimera inneboende fördomar. Granska regelbundet data för bias och obalanser och vidta korrigerande åtgärder vid behov.
- Verktyg för identifiering och begränsning av fördomar: Använd verktyg och tekniker för att upptäcka bias i AI-modellerna, t.ex. statistisk analys och rättvisemått. Implementera debiasing-tekniker, inklusive omsampling, omviktning eller adversarial debiasing, för att minska bias i modellerna.
- Människa i loopen: Införliva mänskliga gransknings- och återkopplingsloopar för att identifiera och korrigera fördomar som AI kan introducera. Inrätta en etisk kommitté eller styrningsnämnd för att övervaka utveckling och distribution av AI och se till att etiska standarder uppfylls.
- Transparens och förtroende: Se till att användarna vet att de använder en arbetsbelastning som använder generativa AI-funktioner. Kommunicera tydligt varför en AI-lösning valdes och ge information om hur den utformades och hur den övervakas och uppdateras.
- Kontinuerlig övervakning och förbättring: Övervaka AI-systemet kontinuerligt för bias och prestandaproblem och uppdatera modellerna efter behov. Se till att modellerna förblir rättvisa och opartiska genom att regelbundet träna om modeller med uppdaterade och mer varierade data.
Löpande övervakning och utvärdering
Fortsätt att förbättra din intelligenta programarbetsbelastning. Upprätta ett ramverk för kontinuerlig övervakning och utvärdering, och införliva användarfeedback och utvecklande etiska standarder i uppdateringar.
- Återkopplingsloopar: Upprätta återkopplingsmekanismer där användare kan rapportera felaktigheter, som sedan kan användas för att förfina och förbättra modellerna.
- Övervakning och granskning: Identifiera och svara på potentiella säkerhetsincidenter genom att regelbundet övervaka åtkomst och användning av AI-systemet. Upprätthåll detaljerade granskningsloggar för att spåra dataåtkomst och ändringar.