Ansvarsfull AI på Microsoft

Slutförd

Det kan vara svårt att utforma och implementera ett effektivt AI-styrningssystem. I den här lektionen tar vi Microsoft som exempel och förklarar hur Microsoft ser till att ansvarsfull AI följs i hela företaget. Baserat på det här användningsfallet bör du fundera på hur du kan tillämpa dessa idéer i din egen organisation.

I följande video ger Natasha Crampton, Vice President och Chief Responsible AI Officer på Microsoft, en översikt över hur Microsoft tillämpar ansvarsfulla AI-metoder.

Vår styrningsstruktur använder en hub-and-spoke-modell för att tillhandahålla ansvar och auktoritet för att driva initiativ samtidigt som ansvarsfulla AI-principer kan implementeras i stor skala. Den kombinerar alltså de centraliserade och decentraliserade metoder som diskuterades i den senaste lektionen.

Centraliserad styrning

Det finns tre organ på Microsoft som tillhandahåller centraliserad styrning: ledningsgruppen, kontoret för ansvarsfull AI och Aether-kommittén. Ett viktigt kännetecken för vår inställning till ansvarsfull AI är att ha det här ekosystemet för att operationalisera ansvarsfull AI i hela företaget, snarare än en enskild organisation eller individ som leder det här arbetet.

Ledningsgrupp

Ledningsgruppen är ytterst ansvarig för företagets inriktning på ansvarsfull AI. Den här gruppen är den slutliga beslutsfattaren i de mest känsliga, nya och viktiga ai-utvecklings- och distributionsfrågorna. Den anger företagets AI-principer, värderingar och åtaganden för mänskliga rättigheter.

Office of Responsible AI

Office of Responsible AI implementerar och upprätthåller vårt engagemang för ansvarsfull AI-styrning genom att arbeta med intressenter i hela företaget för att:

  • Utveckla och underhålla vårt styrningsramverk.
  • Definiera roller och ansvarsområden för styrande organ.
  • Implementera en företagsomfattande rapporterings- och beslutsprocess.
  • Samordna ansvarsfull AI-utbildning för alla anställda.

Office of Responsible AI har fyra viktiga funktioner:

  • Intern princip: Ange de företagsomfattande reglerna för att anta ansvarsfull AI och definiera roller och ansvarsområden för team som deltar i den här insatsen.
  • Aktivering: Beredskap att införa ansvarsfulla AI-metoder, både inom vårt företag och bland våra kunder och partners.
  • Ärendehantering: Granskning av känsliga användningsfall för att säkerställa att vårt utvecklings- och distributionsarbete upprätthåller våra AI-principer.
  • Offentlig politik: Hjälp till att utforma nya lagar, normer och standarder. Målet med den här policyn är att se till att löftet om AI-teknik förverkligas till gagn för samhället i stort.

Aether-kommittén

Aether-kommittén (AI, etik och effekter inom teknik och forskning) har en rådgivande roll för ledningen, kontoret för ansvarsfull AI och andra team i hela företaget. Det ger vägledning om frågor, utmaningar och möjligheter med utveckling och fältutveckling av AI-tekniker.

Aether-kommittén har sex arbetsgrupper som fokuserar på specifika ämnen som bygger på våra AI-principer. Arbetsgrupperna utvecklar verktyg, bästa praxis och skräddarsydda implementeringsvägledning för sina respektive expertområden. Lärdomar från arbetsgrupperna och huvudkommittén är avgörande för att utveckla ny politik och minska eller sätta gränser för känsliga användningsfall.

Decentraliserad styrning

Att implementera ansvarsfull AI i stor skala i en organisation bygger på ett starkt nätverk i hela företaget för att hjälpa till att implementera organisationsomfattande regler, öka medvetenheten och begära support i frågor som väcker frågor om tillämpningen av våra AI-principer.

Ansvarsfulla AI-mästare

Vårt nätverk inkluderar Ansvarsfull AI Champs, anställda som nominerats av sina ledningsgrupper inifrån viktiga teknik- och fältteam. De fungerar som ansvarsfulla AI-rådgivare (utöver deras heltidsroller), med fokus på att informera beslutsfattare i stället för polisarbete.

Ansvariga AI-mästare har fem viktiga funktioner:

  • Öka medvetenheten om ansvarsfulla AI-principer och -metoder inom team och arbetsgrupper.
  • Hjälpa team och arbetsgrupper att implementera föreskrivna metoder i hela AI-funktionen, produkt- eller tjänstlivscykeln.
  • Ge råd till ledare om fördelarna med ansvarsfull AI-utveckling och den potentiella effekten av oavsiktliga skador.
  • Identifiera och eskalera frågor och känslig användning av AI via tillgängliga kanaler.
  • Att främja en kultur av kundcentrerad och globalt perspektiv, genom att växa en gemenskap av ansvarsfulla AI-evangelister i sina organisationer och utanför.

För att utveckla och distribuera AI med minimal friktion till tekniska metoder och kunder investerar vi i mönster, metoder och verktyg. Vissa teknikgrupper har sammanställt team som hjälper dem att följa företagets regler och påskynda utvecklingen av implementeringsmönster, metoder och verktyg.

Varje anställd

Den sista och viktigaste delen i vår strategi för ansvarsfull AI är den roll som varje medarbetare spelar, med stöd från deras chefer och företagsledare. Ansvarsfull AI är en viktig del av den obligatoriska medarbetarutbildningen och vi har släppt ut fler utbildningstillgångar som gör det möjligt för anställda att fördjupa sig i områden med ansvarsfull AI. Vi har också många ansvarsfulla AI-utvecklingsverktyg som gör det möjligt för våra anställda att utvecklas ansvarsfullt. Dessa resurser ger alla våra anställda möjlighet att främja företagets viktiga arbete med AI, och samtidigt ansvarar de för att upprätthålla våra ansvarsfulla AI-principer och följa de företagsomfattande metoder som vi har antagit för att uppnå detta mål.

Vi förväntar oss att alla Microsoft-anställda ska:

  • Utveckla en allmän förståelse för våra AI-principer.
  • Rapportera och eskalera känsliga användningsområden.
  • Kontakta ansvarig AI-mästare när de behöver vägledning om ansvarsfull AI.

Dricks

Ta en stund att identifiera utmaningar med att etablera ett system med ansvarsfull AI-styrning i din organisation.
Foto som visar människor som arbetar och pratar runt ett bord.

Nu ska vi se hur den här styrningsmodellen fungerar när det gäller att flagga och hantera känsliga användningsfall för AI.