Leidende principes voor verantwoorde AI identificeren

Voltooid

In de laatste les hebben we enkele maatschappelijke implicaties van AI besproken. We hebben de verantwoordelijkheid van bedrijven, overheden, NGO's en academische onderzoekers aangeraakt om onbedoelde gevolgen van AI-technologie te anticiperen en te beperken. Naarmate organisaties deze verantwoordelijkheden beschouwen, worden er meer interne beleidsregels en procedures gemaakt om hun AI-inspanningen te begeleiden.

Bij Microsoft hebben we zes principes erkend waarvan we denken dat ze ai-ontwikkeling en -gebruik moeten begeleiden: redelijkheid, betrouwbaarheid en veiligheid, privacy en beveiliging, inclusiefheid, transparantie en verantwoordelijkheid. Deze principes vormen voor ons de hoeksteen van een verantwoorde en betrouwbare benadering van AI, vooral naarmate intelligente technologie steeds vaker voorkomt in de producten en services die we elke dag gebruiken.

Eerlijkheid

Pictogram voor redelijkheid.

AI-systemen moeten iedereen eerlijk behandelen en voorkomen dat dit van invloed is op vergelijkbare groepen mensen op verschillende manieren. Wanneer AI-systemen bijvoorbeeld richtlijnen bieden voor medische behandeling, leningsaanvragen of werkgelegenheid, moeten ze dezelfde aanbevelingen doen aan iedereen met vergelijkbare symptomen, financiële omstandigheden of beroepskwalificaties.

Om eerlijk te zijn in uw AI-systeem, moet u het volgende doen:

  • Begrijp het bereik, de geest en het potentiële gebruik van het AI-systeem door vragen te stellen, zoals hoe is het systeem bedoeld om te werken? Voor wie is het systeem ontworpen om voor te werken? Werkt het systeem voor iedereen gelijk? Hoe kan het anderen schaden?
  • Trek een divers talentpool aan. Zorg ervoor dat het ontwerpteam de wereld weerspiegelt waarin we wonen door teamleden met verschillende achtergronden, ervaringen, onderwijs en perspectieven te gebruiken.
  • Identificeer vooroordelen in gegevenssets door te evalueren waar de gegevens vandaan komen, te begrijpen hoe deze zijn georganiseerd en te testen om ervoor te zorgen dat deze worden weergegeven. Bias kan worden geïntroduceerd in elke fase van het maken, van verzameling tot modellering tot werking. Het verantwoordelijke AI-dashboard, dat beschikbaar is in de sectie Resources, bevat een functie voor hulp bij deze taak.
  • Identificeer vooroordelen in machine learning-algoritmen door hulpprogramma's en technieken toe te passen die de transparantie en begrijpelijkheid van modellen verbeteren. Gebruikers moeten de vooroordelen in machine learning-algoritmen actief identificeren en verwijderen.
  • Maak gebruik van menselijke beoordeling en domeinexpertise. Werknemers trainen om inzicht te krijgen in de betekenis en implicaties van AI-resultaten, met name wanneer AI wordt gebruikt om gevolgbeslissingen over mensen te informeren. Beslissingen die GEBRUIKMAKEN van AI moeten altijd worden gekoppeld aan menselijke beoordeling. Neem relevante deskundigen op in het ontwerpproces en in implementatiebeslissingen. Een voorbeeld hiervan is het opnemen van een expert op het gebied van consumentenkredieten voor een AI-systeem voor kredietscores. U moet AI gebruiken als copilot, dat wil gezegd, een ondersteunende tool die u helpt uw werk beter en sneller te doen, maar vereist enige mate van supervisie.
  • Best practices, analytische technieken en hulpprogramma's van andere instellingen en ondernemingen onderzoeken en gebruiken om vooroordelen in AI-systemen te detecteren, te voorkomen en aan te pakken.

Betrouwbaarheid en veiligheid

Pictogram voor betrouwbaarheid.

Om vertrouwen te bouwen, is het essentieel dat AI-systemen betrouwbaar, veilig en consistent werken onder normale omstandigheden en in onverwachte omstandigheden. Deze systemen moeten kunnen functioneren wanneer ze oorspronkelijk zijn ontworpen, veilig reageren op onverwachte omstandigheden en schadelijke manipulatie weerstaan. Het is ook belangrijk om te kunnen controleren of deze systemen zich gedragen zoals bedoeld onder werkelijke operationele omstandigheden. Hoe ze zich gedragen en de verscheidenheid aan voorwaarden die ze op betrouwbare en veilige wijze kunnen verwerken, weerspiegelen grotendeels het bereik van situaties en omstandigheden die ontwikkelaars verwachten tijdens het ontwerpen en testen.

Om betrouwbaarheid en veiligheid in uw AI-systeem te garanderen, moet u het volgende doen:

  • Ontwikkel processen voor het controleren van AI-systemen om de kwaliteit en geschiktheid van gegevens en modellen te evalueren, doorlopende prestaties te bewaken en te controleren of systemen werken zoals bedoeld op basis van vastgestelde prestatiemetingen.
  • Geef gedetailleerde uitleg over systeembewerkingen , waaronder ontwerpspecificaties, informatie over trainingsgegevens, trainingsfouten die zijn opgetreden en mogelijke onvolkomenheden met trainingsgegevens, en de deducties en belangrijke voorspellingen die zijn gegenereerd.
  • Ontwerp voor onbedoelde omstandigheden , zoals onbedoelde systeeminteracties, de introductie van schadelijke gegevens of cyberaanvallen.
  • Betrek domeinexperts in de ontwerp- en implementatieprocessen, met name wanneer u AI gebruikt om consequentief beslissingen over mensen te nemen.
  • Voer strenge tests uit tijdens het ontwikkelen en implementeren van AI-systemen om ervoor te zorgen dat systemen veilig kunnen reageren op onverwachte omstandigheden, geen onverwachte prestatiefouten hebben en zich niet op onverwachte manieren kunnen ontwikkelen. AI-systemen die betrokken zijn bij scenario's met een hoge inzet die van invloed zijn op de veiligheid van mensen of grote populaties, moeten worden getest in lab- en praktijkscenario's.
  • Evalueer wanneer en hoe een AI-systeem menselijke input moet zoeken voor impactvolle beslissingen of tijdens kritieke situaties. Bedenk hoe een AI-systeem controle moet overdragen aan een mens op een manier die zinvol en begrijpelijk is. Ontwerp AI-systemen om ervoor te zorgen dat mensen het benodigde invoerniveau hebben voor zeer impactvolle beslissingen.
  • Ontwikkel een robuust feedbackmechanisme voor gebruikers om prestatieproblemen te melden, zodat u ze snel kunt oplossen.

Privacy en beveiliging

Pictogram voor privacy.

Naarmate AI steeds vaker voorkomt, wordt het beschermen van privacy en het beveiligen van belangrijke persoonlijke en zakelijke gegevens belangrijker en complexer. Bij AI vereisen privacy- en gegevensbeveiligingsproblemen met name veel aandacht, omdat de toegang tot gegevens essentieel is voor AI-systemen om nauwkeurige en geïnformeerde voorspellingen en beslissingen over mensen te maken.

Als u privacy en beveiliging in uw AI-systeem wilt garanderen, moet u het volgende doen:

  • Voldoen aan relevante wetgeving inzake gegevensbescherming, privacy en transparantie door resources te investeren in het ontwikkelen van nalevingstechnologieën en -processen of het werken met een technologieleider tijdens de ontwikkeling van AI-systemen. Ontwikkel processen om voortdurend te controleren of de AI-systemen voldoen aan alle aspecten van deze wetten.
  • Ontwerp AI-systemen om de integriteit van persoonlijke gegevens te behouden, zodat ze alleen persoonlijke gegevens kunnen gebruiken gedurende de tijd dat ze nodig zijn en voor de gedefinieerde doeleinden die met klanten zijn gedeeld. Verwijder onbedoeld verzamelde persoonsgegevens of gegevens die niet langer relevant zijn voor het gedefinieerde doel.
  • Bescherm AI-systemen tegen slechte actoren door AI-systemen te ontwerpen in overeenstemming met veilige basisbeginselen voor ontwikkeling en bewerkingen, met behulp van op rollen gebaseerde toegang en het beschermen van persoonlijke en vertrouwelijke gegevens die worden overgedragen aan derden. Ontwerp AI-systemen om abnormaal gedrag te identificeren en manipulatie en schadelijke aanvallen te voorkomen.
  • Ontwerp AI-systemen met de juiste besturingselementen voor klanten om keuzes te maken over hoe en waarom hun gegevens worden verzameld en gebruikt.
  • Zorg ervoor dat uw AI-systeem anoniem blijft door rekening te houden met hoe het systeem persoonlijke identificatie uit gegevens verwijdert.
  • Privacy- en beveiligingsbeoordelingen uitvoeren voor alle AI-systemen.
  • Best practices voor de branche onderzoeken en implementeren voor het bijhouden van relevante informatie over klantgegevens, het openen en gebruiken van die gegevens, en het controleren van toegang en gebruik.

Inclusiviteit

Pictogram voor inclusiviteit.

Bij Microsoft geloven we dat iedereen moet profiteren van intelligente technologie, wat betekent dat het een breed scala aan menselijke behoeften en ervaringen moet opnemen en aanpakken. Voor de 1 miljard mensen met een handicap over de hele wereld kunnen AI-technologieën een gamewisselaar zijn. AI kan de toegang tot onderwijs, overheidsdiensten, werkgelegenheid, informatie en een breed scala aan andere mogelijkheden verbeteren. Intelligente oplossingen, zoals realtime spraak naar teksttranscriptie, visuele herkenningsservices en voorspellende tekstfunctionaliteit, bieden mensen met gehoor, visuele en andere beperkingen al mogelijkheden.

Inclusieve ontwerpprincipes van Microsoft:

  • Uitsluiting herkennen
  • Oplossen voor één, uitbreiden voor velen
  • Leren van diversiteit

Om inclusiviteit in uw AI-systeem te garanderen, moet u het volgende doen:

  • Voldoen aan wetten met betrekking tot toegankelijkheid en inclusiefheid die de aanschaf van toegankelijke technologie verplicht stellen.
  • Gebruik het gidsboek Inclusief 101, dat beschikbaar is in de sectie Resources van deze module, om systeemontwikkelaars te helpen potentiële belemmeringen in een productomgeving te begrijpen en aan te pakken die onbedoeld mensen kunnen uitsluiten.
  • Laat mensen met een handicap uw systemen testen om erachter te komen of het systeem kan worden gebruikt zoals bedoeld door de breedst mogelijke doelgroep.
  • Overweeg veelgebruikte toegankelijkheidsstandaarden om ervoor te zorgen dat uw systeem toegankelijk is voor mensen met alle vaardigheden.

Transparency

Pictogram voor transparantie.

De onderliggende waarden zijn twee fundamentele principes die essentieel zijn om de effectiviteit van de rest te waarborgen: transparantie en verantwoording. Het is essentieel dat mensen begrijpen hoe AI-systemen tot conclusies komen wanneer ze worden gebruikt om beslissingen te informeren die van invloed zijn op het leven van mensen. Een bank kan bijvoorbeeld een AI-systeem gebruiken om te bepalen of een persoon kredietwaardig is, of een bedrijf kan een AI-systeem gebruiken om de meest gekwalificeerde kandidaten te bepalen die moeten worden aangenomen.

Een cruciaal onderdeel van transparantie is wat we noemen als begrijpelijkheid, of de nuttige uitleg van het gedrag van AI-systemen en hun onderdelen. Het verbeteren van de begrijpelijkheid vereist dat belanghebbenden begrijpen hoe en waarom ze functioneren, zodat ze potentiële prestatieproblemen, veiligheids- en privacyproblemen, vooroordelen, uitsluitingspraktijken of onbedoelde resultaten kunnen identificeren. We zijn ook van mening dat mensen die AI-systemen gebruiken eerlijk moeten zijn en over wanneer, waarom en hoe ze ervoor kiezen om ze te implementeren.

Om transparantie in uw AI-systeem te garanderen, moet u het volgende doen:

  • Deel belangrijke kenmerken van gegevenssets om ontwikkelaars te helpen begrijpen of een specifieke gegevensset geschikt is voor hun use-case.
  • Verbeter de modelverkenbaarheid door eenvoudigere modellen toe te passen en begrijpelijke uitleg te genereren over het gedrag van het model. Voor deze taak kunt u het verantwoordelijke AI-dashboard gebruiken dat beschikbaar is in de sectie Resources.
  • Train werknemers over het interpreteren van AI-uitvoer en zorg ervoor dat ze verantwoordelijk blijven voor het nemen van gevolgbeslissingen op basis van de resultaten.

Verantwoordelijkheid

Pictogram voor verantwoordelijkheid.

De personen die AI-systemen ontwerpen en implementeren, moeten verantwoordelijk zijn voor de werking van hun systemen. Organisaties moeten gebruikmaken van industriestandaarden om verantwoordingsnormen te ontwikkelen. Deze normen kunnen ervoor zorgen dat AI-systemen niet de uiteindelijke autoriteit zijn voor beslissingen die van invloed zijn op het leven van mensen en dat mensen zinvolle controle houden over andere zeer autonome AI-systemen.

Als u wilt zorgen voor verantwoordelijkheid in uw AI-systeem, moet u het volgende doen:

  • Stel interne beoordelingsborden in om toezicht en richtlijnen te bieden voor de verantwoorde ontwikkeling en implementatie van AI-systemen. Ze kunnen ook helpen met taken zoals het definiëren van aanbevolen procedures voor het documenteren en testen van AI-systemen tijdens de ontwikkeling of het bieden van richtlijnen voor gevoelige cases.
  • Zorg ervoor dat uw werknemers de oplossing op een verantwoorde en ethische manier kunnen gebruiken en onderhouden en begrijpen wanneer de oplossing mogelijk extra technische ondersteuning nodig heeft.
  • Houd mensen met de vereiste expertise in de lus door ze te rapporteren en ze te betrekken bij beslissingen over modeluitvoering. Wanneer automatisering van beslissingen vereist is, moet u ervoor zorgen dat ze problemen met modeluitvoer en -uitvoering kunnen inspecteren, identificeren en oplossen.
  • Stel een duidelijk systeem van verantwoording en governance in om herstel- of correctieactiviteiten uit te voeren als modellen op een oneerlijke of potentieel schadelijke manier worden gezien.

We erkennen dat elke persoon, elk bedrijf en elke regio zijn eigen overtuigingen en standaarden heeft die moeten worden weerspiegeld in hun AI-traject. Wij delen ons perspectief met u terwijl u overweegt uw eigen leidende principes te ontwikkelen.

Tip

Neem even de tijd om andere voorbeelden te brainstormen voor elk van de verantwoorde AI-principes.
Foto van mensen die aan een tafel werken en praten.

Deze principes bieden een algemeen idee van wat we moeten doen bij het ontwikkelen en gebruiken van AI. Ze moeten echter worden weerspiegeld op een praktischer niveau. Laten we nu eens kijken hoe deze principes kunnen worden gegarandeerd met een AI-governancesysteem.