Mettere in pratica i framework di intelligenza artificiale responsabile

Completato

Come illustrato nell'unità precedente, Microsoft ha sviluppato e perfezionato il proprio processo interno per la governance responsabile dell'IA. Questa unità spiega come funziona questo sistema di governance in una situazione reale. Sebbene i framework di governance e i processi di revisione siano specifici di ogni organizzazione, riteniamo che il nostro framework dei casi d'uso sensibili possa fungere da utile punto di partenza. Uno dei primi passaggi del processo di governance dell'intelligenza artificiale responsabile di Microsoft è stato quello di usare un trigger di revisione dei casi d'uso sensibili. Il framework ha aiutato i team interni e rivolti ai clienti a identificare la presenza di casi d'uso specifici che richiedono maggiori indicazioni.

Framework dei casi d'uso sensibili Microsoft

In base alla nostra documentazione sulla governance dell'intelligenza artificiale responsabile, uno scenario di sviluppo o distribuzione dell'IA viene considerato un "caso d'uso sensibile" se rientra in una o più delle categorie seguenti:

  • Negazione dell'accesso ai servizi consequenziali: lo scenario implica l'uso dell'IA in un modo che può avere come conseguenza diretta la negazione dell'accesso ai servizi consequenziali o di supporto a un individuo (ad esempio, servizi finanziari, immobiliari, assicurativi, di istruzione, di occupazione o di assistenza sanitaria).
  • Rischio di danni: lo scenario implica l'uso dell'IA in un modo che potrebbe comportare un rischio significativo di danni fisici, emotivi o psicologici a un individuo (ad esempio, decisioni di vita o di morte in ambienti militari, ambienti di produzione con condizioni critiche per la sicurezza, contesti sanitari, quasi tutti gli scenari che coinvolgono bambini o altre persone vulnerabili e così via).
  • Violazione dei diritti umani: lo scenario implica l'uso dell'IA in un modo che può comportare una limitazione significativa della libertà personale, di opinione o espressione, di riunione o associazione, della privacy e così via (ad esempio, nell'applicazione della legge o nel mantenimento dell'ordine).

Addestriamo i nostri dipendenti, che siano venditori che lavorano con un cliente o persone che lavorano a una soluzione di IA interna, a usare questo framework per determinare se un caso d'uso di IA debba essere segnalato per un'ulteriore revisione. Formiamo anche i nostri promotori dell'IA responsabile per il loro ruolo di collegamento tra i dipendenti e i team centrali di governance.

Processo di revisione dei casi d'uso sensibili Microsoft

Il processo di revisione per i casi d'uso sensibili prevede tre fasi: identificazione, valutazione e mitigazione. Per illustrare meglio questo processo, si fa riferimento a un case study reale per spiegare ogni passaggio. In questo case study, un cliente è venuto a noi per un sistema di riconoscimento facciale.

Identificazione

Se un dipendente identifica che un caso d'uso rientra in una delle tre categorie (negazione di servizi consequenziali, rischio di danni o violazione dei diritti umani), lo segnala. La segnalazione viene eseguita tramite uno strumento di invio centrale e quindi indirizzata al promotore dell'intelligenza artificiale responsabile locale, un individuo responsabile di promuovere la consapevolezza e la comprensione dei criteri, degli standard e delle linee guida dell'azienda per l'uso responsabile dell'intelligenza artificiale.

In questo caso, siamo stati contattati da un'agenzia delle forze dell'ordine per sviluppare un sistema di riconoscimento facciale per potenziare i metodi di verifica dell'identità esistenti. Gli scenari includevano l'uso del riconoscimento facciale per verificare l'identità dei conducenti durante i controlli stradali, per accelerare il processo di registrazione nelle prigioni e per verificare l'identità dei carcerati mentre si spostano all'interno della struttura. Un dipendente ha segnalato questi tre casi d'uso attraverso lo strumento di inserimento centrale per la revisione dell'intelligenza artificiale responsabile.

Valutazione

Il promotore dell'intelligenza artificiale responsabile, in collaborazione con l'Office of Responsible AI (ORA) e con il team Microsoft coinvolto nel caso d'uso, esamina il caso per raccogliere i fatti rilevanti, segue un processo guidato per valutare l'effetto del sistema proposto sugli individui e la società ed esamina i casi precedenti per determinare se esistono già delle linee guida per uno scenario simile. Se non esistono linee guida precedenti o se il caso richiede competenze o valutazioni aggiuntive, il promotore dell'intelligenza artificiale responsabile presenta il caso al gruppo di lavoro dedicato ai casi d'uso sensibili del Comitato Aether.

In questo caso del sistema di riconoscimento facciale, il promotore dell'intelligenza artificiale responsabile ha collaborato a stretto contatto con l'Office of Responsible AI, i team degli account e i clienti per valutare i rischi. È stata stabilita la necessità di eseguire l'escalation di tutti e tre i casi al gruppo di lavoro dedicato ai casi d'uso sensibili del comitato Aether per ulteriori approfondimenti, poiché riguardavano uno o più usi sensibili dell'IA.

Strategia di riduzione del rischio

Il gruppo di lavoro dedicato ai casi d'uso sensibili si consulta con un gruppo eterogeneo di esperti per fornire informazioni dettagliate e consigli su come risolvere i rischi associati al particolare caso d'uso. Se la situazione richiede un'ulteriore escalation, i casi possono arrivare fino al Comitato Aether stesso, che fornisce consulenza direttamente al Senior Leadership Team. È il Senior Leadership Team a prendere le decisioni finali sui nuovi casi di impatto elevato.

Nota

Quando occorre esaminare casi d'uso sensibili, è consigliabile riunire un gruppo diversificato di persone con background e competenze diversi. È importante anche creare uno spazio inclusivo in cui tutti si sentano a proprio agio nel condividere le loro idee e i loro punti di vista.

Una volta che il caso è stato esaminato, il promotore dell'IA responsabile collabora con l'Office of Responsible AI per fornire consigli al team del progetto su strategie di mitigazione in linea con le nostre procedure e i nostri principi di IA responsabile. Queste strategie di mitigazione possono includere approcci tecnici, formazione dei dipendenti e approcci di governance o modifiche all'ambito del progetto. In alcuni casi, ai nostri team è stato consigliato di non procedere con determinati progetti a causa dell'impossibilità di realizzarli in modo conforme ai nostri principi.

Per questo caso d'uso, il gruppo di lavoro dedicato ai casi d'uso sensibili del comitato Aether ha preso decisioni separate per ognuno degli scenari. Dopo un'attenta considerazione, ha stabilito che non avremmo supportato lo scenario del pattugliamento per identificare "persone di interesse" durante i controlli stradali. Poiché lo stato della tecnologia e l'ecosistema generale non erano sufficientemente maturi per mitigare le conseguenze dannose in caso di comportamento imperfetto della tecnologia, il gruppo di lavoro Aether ha considerato questo scenario un caso d'uso prematuro.

Abbiamo spiegato i problemi al cliente, che ha deciso di non perseguire questo scenario.

Nota

Con il supporto della ricerca: il tentativo di identificare persone in ambienti non controllati può violare i diritti umani, con conseguenti arresti indebiti dovuti a un'errata identificazione. Gli studi hanno dimostrato che l'IA ha maggiori probabilità di sbagliare l'identità delle donne e delle minoranze, cosa che potrebbe anche causare la detenzione sproporzionata di queste popolazioni.1

Per i casi d'uso all'interno di strutture, abbiamo deciso che avremmo potuto supportare la progettazione e lo sviluppo di un modello di verifica, con misure di sicurezza per garantire il controllo umano appropriato sulla soluzione e un ciclo di feedback bidirezionale tra il cliente e Microsoft. Era anche importante che il cliente implementasse un programma di formazione per il personale che interagisce con le soluzioni e che si confrontasse nuovamente con Microsoft sulle distribuzioni oltre questi scenari supportati.

L'evoluzione della governance dell'IA responsabile

Ora che è stato esaminato il nostro processo in azione, c'è un punto importante da ribadire: questo è solo l'inizio dello sviluppo della governance dell'intelligenza artificiale. I processi relativi all'intelligenza artificiale si stanno evolvendo rapidamente. In futuro, abbiamo intenzione di perfezionare le nostre norme di governance man mano che investiamo ulteriormente nell'IA, e raccomandiamo alle altre aziende di fare lo stesso. Ogni organizzazione deve personalizzare il processo di revisione in base alle proprie esigenze e al livello di maturità per l'IA, ma ci auguriamo che il nostro processo possa fungere da utile punto di partenza.

Per riepilogare i concetti appresi, passare a una verifica delle conoscenze.