Identificare i principi per un'implementazione responsabile dell'intelligenza artificiale

Completato

Nell'ultima unità sono state illustrate alcune delle implicazioni sociali dell'IA. Sono stati esaminati aspetti quali la responsabilità di aziende, governi, ONG e ricercatori accademici per anticipare e mitigare le conseguenze impreviste della tecnologia dell'IA. Sempre più organizzazioni prendono in considerazione queste responsabilità e creano procedure e criteri interni per guidare le attività relative all'intelligenza artificiale.

Microsoft ha individuato sei principi che dovrebbero guidare lo sviluppo e l'uso dell'IA: equità, affidabilità e sicurezza, privacy e tutela, inclusione, trasparenza e responsabilità. Per Microsoft questi principi rappresentano le fondamenta di un approccio responsabile e affidabile all'IA, soprattutto ora che la tecnologia intelligente sta diventando una presenza sempre più importante nei prodotti e nei servizi di uso quotidiano.

Equità

Icona che rappresenta l'equità.

I sistemi di IA devono trattare tutti equamente ed evitare di influire in modo diverso su gruppi di persone con collocazione analoga. Ad esempio, quando i sistemi di IA forniscono indicazioni per trattamenti sanitari, richieste di prestiti o l'assunzione, devono fornire le stesse raccomandazioni a tutti gli individui con sintomi, situazione finanziaria o qualifiche professionali simili.

Per garantire l'equità nel sistema di intelligenza artificiale, è necessario:

  • Comprendere l'ambito, lo spirito e i potenziali usi del sistema di IA ponendo domande come, come deve funzionare il sistema? Per chi è progettato il sistema? Il sistema funzionerà allo stesso modo per tutti? Come può nuocere ad altri?
  • Attrarre un pool di talenti variegato. Assicurarsi che il team di progettazione rispecchi il mondo in cui si vive, includendo membri con vissuto, esperienze, formazione e punti di vista diversi.
  • Identificare le distorsioni nei set di dati valutando la provenienza dei dati, studiandone l'organizzazione ed eseguendo test per assicurarsi che siano adeguatamente rappresentati. Possono essere introdotte distorsioni in ogni fase della creazione, dalla raccolta alla modellazione al funzionamento. Il dashboard dell'intelligenza artificiale responsabile, disponibile nella sezione Risorse, include una funzionalità per facilitare questa attività.
  • Identificare le distorsioni negli algoritmi di apprendimento automatico applicando gli strumenti e le tecniche che consentono di migliorare la trasparenza e l'intelligibilità dei modelli. Gli utenti devono identificare e rimuovere attivamente le distorsioni negli algoritmi di Machine Learning.
  • Sfruttare la revisione umana e le competenze settoriali. Offrire formazione ai dipendenti in modo che comprendano il significato e le implicazioni dei risultati dell'intelligenza artificiale, soprattutto quando l'intelligenza artificiale viene usata per influenzare le decisioni importanti in merito alle persone. Le decisioni che usano l'intelligenza artificiale devono essere sempre associate alla revisione umana. Includere esperti in materia pertinenti nel processo di progettazione e nelle decisioni relative alla distribuzione. Un esempio consiste nell'includere un esperto in materia di credito al consumo per un sistema di IA per l'assegnazione dei punteggi di credito. È consigliabile usare l'intelligenza artificiale come copilota, ovvero uno strumento di assistenza che consente di svolgere il proprio lavoro meglio e più velocemente, ma richiede un certo grado di supervisione.
  • Condurre ricerche e adottare le procedure consigliate, le tecniche analitiche e gli strumenti migliori di altre istituzioni e aziende per facilitare il rilevamento, la prevenzione e la soluzione delle distorsioni nei sistemi di IA.

Affidabilità e sicurezza

Icona che rappresenta l'affidabilità.

Per stabilire una relazione di fiducia, è fondamentale che i sistemi di IA operino in modo affidabile, sicuro e coerente sia in circostanze normali che in condizioni impreviste. Questi sistemi devono essere in grado di funzionare in base alla progettazione originale, di rispondere in modo sicuro a condizioni impreviste e di resistere a manipolazioni dannose. È anche importante avere la possibilità di verificare che questi sistemi si comportino come previsto nelle condizioni operative effettive. Il comportamento e la varietà di condizioni che possono gestire in modo affidabile e sicuro riflettono in larga misura le situazioni e le circostanze previste dagli sviluppatori durante la progettazione e i test.

Per garantire affidabilità e sicurezza nel sistema di intelligenza artificiale, è necessario:

  • Sviluppare processi per il controllo dei sistemi di IA per valutare la qualità e l'idoneità di dati e modelli, monitorare le prestazioni attuali e verificare che i sistemi si comportino come previsto in base a misure delle prestazioni prestabilite.
  • Fornire una spiegazione dettagliata del funzionamento del sistema, incluse le specifiche di progettazione, informazioni sui dati di training, errori di training che si sono verificati e potenziali deficienze dei dati di training, nonché le inferenze e le stime significative generate.
  • Includere nella progettazione le circostanze impreviste, ad esempio interazioni accidentali del sistema, introduzione di dati dannosi o attacchi cibernetici.
  • Coinvolgere gli esperti di dominio nei processi di progettazione e implementazione, soprattutto quando si usa l'intelligenza artificiale per prendere decisioni importanti in merito alle persone.
  • Eseguire test rigorosi durante lo sviluppo e la distribuzione del sistema di IA per garantire che i sistemi possano rispondere in modo sicuro a circostanze non preventivate, non generino errori di prestazioni imprevisti e non evolvano in modi imprevisti. I sistemi di IA coinvolti in scenari di alto livello con effetti sulla sicurezza umana o su popolazioni di grandi dimensioni devono essere testati sia in ambiente lab che in scenari reali.
  • Valutare quando e come un sistema di IA deve richiedere l'input umano per prendere decisioni con conseguenze significative o in situazioni critiche. Considerare il modo in cui un sistema di IA deve trasferire il controllo a un essere umano in modo significativo e comprensibile. Progettare sistemi di IA per assicurarsi che siano gli esseri umani ad avere il livello di input necessario per le decisioni con un impatto significativo.
  • Sviluppare un meccanismo di feedback affidabile per consentire agli utenti di segnalare problemi di prestazioni in modo che possano essere risolti rapidamente.

Privacy e sicurezza

Icona che rappresenta la privacy.

Con la sempre maggiore diffusione dell'IA, la protezione della privacy e la tutela di importanti informazioni personali e aziendali sono diventate più critiche e complesse. Con l'IA è richiesta particolare attenzione alla privacy e ai problemi di sicurezza dei dati, perché l'accesso ai dati è essenziale per i sistemi di IA per definire stime e decisioni accurate e informate sulle persone.

Per garantire privacy e sicurezza nel sistema di intelligenza artificiale, è necessario:

  • Verificare la conformità alle normative relative alla protezione dei dati, alla privacy e alla trasparenza, investendo risorse per lo sviluppo di tecnologie e processi di conformità o collaborando con un leader tecnologico durante lo sviluppo di sistemi di IA. Sviluppare processi per controllare in modo continuativo che i sistemi di IA soddisfino tutti gli aspetti di queste normative.
  • Progettare i sistemi di IA in modo che tutelino l'integrità dei dati personali, così che possano usare solo i dati personali per il tempo necessario e per gli scopi definiti condivisi con i clienti. Eliminare i dati personali raccolti inavvertitamente o i dati che non sono più rilevanti per lo scopo definito.
  • Proteggere i sistemi di IA da attori malintenzionati progettando i sistemi di IA in base a principi sicuri per lo sviluppo e il funzionamento, usando l'accesso in base ai ruoli e proteggendo i dati personali e riservati trasferiti a terze parti. Progettare i sistemi di IA in modo da identificare comportamenti anomali e impedire manomissioni e attacchi dannosi.
  • Progettare sistemi di IA con controlli appropriati che consentono ai clienti di scegliere come e perché i dati vengono raccolti e usati.
  • Assicurarsi che il sistema di intelligenza artificiale mantenga l'anonimato tenendo conto del modo in cui il sistema rimuove l'identificazione personale dai dati.
  • Eseguire verifiche della privacy e delle misure di tutela per tutti i sistemi di IA.
  • Eseguire ricerche e implementare le procedure consigliate del settore per il rilevamento di informazioni rilevanti sui dati dei clienti, l'accesso e l'uso di tali dati e il controllo dell'accesso e dell'uso.

Inclusione

Icona che rappresenta l'inclusività.

Microsoft ritiene che tutti gli utenti debbano sfruttare la tecnologia intelligente e questo significa dover incorporare e soddisfare un'ampia gamma di esigenze ed esperienze umane. Per il miliardo di persone con disabilità in tutto il mondo, le tecnologie dell'IA possono rappresentare una svolta. L'IA può migliorare l'accesso a istruzione, servizi pubblici, impiego, informazioni e un'ampia gamma di altre opportunità. Soluzioni intelligenti come la trascrizione di voce in testo scritto in tempo reale, i servizi di riconoscimento visivo e le funzionalità di testo predittivo, sono già in grado di offrire nuove potenzialità alle persone con problemi di udito, vista o altre disabilità.

Principi di progettazione inclusiva di Microsoft:

  • Riconoscere l'esclusione
  • Trovare la soluzione per un caso ed estenderla a molti
  • Imparare dalla diversità

Per garantire l'inclusione nel sistema di intelligenza artificiale, è necessario:

  • Rispettare le leggi relative all'accessibilità e all'inclusione che impongono l'approvvigionamento di tecnologie accessibili.
  • Usare la guida introduttiva per la progettazione inclusiva, disponibile nella sezione delle risorse di questo modulo, per aiutare gli sviluppatori dei sistemi a conoscere ed eliminare le potenziali barriere nell'ambiente di un prodotto, che potrebbero involontariamente escludere alcune persone.
  • Chiedere a utenti con disabilità di testare i sistemi per determinare se il sistema può essere usato come previsto dal più ampio pubblico possibile.
  • Tenere conto degli standard di accessibilità usati comunemente per garantire che il sistema sia accessibile per utenti di ogni tipo.

Trasparenza

Icona che rappresenta la trasparenza.

I valori precedenti si basano su due principi fondamentali, essenziali per garantire l'efficacia del resto, ovvero trasparenza e responsabilità. È fondamentale che le persone comprendano il modo in cui i sistemi di intelligenza artificiale giungono a conclusioni quando vengono usati per influire sulle decisioni che hanno un effetto sulla vita delle persone. Ad esempio, una banca potrebbe usare un sistema di IA per decidere se una persona è solvibile oppure un'azienda potrebbe usare un sistema di IA per determinare i candidati più qualificati per l'assunzione.

Una parte cruciale della trasparenza è quella che definiamo intelligibilità ovvero una spiegazione utile del comportamento dei sistemi di IA e dei relativi componenti. Per migliorare l'intelligibilità occorre che gli stakeholder capiscano come e perché funzionano in modo da poter identificare potenziali problemi di prestazioni, problematiche di sicurezza e privacy, distorsioni, pratiche esclusorie o risultati imprevisti. Riteniamo anche che coloro che usano i sistemi di IA debbano essere onesti e collaborativi in merito a quando, perché e come scelgono di distribuirli.

Per garantire la trasparenza nel sistema di intelligenza artificiale, è necessario:

  • Condividere le caratteristiche principali dei set di dati per consentire agli sviluppatori di comprendere se un set di dati specifico è appropriato per il caso d'uso.
  • Migliorare l'intelligibilità del modello applicando modelli più semplici e generando spiegazioni comprensibili del comportamento del modello. Per questa attività, è possibile usare il dashboard di intelligenza artificiale responsabile, disponibile nella sezione Risorse.
  • Formare i dipendenti su come interpretare gli output dell'IA e assicurarsi che rimangano responsabili delle decisioni importanti in base ai risultati.

Responsabilità

Icona che rappresenta la responsabilità.

Le persone che progettano e distribuiscono sistemi di IA devono rendere conto del funzionamento dei loro sistemi. Le organizzazioni devono fare riferimento agli standard del settore per elaborare norme di responsabilità. Queste norme possono garantire che i sistemi di IA non siano l'autorità finale per qualsiasi decisione con effetti sulla vita delle persone e che gli esseri umani mantengano un controllo significativo su sistemi di IA altrimenti altamente autonomi.

Per garantire la responsabilità nel sistema di intelligenza artificiale, è necessario:

  • Nominare comitati di revisione interna per offrire supervisione e indicazioni sullo sviluppo e la distribuzione responsabili dei sistemi di IA. Possono anche essere utili per attività come la definizione di procedure consigliate per documentare e testare i sistemi di intelligenza artificiale durante lo sviluppo o fornire indicazioni per i casi sensibili.
  • Assicurarsi che i dipendenti siano preparati per l'uso e la gestione della soluzione in modo responsabile ed etico e che comprendano quando la soluzione potrebbe richiedere supporto tecnico aggiuntivo.
  • Mantenere aggiornate le persone con le competenze necessarie inviando loro le dovute informazioni e coinvolgendole nelle decisioni per l'esecuzione di un modello. Quando è necessaria l'automazione delle decisioni, verificare che queste persone abbiano la possibilità di ispezionare, identificare e risolvere le eventuali problematiche con l'output e l'esecuzione del modello.
  • Mettere in atto un sistema chiaro di responsabilità e governance per eseguire attività di rimedio o correzione se i modelli producono comportamenti non corretti o potenzialmente dannosi.

Ci rendiamo conto che ogni persona, azienda e area geografica ha convinzioni e standard specifici che dovranno essere rispecchiati nel percorso per l'adozione dell'IA. Microsoft vuole condividere il proprio punto di vista con gli utenti per supportarli nell'elaborazione di principi guida propri.

Suggerimento

Concedersi un momento per fare un brainstorming e trovare altri esempi per ognuno dei principi dell'IA responsabile.
Immagine che mostra persone che lavorano e parlano attorno a un tavolo.

Questi principi forniscono un'idea generale delle operazioni da eseguire durante lo sviluppo e l'uso dell'IA. Devono essere tuttavia esaminate su un livello più pratico. Si esaminerà ora il modo in cui questi principi possono essere garantiti con un sistema di governance di intelligenza artificiale.