Applicazione di sistemi per la governance dell'intelligenza artificiale
Indipendentemente dall'approccio di governance scelto, è consigliabile promuovere alcune procedure consigliate.
Modi per intervenire per la governance dell'IA | Descrizione |
---|---|
Rendere disponibili le risorse ![]() |
I dipendenti devono avere indicazioni per apprendere i principi di IA responsabili e incorporarli nel proprio lavoro. Un libro, un manuale o una sessione di training può soddisfare tale attività. |
Creare un inventario IA centralizzato ![]() |
Avere un elenco di tutti i modelli e i sistemi di intelligenza artificiale che operano nell'organizzazione è fondamentale per classificare in ordine di priorità le attività e ottimizzare le risorse. Inoltre, è utile anche semplificare i controlli e i test di conformità. |
Sviluppare strumenti ![]() |
Il controllo della conformità in ogni sistema di intelligenza artificiale nell'organizzazione può essere svuotato. Prendere in considerazione la creazione di strumenti per automatizzare questa attività: questi strumenti monitorano e convalidano i sistemi e generano un flag se qualcosa cambia al di fuori delle metriche delle prestazioni. |
Coinvolgimento della governance dell'intelligenza artificiale
I processi e i criteri specifici per il sistema di governance dell'IA dipendono dal fatto che l'azienda usi sistemi di terze parti o sviluppi interni di intelligenza artificiale. In relazione a questo fattore, di seguito sono disponibili raccomandazioni per facilitare la governance degli impegni nell'ambito dell'IA dell'azienda.
Engagement con gli sviluppatori di sistemi di intelligenza artificiale
Per sistemi di IA di prima parte, se l'organizzazione prevede anche di sviluppare soluzioni di intelligenza artificiale o integrare l'intelligenza artificiale nei prodotti e nei servizi esistenti, esistono alcune attività per ogni ruolo del team.
Il sistema di governance etico deve:
Esaminare o fornire consigli prima del rilascio di qualsiasi nuovo sistema di intelligenza artificiale, in particolare per i casi d'uso sensibili.
Assicurarsi che i dipendenti di tutti i livelli dell'azienda si sentano liberi di far emergere preoccupazioni etiche prima di vendere prodotti e servizi integrati con intelligenza artificiale o intelligenza artificiale.
Analizzare il caso e fornire indicazioni per attenuare i rischi in caso di problemi durante la progettazione, lo sviluppo o la vendita del sistema di intelligenza artificiale.
Infine, è consigliabile definire processi per monitorare i sistemi di IA distribuiti o venduti per rilevare e mitigare la deriva e il decadimento del modello nel tempo.
Gli sviluppatori devono:
Fornire indicazioni standard dettagliate e approfondite che consentono di progettare e sviluppare soluzioni di intelligenza artificiale per riflettere i principi etici dell'organizzazione.
Sono disponibili linee guida ed elenchi di controllo per tecnologie di intelligenza artificiale specifiche, ad esempio il riconoscimento dei visi o l'intelligenza artificiale generativa.
Per organizzazioni che prevedono di sfruttare sistemi di IA di terze parti predefinite, è consigliabile verificare l'impegno della terza parte per la progettazione di una soluzione di IA responsabile per assicurarsi che sia in linea con i propri principi.
Per le soluzioni di IA personalizzate, valutare la possibilità di includere i principi o gli standard dell'organizzazione nella richiesta di proposta. Prima di distribuire qualsiasi soluzione di intelligenza artificiale di terze parti, creare linee guida su come operare e monitorare il sistema in modo sicuro. Formare i dipendenti su queste linee guida e assicurarsi che vengano seguiti. Infine, il sistema di governance dovrebbe garantire che il sistema di IA sia stato testato rigorosamente e funzioni come previsto.
Coinvolgimento di parti interessate esterne
Man mano che l'uso dell'IA diventa più comune, consideriamo l'approccio responsabile all'IA una responsabilità condivisa tra i settori pubblico e privato. La collaborazione tra aziende, organizzazioni pubbliche, governi e organizzazioni no profit è fondamentale per garantire le procedure consigliate, ottimizzando al contempo il potenziale dell'IA per offrire vantaggi generali.
Le organizzazioni possono contribuire a questo impegno collettivo in diversi modi. Il contributo di Microsoft si è tradotto nel partecipare a iniziative del settore, influenzare le politiche, affrontare le esigenze future per la forza lavoro e i luoghi di lavoro, oltre a valutare come possono essere usate le nostre tecnologie per migliorare la vita delle persone in tutto il mondo. Partnership on AI (PAI), un gruppo di ricercatori, organizzazioni no profit, organizzazioni non governative (ONG) e società dedicate a garantire che lo sviluppo e l'utilizzo dell'IA avvenga in modo responsabile.
Verrà ora illustrato il funzionamento di un sistema di governance dell'intelligenza artificiale in una società reale che usa Microsoft come esempio.