Prepararsi per le implicazioni dell'intelligenza artificiale responsabile
L'IA è la tecnologia distintiva dei nostri tempi. Consente già un progresso più rapido e profondo in quasi tutti i campi dell'attività umana e permette di affrontare alcune delle sfide più complesse della società. Ad esempio, l'intelligenza artificiale può aiutare le persone con disabilità visive a comprendere le immagini generando testo descrittivo. L'intelligenza artificiale può anche aiutare gli agricoltori a produrre cibo sufficiente per la crescente popolazione mondiale.
Microsoft ritiene che l'intelligenza computazionale dell'IA possa essere usata per amplificare la creatività innata e l'ingegno degli essere umani. La nostra visione dell'IA è offrire potenzialità agli sviluppatori per innovare, alle organizzazioni per trasformare i vari settori e alle persone per trasformare la società.
Implicazioni sociali dell'IA
Come accaduto con tutte le grandi innovazioni tecnologiche del passato, l'uso dell'intelligenza artificiale avrà un notevole impatto sulla società, con punti interrogativi complessi e impegnativi sul futuro auspicabile. L'intelligenza artificiale avrà implicazioni per il processo decisionale in tutti i settori, per la sicurezza e la privacy dei dati, così come per le competenze necessarie per avere successo nel lavoro. Quando guardiamo a questo futuro, dobbiamo chiederci:
- Come si progettano, creano e usano i sistemi di intelligenza artificiale per creare un impatto positivo sulle persone e sulla società?
- In che modo è possibile preparare i lavoratori all'impatto dell'intelligenza artificiale?
- Come si possono sfruttare i vantaggi dell'IA tutelando la privacy?
Importanza di un approccio responsabile all'IA
È importante tenere presente che, con l'emergere e il diffondersi della nuova tecnologia intelligente in tutti i livelli della società, i vantaggi saranno accompagnati da conseguenze non volute e imprevedibili. Alcune di queste conseguenze hanno ramificazioni etiche significative e il potenziale di causare gravi danni. Sebbene le organizzazioni non possano ancora prevedere il futuro, è comunque nostra responsabilità coordinarci per anticipare e mitigare le conseguenze non volute della tecnologia distribuita in tutto il mondo tramite piani ponderati e supervisione continua.
Minacce
Ogni svolta nelle tecnologie di intelligenza artificiale ci ricorda la nostra responsabilità condivisa. Nel 2016, ad esempio, Microsoft ha rilasciato un chatbot su X denominato Tay, che poteva apprendere dalle interazioni con gli utenti di X. L'obiettivo era consentire al chatbot di replicare meglio le caratteristiche di comunicazione e personalità umane. Tuttavia, nell'arco di 24 ore, alcuni utenti hanno capito che il chatbot poteva apprendere dalla retorica dell'intolleranza e hanno trasformato il chatbot in un veicolo per dichiarazioni di odio. Questa esperienza è un esempio del motivo per cui è necessario considerare le minacce umane durante la progettazione di sistemi di intelligenza artificiale.
Le nuove minacce richiedono un'evoluzione costante nell'approccio all'intelligenza artificiale responsabile. Ad esempio, poiché l'intelligenza artificiale generativa consente agli utenti di creare o modificare video, immagini o file audio in modo così credibile da sembrare reali, l'autenticità degli elementi multimediali è più difficile da verificare. In risposta, Microsoft collabora con altri stakeholder della tecnologia e dell'informazione per sviluppare standard tecnici per contrastare la manipolazione correlata a deepfake.
Nota
Per prepararsi a nuovi tipi di attacchi che potrebbero influenzare i set di dati di apprendimento, Microsoft ha sviluppato tecnologie come filtri di contenuto avanzati e ha introdotto supervisori per i sistemi di intelligenza artificiale con funzionalità di apprendimento automatico. Gli attuali modelli di intelligenza artificiale generativa, ad esempio quelli forniti in Servizi di Azure AI o Bing Chat, sono basati su queste informazioni dettagliate.
Risultati con distorsioni
Un'altra conseguenza imprevista che devono tenere presente le organizzazioni è che l'IA può rafforzare le discriminazioni sociali o altre distorsioni. È importante per gli sviluppatori comprendere come è possibile introdurre distorsioni nei dati di training o nei modelli di Machine Learning. Questo problema può essere diffuso nei modelli predefiniti perché l'utente potrebbe non gestire i dati di training.
Considerare ad esempio un grande istituto finanziario che vuole sviluppare un sistema di valutazione dei rischi per l'approvazione dei prestiti. Quando i tecnici testano il sistema prima della distribuzione, si rendono conto che approva solo i prestiti richiesti da persone di sesso maschile. Dal momento che è stato addestrato sui dati dei clienti precedenti, il sistema ha riprodotto la passata distorsione sessista dei funzionari addetti alla concessione di prestiti. La convalida del sistema prima della distribuzione ci ha consentito di identificare e risolvere il problema prima che il sistema diventasse operativo.
Nota
I ricercatori Microsoft stanno esaminando strumenti e tecniche per rilevare e ridurre eventuali distorsioni all'interno dei sistemi di IA. I modelli predefiniti vengono convalidati accuratamente, ma devono essere comunque usati con saggezza e i relativi risultati devono essere sempre controllati prima di intervenire.
Casi d'uso sensibili
Un altro esempio della nostra responsabilità per mitigare le conseguenze impreviste riguarda tecnologie sensibili come il riconoscimento facciale. Si è assistito di recente a una crescente richiesta di tecnologia di riconoscimento facciale, in particolare da parte di organizzazioni delle forze dell'ordine che vedono il potenziale della tecnologia per casi d'uso come la ricerca di minori scomparsi. Sappiamo tuttavia che queste tecnologie potrebbero mettere a rischio le libertà fondamentali. Potrebbero ad esempio consentire la sorveglianza continua di specifiche persone. Crediamo che la società abbia la responsabilità di stabilire limiti appropriati per l'uso di queste tecnologie, incluso garantire che l'uso governativo della tecnologia di riconoscimento facciale rimanga soggetto allo stato di diritto.
Anche se è necessario formulare nuove leggi e normative, queste non sostituiscono la responsabilità che tutti abbiamo quando interagiamo con l'intelligenza artificiale. Lavorando insieme, aziende, governi, ONG e ricercatori accademici possono affrontare casi d'uso sensibili.
Nota
Microsoft valuta e sviluppa principi per gestire le attività con le tecnologie di riconoscimento facciale. Ci aspettiamo che questi principi si evolvano nel tempo man mano che continuiamo ad apprendere e a collaborare con i clienti, altre società tecnologiche, il mondo accademico, la società civile e altri attori su questo problema. Microsoft adotta pratiche di intelligenza artificiale responsabili per rilevare, prevenire e mitigare questi problemi, ma questi devono essere presi in considerazione anche in qualsiasi progetto correlato all'intelligenza artificiale.
Nella prossima unità si vedrà come i sei principi guida di Microsoft per l'intelligenza artificiale responsabile possano essere applicati all'interno di altre organizzazioni.