Intelligenza artificiale responsabile presso Microsoft
Può essere difficile progettare e implementare un sistema di governance dell'intelligenza artificiale efficace. In questa unità si fa riferimento a Microsoft come esempio e viene illustrato come Microsoft garantisce che i principi dell'intelligenza artificiale responsabile vengano seguiti nell'intera azienda. In base a questo caso d'uso, valutare come si potrebbero applicare queste idee nella propria organizzazione.
Nel video seguente Natasha Crampton, vicepresidente e Responsabile della IA responsabile di Microsoft, illustra le procedure di IA responsabile applicate dall'azienda.
La nostra struttura di governance usa un modello hub-and-spoke per fornire la responsabilità e l'autorità necessarie per promuovere le iniziative, consentendo al tempo stesso di implementare i criteri di intelligenza artificiale responsabile su larga scala. Vale a dire, combina gli approcci centralizzati e decentralizzati illustrati nell'ultima unità.
Governance centralizzata
Sono tre gli organi di Microsoft che garantiscono la governance centralizzata: il Senior Leadership Team, l'Office of Responsible AI e il Comitato Aether. Una caratteristica importante del nostro approccio all'IA responsabile è avere questo ecosistema che rende operativa l'IA responsabile nell'intera azienda, piuttosto che una singola organizzazione o individuo alla guida di questo lavoro.
Senior Leadership Team
Il Senior Leadership Team è in definitiva responsabile della direzione dell'azienda in riferimento all'intelligenza artificiale responsabile. Questo gruppo è il responsabile finale delle decisioni sulle questioni più sensibili, nuove e significative in materia di sviluppo e distribuzione dell'IA. Stabilisce i principi, i valori e gli impegni per i diritti umani dell'azienda.
Office of Responsible AI
L'Office of Responsible AI implementa e mantiene l'impegno per la governance dell'intelligenza artificiale responsabile collaborando con gli stakeholder dell'azienda per:
- Sviluppare e gestire il framework di governance.
- Definire ruoli e responsabilità per gli organi di governance.
- Implementare un processo decisionale e di report a livello aziendale.
- Orchestrare il training per l'intelligenza artificiale responsabile per tutti i dipendenti.
L'Office of Responsible AI ha quattro funzioni principali:
- Politiche interne: stabilire le regole a livello aziendale per attuare l'intelligenza artificiale responsabile, oltre a definire ruoli e responsabilità per i team coinvolti in questo obiettivo.
- Motivazione: essere pronti ad adottare procedure di intelligenza artificiale responsabile, sia all'interno della nostra azienda, sia tra i nostri clienti e partner.
- Gestione dei casi: esaminare i casi d'uso sensibili per garantire che i principi di IA vengano rispettati nei progetti di sviluppo e distribuzione.
- Politica pubblica: collaborare alla stesura di nuove leggi, norme e standard. L'obiettivo di questa politica è garantire che le promesse della tecnologia di intelligenza artificiale vengano concretizzate a vantaggio dell'intera società.
Comitato Aether
Il Comitato Aether (AI, Ethics, and Effects in Engineering and Research) svolge un ruolo di consulenza per la leadership senior, l'Office of Responsible AI e altri team all'interno dell'azienda. Fornisce indicazioni su domande, sfide e opportunità in relazione allo sviluppo e all'implementazione delle tecnologie di intelligenza artificiale.
Il Comitato Aether include sei gruppi di lavoro dedicati ad argomenti specifici, basati sui nostri principi di IA. I gruppi di lavoro si occupano dello sviluppo di strumenti, procedure consigliate e linee guida personalizzate per l'implementazione correlate alle rispettive aree di competenza. Le informazioni apprese dai gruppi di lavoro e dal comitato principale sono fondamentali per lo sviluppo di nuove politiche e per rifiutare casi d'uso sensibili o porre dei limiti.
Governance decentralizzata
L'attuazione di un'IA responsabile su larga scala in un'organizzazione si basa su una solida rete nell'intera azienda che consenta di implementare regole a tutti i livelli dell'organizzazione, favorire la consapevolezza e richiedere supporto su questioni che sollevano dubbi sull'applicazione dei nostri principi di IA.
Promotori dell'intelligenza artificiale responsabile
La nostra rete include i promotori dell'intelligenza artificiale responsabile, ovvero dipendenti designati dai rispettivi team di leadership all'interno di team chiave per le attività tecniche e sul campo. Fungono da consulenti per l'intelligenza artificiale responsabile (in aggiunta ai compiti del loro ruolo full-time), concentrandosi sul fornire informazioni ai decisori, anziché sulla definizione delle politiche.
I promotori dell'IA responsabile hanno cinque funzioni principali:
- Aumentare la consapevolezza dei principi e delle procedure dell'intelligenza artificiale responsabile all'interno dei team e dei gruppi di lavoro.
- Aiutare i team e i gruppi di lavoro a implementare le procedure prescritte per tutto il ciclo di vita della funzionalità, del prodotto o del servizio di IA.
- Offrire consulenza ai dirigenti sui benefici dello sviluppo dell'intelligenza artificiale responsabile e sul possibile effetto dei danni non intenzionali.
- Identificare ed eseguire l'escalation di domande e usi sensibili dell'IA attraverso i canali disponibili.
- Promuovere una cultura di centralità del cliente e una prospettiva globale, coltivando una community di evangelist dell'intelligenza artificiale responsabile all'interno e all'esterno dell'organizzazione.
Per sviluppare e distribuire l'IA con il minimo impatto sulle attività di progettazione e sui clienti, stiamo investendo in criteri, procedure e strumenti. Alcuni gruppi di progettazione hanno costituito dei team per aiutarli a seguire le regole a livello aziendale e accelerare lo sviluppo di criteri, pratiche e strumenti di implementazione.
Ogni dipendente
La parte finale, e la più importante, del nostro approccio all'intelligenza artificiale responsabile è il ruolo che ogni dipendente svolge con il supporto dei propri manager e responsabili aziendali. L'intelligenza artificiale responsabile è una parte fondamentale della formazione obbligatoria dei dipendenti e abbiamo rilasciato ulteriori risorse didattiche che consentono ai dipendenti di approfondire le aree di interesse di questa tecnologia. Abbiamo anche numerosi strumenti di sviluppo dell'IA responsabile che consentono ai nostri dipendenti di sviluppare responsabilmente. Con queste risorse, tutti i nostri dipendenti sono messi nelle condizioni di portare avanti l'importante lavoro dell'azienda con l'IA e, allo stesso tempo, sono responsabili di sostenere i nostri principi di intelligenza artificiale responsabile e di seguire le procedure che abbiamo adottato a livello aziendale per perseguire questo fine.
Ci aspettiamo che ogni dipendente Microsoft:
- Sviluppi una comprensione generale dei principi di IA.
- Segnali ed effettui l'escalation dei casi d'uso sensibili.
- Contatti il promotore dell'IA responsabile quando ha bisogno di indicazioni sull'intelligenza artificiale responsabile.
Suggerimento
Concedersi un momento per identificare le sfide da affrontare nella definizione di un sistema di governance responsabile dell'IA all'interno dell’organizzazione.
Nella prossima unità si vedrà questo modello di governance in azione per contrassegnare e affrontare i casi d'uso sensibili dell'IA.