Condividi tramite


Governance dell'intelligenza artificiale : raccomandazioni per le organizzazioni che regolano i carichi di lavoro di intelligenza artificiale in Azure

Questo articolo descrive il processo organizzativo per la governance dei carichi di lavoro di intelligenza artificiale. Segue il playbook NIST Artificial Intelligence Risk Management Framework (AI RMF) e NIST AI RMF Playbook. Si allinea anche al framework in Governance di Cloud Adoption Framework.

Queste linee guida consentono di integrare la gestione dei rischi di intelligenza artificiale in strategie di gestione dei rischi più ampie. Questa integrazione offre una gestione più coesa dei rischi per l'IA, la cybersecurity e la privacy per un approccio di governance unificato.

Diagramma che illustra il processo di adozione dell'intelligenza artificiale: strategia di intelligenza artificiale, piano di intelligenza artificiale, pronto per intelligenza artificiale, governance dell'intelligenza artificiale, gestione dell'intelligenza artificiale e intelligenza artificiale sicura.

Valutare i rischi dell'organizzazione di intelligenza artificiale

La valutazione dei rischi di intelligenza artificiale identifica e risolve i potenziali rischi introdotti dalle tecnologie di intelligenza artificiale. Questo processo crea fiducia nei sistemi di intelligenza artificiale e riduce le conseguenze impreviste. Affrontare i rischi aziendali garantisce che le distribuzioni di intelligenza artificiale siano allineate ai valori, alla tolleranza di rischio e agli obiettivi operativi dell'organizzazione.

  • Comprendere i carichi di lavoro di intelligenza artificiale. Per ridurre i rischi di intelligenza artificiale, è necessario comprendere i carichi di lavoro di intelligenza artificiale. Chiarire l'ambito e lo scopo di ogni carico di lavoro di intelligenza artificiale, è possibile mappare i rischi associati. Questo chiarimento deve includere eventuali presupposti e limitazioni correlati al carico di lavoro di intelligenza artificiale.

  • Usare i principi di IA responsabile per identificare i rischi. Questi principi forniscono un framework per la valutazione dei rischi di IA. Usare la tabella seguente per identificare e mitigare i rischi tramite una valutazione strutturata dei principi di IA.

    Principio dell'IA responsabile Definizione Domanda di valutazione dei rischi
    Privacy e sicurezza dell'intelligenza artificiale I carichi di lavoro di intelligenza artificiale devono rispettare la privacy e essere sicuri. In che modo i carichi di lavoro di intelligenza artificiale possono gestire i dati sensibili o diventare vulnerabili alle violazioni della sicurezza?
    Affidabilità e sicurezza I carichi di lavoro di intelligenza artificiale devono essere eseguiti in modo sicuro e affidabile. In quali situazioni i carichi di lavoro di intelligenza artificiale potrebbero non funzionare in modo sicuro o produrre risultati inaffidabili?
    Equità I carichi di lavoro di intelligenza artificiale devono trattare le persone in modo equo. In che modo i carichi di lavoro di intelligenza artificiale possono comportare un trattamento diverso o un pregiudizio imprevisto nel processo decisionale?
    Inclusione I carichi di lavoro di intelligenza artificiale devono essere inclusivi e potenti. In che modo alcuni gruppi possono essere esclusi o svantaggiati nella progettazione o nella distribuzione dei carichi di lavoro di intelligenza artificiale?
    Trasparenza I carichi di lavoro di intelligenza artificiale devono essere comprensibili. Quali aspetti del processo decisionale dell'IA potrebbero essere difficili da comprendere o spiegare agli utenti?
    Responsabilità Gli utenti devono essere responsabili dei carichi di lavoro di intelligenza artificiale. Dove potrebbe non essere chiaro o difficile stabilire nello sviluppo o nell'uso dell'IA?
  • Identificare i rischi di intelligenza artificiale. Per iniziare, valutare i rischi di sicurezza dei carichi di lavoro di intelligenza artificiale, incluse potenziali violazioni dei dati, accesso non autorizzato o uso improprio. Consultare gli stakeholder per individuare rischi meno visibili e valutare gli impatti qualitativi e quantitativi, inclusi i rischi di reputazione, per determinare la tolleranza ai rischi dell'organizzazione.

  • Identificare i rischi dalle dipendenze esterne. Valutare i rischi correlati a origini dati, software e integrazioni di terze parti. Risolvere problemi come vulnerabilità di sicurezza, distorsioni e rischi di proprietà intellettuale stabilendo criteri che garantiscono l'allineamento con gli standard di privacy e conformità dell'organizzazione.

  • Valutare i rischi di integrazione. Valutare i carichi di lavoro di intelligenza artificiale si integrano con carichi di lavoro e processi esistenti. Documentare potenziali rischi, ad esempio dipendenze da altri carichi di lavoro, maggiore complessità o incompatibilità che potrebbero influire sulle funzionalità.

Documentare i criteri di governance dell'intelligenza artificiale

I criteri di governance dell'IA forniscono un framework strutturato per l'utilizzo responsabile dell'IA. Questi criteri allineano le attività di IA agli standard etici, ai requisiti normativi e agli obiettivi aziendali. La documentazione dei criteri garantisce linee guida chiare per la gestione di modelli, dati e operazioni di intelligenza artificiale.

Area dei criteri di governance dell'intelligenza artificiale Raccomandazioni sui criteri di governance dell'intelligenza artificiale
Definire i criteri per la selezione e l'onboarding dei modelli Definire i criteri per la selezione dei modelli di intelligenza artificiale. I criteri devono definire i criteri per la scelta dei modelli che soddisfano valori, funzionalità e vincoli di costo dell'organizzazione. Esaminare i modelli potenziali per l'allineamento con la tolleranza di rischio e i requisiti di attività previsti.

Eseguire l'onboarding di nuovi modelli con criteri strutturati. Un processo formale per l'onboarding dei modelli mantiene la coerenza nella giustificazione, nella convalida e nell'approvazione del modello. Usare gli ambienti sandbox per gli esperimenti iniziali, quindi convalidare ed esaminare i modelli nel catalogo di produzione per evitare la duplicazione.
Definire i criteri per l'uso di strumenti e dati di terze parti Impostare i controlli per gli strumenti di terze parti. Un processo di verifica per gli strumenti di terze parti protegge dai rischi di sicurezza, conformità e allineamento. I criteri devono includere linee guida per la privacy dei dati, la sicurezza e gli standard etici quando si usano set di dati esterni.

Definire gli standard di riservatezza dei dati. Mantenere separati i dati sensibili e pubblici è essenziale per mitigare i rischi di IA. Creare criteri per la gestione e la separazione dei dati.

Definire gli standard di qualità dei dati. Un "set di dati d'oro" fornisce un benchmark affidabile per il test e la valutazione del modello di intelligenza artificiale. Definire criteri chiari per la coerenza e la qualità dei dati per garantire output affidabili e prestazioni elevate.
Definire i criteri per la gestione e il monitoraggio dei modelli Specificare la frequenza di ripetizione del training in base al caso d'uso. La ripetizione frequente del training supporta l'accuratezza per i carichi di lavoro di intelligenza artificiale ad alto rischio. Definire linee guida che considerino il caso d'uso e il livello di rischio di ogni modello, in particolare per settori come il settore sanitario e finanziario.

Monitorare la riduzione delle prestazioni. Il monitoraggio delle prestazioni del modello nel tempo consente di rilevare i problemi prima che influiscano sui risultati. I benchmark dei documenti e, se le prestazioni di un modello diminuisce, avviano un processo di ripetizione del training o revisione.
Definire i criteri per la conformità alle normative Rispettare i requisiti legali regionali. Comprendere le leggi regionali garantisce che le operazioni di intelligenza artificiale rimangano conformi tra le posizioni. Ricercare le normative applicabili per ogni area di distribuzione, ad esempio leggi sulla privacy dei dati, standard etici e normative del settore.

Sviluppare criteri specifici dell'area. Adattare i criteri di intelligenza artificiale alle considerazioni a livello di area supporta la conformità agli standard locali. I criteri possono includere il supporto linguistico, i protocolli di archiviazione dei dati e gli adattamenti culturali.

Adattare l'intelligenza artificiale per la variabilità a livello di area. La flessibilità nei carichi di lavoro di intelligenza artificiale consente di rettifiche di funzionalità specifiche della posizione. Per le operazioni globali, gli adattamenti specifici dell'area del documento, ad esempio i dati di training localizzati e le restrizioni delle funzionalità.
Definire i criteri per la condotta degli utenti Definire strategie di mitigazione dei rischi per l'uso improprio. I criteri di prevenzione dell'uso improprio consentono di proteggersi da danni intenzionali o involontari. Delineare possibili scenari di uso improprio e incorporare controlli, ad esempio funzionalità limitate o funzionalità di rilevamento improprio.

Impostare le linee guida per la condotta degli utenti. I contratti utente chiarisce i comportamenti accettabili durante l'interazione con il carico di lavoro di intelligenza artificiale, riducendo il rischio di uso improprio. Bozza di condizioni d'uso chiare per comunicare gli standard e supportare l'interazione responsabile dell'IA.
Definire i criteri per l'integrazione e la sostituzione dell'intelligenza artificiale Strutturare i criteri di integrazione. Le linee guida di integrazione garantiscono che i carichi di lavoro di intelligenza artificiale mantengano l'integrità e la sicurezza dei dati durante l'interfaccia del carico di lavoro. Specificare i requisiti tecnici, i protocolli di condivisione dei dati e le misure di sicurezza.

Pianificare la transizione e la sostituzione. I criteri di transizione forniscono una struttura quando si sostituiscono i processi precedenti con carichi di lavoro di intelligenza artificiale. Delineare i passaggi per la suddivisione in fasi dei processi legacy, del personale di formazione e del monitoraggio delle prestazioni durante il cambiamento.

Applicare i criteri di governance dell'intelligenza artificiale

L'applicazione dei criteri di governance dell'IA garantisce procedure di IA coerenti ed etiche all'interno di un'organizzazione. Strumenti automatizzati e interventi manuali supportano la conformità dei criteri tra le distribuzioni. L'applicazione corretta consente di mantenere la conformità e di ridurre al minimo l'errore umano.

  • Automatizzare l'applicazione dei criteri laddove possibile Usare piattaforme come Criteri di Azure e Microsoft Purview per applicare automaticamente i criteri nelle distribuzioni di intelligenza artificiale, riducendo l'errore umano. Valutare regolarmente le aree in cui l'automazione può migliorare la conformità ai criteri.

  • Applicare manualmente i criteri di intelligenza artificiale. Fornire formazione sui rischi e sulla conformità dell'IA per i dipendenti per assicurarsi di comprendere il proprio ruolo nella governance dell'IA. I regolari workshop mantengono aggiornato il personale sui criteri di IA e controlli periodici aiutano a monitorare l'adesione e identificare le aree per il miglioramento.

  • Usare linee guida per la governance specifiche del carico di lavoro. Sono disponibili indicazioni dettagliate sulla sicurezza per i carichi di lavoro di intelligenza artificiale nei servizi della piattaforma Di Azure (PaaS) e nell'infrastruttura di Azure (IaaS). Usare queste linee guida per gestire modelli, risorse e dati di intelligenza artificiale all'interno di questi tipi di carico di lavoro.

Monitorare i rischi dell'organizzazione di intelligenza artificiale

Il monitoraggio dei rischi di IA consente alle organizzazioni di identificare i rischi emergenti e risolverli tempestivamente. Le valutazioni regolari assicurano che i carichi di lavoro di intelligenza artificiale funzionino come previsto. Il monitoraggio coerente aiuta le organizzazioni ad adattarsi alle condizioni in continua evoluzione e impedire effetti negativi dai sistemi di intelligenza artificiale.

  • Stabilire procedure per la valutazione dei rischi in corso. Configurare revisioni regolari per identificare nuovi rischi, coinvolgere gli stakeholder per valutare l'impatto più ampio dell'IA. Sviluppare un piano di risposta per i problemi che si verificano per consentire la rivalutazione dei rischi e le modifiche necessarie.

  • Sviluppare un piano di misurazione. Un piano di misurazione chiaro garantisce una raccolta e un'analisi coerenti dei dati. Definire metodi di raccolta dati, ad esempio la registrazione automatica per metriche operative e sondaggi per il feedback qualitativo. Stabilire la frequenza e l'ambito delle misurazioni, concentrandosi sulle aree ad alto rischio e creare cicli di feedback per perfezionare le valutazioni dei rischi in base all'input degli stakeholder.

  • Quantificare e qualificare i rischi di IA. Scegliere metriche quantitative (tassi di errore, accuratezza) e indicatori qualitativi (feedback degli utenti, preoccupazioni etiche) allineati allo scopo del carico di lavoro. Eseguire il benchmark delle prestazioni rispetto agli standard del settore per tenere traccia degli impatti, dell'affidabilità e delle prestazioni dell'IA.

  • Documentare e segnalare i risultati delle misurazioni. La documentazione e i report regolari migliorano la trasparenza e la responsabilità. Creare report standardizzati che riepilogino metriche, risultati e eventuali anomalie per guidare il processo decisionale. Condividere queste informazioni dettagliate con gli stakeholder, usandole per perfezionare le strategie di mitigazione dei rischi e migliorare le distribuzioni future.

  • Stabilire processi di revisione indipendenti. Le revisioni indipendenti regolari forniscono valutazioni obiettivi dei rischi e della conformità dell'IA, usando revisori interni esterni o non condivisi. Usare i risultati per rafforzare le valutazioni dei rischi e perfezionare i criteri di governance.

Passaggio successivo

Mitigazioni dei rischi di intelligenza artificiale di esempio

La tabella seguente elenca alcuni rischi comuni di intelligenza artificiale e fornisce una strategia di mitigazione e un criterio di esempio per ognuno di essi. La tabella non elenca un set completo di rischi.

ID rischio Rischio di intelligenza artificiale Strategia di riduzione del rischio Criteri
R001 Mancata conformità alle leggi sulla protezione dei dati Usare Microsoft Purview Compliance Manager per valutare la conformità dei dati. Il ciclo di vita dello sviluppo della sicurezza deve essere implementato per garantire che tutto lo sviluppo e la distribuzione di intelligenza artificiale siano conformi alle leggi sulla protezione dei dati.
R005 Mancanza di trasparenza nel processo decisionale dell'IA Applicare un framework e un linguaggio standardizzati per migliorare la trasparenza nei processi di intelligenza artificiale e nel processo decisionale. Il framework di gestione dei rischi dell'IA NIST deve essere adottato e tutti i modelli di intelligenza artificiale devono essere documentati accuratamente per mantenere la trasparenza di tutti i modelli di intelligenza artificiale.
R006 Stime imprecise Usare Azure Gestione API per tenere traccia delle metriche del modello di intelligenza artificiale per garantire l'accuratezza e l'affidabilità. È necessario usare il monitoraggio continuo delle prestazioni e il feedback umano per garantire che le stime del modello di intelligenza artificiale siano accurate.
R007 Attacco antagonista Usare PyRIT per testare i carichi di lavoro di intelligenza artificiale per individuare vulnerabilità e rafforzare le difese. Per proteggere i carichi di lavoro di intelligenza artificiale da attacchi antagonisti, è necessario usare il test del team rosso security development and AI red team testing (Ciclo di vita dello sviluppo della sicurezza e del team rosso di intelligenza artificiale).
R008 Minacce Insider Usare Microsoft Entra ID per applicare controlli di accesso rigorosi basati su ruoli e appartenenze ai gruppi per limitare l'accesso insider ai dati sensibili. Per attenuare le minacce interne, è necessario usare la gestione rigorosa delle identità e degli accessi e il monitoraggio continuo.
R009 Costi imprevisti Usare Gestione costi Microsoft per tenere traccia dell'utilizzo di CPU, GPU, memoria e archiviazione per garantire un utilizzo efficiente delle risorse e prevenire picchi di costi. Per gestire i costi imprevisti, è necessario usare il monitoraggio e l'ottimizzazione dell'utilizzo delle risorse e il rilevamento automatizzato dei sovraccarichi dei costi.
R010 Sottoutilizzazione delle risorse di intelligenza artificiale Monitorare le metriche del servizio di intelligenza artificiale, ad esempio i tassi di richiesta e i tempi di risposta, per ottimizzare l'utilizzo. Le metriche delle prestazioni e la scalabilità automatizzata devono essere usate per ottimizzare l'utilizzo delle risorse di intelligenza artificiale.