Condividi tramite


Intelligenza artificiale responsabile nei carichi di lavoro di Azure

L'obiettivo dell'IA responsabile nella progettazione del carico di lavoro è garantire che l'uso degli algoritmi di intelligenza artificiale sia equo, trasparentee inclusivo. I principi di sicurezza di Microsoft Azure Well-Architected Framework sono correlati e sono incentrati sulla riservatezza e sull'integrità . Le misure di sicurezza devono essere applicate per mantenere la privacy degli utenti, proteggere i dati e salvaguardare l'integrità della progettazione. La progettazione non deve essere utilizzata in modo improprio per scopi imprevisti.

Nei carichi di lavoro di intelligenza artificiale i modelli usano spesso logica opaca per prendere decisioni. Gli utenti devono fidarsi delle funzionalità del sistema e sentirsi sicuri che i modelli preseno queste decisioni in modo responsabile. È necessario evitare comportamenti inaccettabili, ad esempio manipolazione, tossicità del contenuto, violazione ip e risposte fabbricate.

Si consideri un caso d'uso in cui un'azienda di intrattenimento multimediale vuole fornire raccomandazioni usando i modelli di intelligenza artificiale. Se l'azienda non implementa l'IA responsabile e i protocolli di sicurezza appropriati, un attore malintenzionato potrebbe assumere il controllo dei modelli. Il modello potrebbe consigliare il contenuto che causa danni. Per l'organizzazione, questo comportamento può causare danni al marchio, ambienti non sicuri e problemi legali. Pertanto, mantenere la vigilanza appropriata in tutto il ciclo di vita del sistema è essenziale e non negoziabile.

È consigliabile classificare in ordine di priorità la gestione della sicurezza e del carico di lavoro e tenere presenti i risultati umani quando si effettuano decisioni di progettazione. Acquisire familiarità con framework Microsoft per di intelligenza artificiale responsabile e assicurarsi di misurare e implementare i principi del framework nella progettazione. L'immagine seguente illustra i concetti di base del framework.

Diagramma che mostra il framework Microsoft per l'IA responsabile.

Importante

L'accuratezza delle stime e le metriche per l'IA responsabile sono in genere interconnesse. Migliorando l'accuratezza di un modello, è possibile migliorarne l'equità e l'allineamento con la realtà. L'intelligenza artificiale responsabile è spesso allineata all'accuratezza, ma la precisione da sola non include tutte le considerazioni sulla sicurezza. È fondamentale convalidare questi principi in modo responsabile.

Questo articolo fornisce raccomandazioni sul processo decisionale responsabile, sulla convalida dell'input dell'utente e su come garantire un'esperienza utente sicura. Fornisce inoltre indicazioni sulla sicurezza dei dati per proteggere i dati utente.

Consigli

Nella tabella seguente sono riepilogate le raccomandazioni contenute in questo articolo.

Suggerimento Descrizione
Sviluppare politiche che applicano pratiche morali in ogni fase del ciclo di vita. Includere gli elementi dell'elenco di controllo che dichiarano in modo esplicito i requisiti di sicurezza e sono personalizzati per il contesto del carico di lavoro. Gli esempi includono trasparenza dei dati utente, configurazione del consenso e procedure per la gestione del diritto da dimenticare (RTBF).

Sviluppare i criteri per l'IA responsabile
Rafforzare la governance sulle politiche per l'intelligenza artificiale responsabile
Proteggere i dati utente con l'obiettivo di ottimizzare la privacy. Raccogliere solo ciò che è necessario e con il consenso dell'utente appropriato. Applicare controlli tecnici per proteggere i profili degli utenti, i relativi dati e l'accesso a tali dati.

Gestire i dati utente in modo appropriato
Esaminare i dati in ingresso e in uscita
mantenere chiare e comprensibili le decisioni sull'IA. Spiegare chiaramente il funzionamento degli algoritmi di raccomandazione. Fornire agli utenti informazioni dettagliate sull'utilizzo dei dati e sul processo decisionale algoritmico per aiutarli a comprendere e considerare attendibile il processo.

Rendere l'esperienza utente sicura

Sviluppare criteri per l'IA responsabile

Documentare l'approccio all'utilizzo responsabile dell'IA. Definire in modo esplicito i criteri applicati in ogni fase del ciclo di vita in modo che il team del carico di lavoro comprenda le proprie responsabilità. Gli standard Microsoft per l'IA responsabile forniscono linee guida, ma è necessario definire ciò che queste linee guida implicano in modo specifico per il contesto.

Ad esempio, i criteri devono includere elementi di elenco di controllo per meccanismi che supportano la trasparenza dei dati utente e la configurazione del consenso. Idealmente, questi meccanismi dovrebbero consentire agli utenti di rifiutare esplicitamente l'inclusione dei dati. Tutte le pipeline di dati, l'analisi, il training del modello e altre fasi devono rispettare tale scelta. Un altro esempio è costituito dalle procedure per la gestione di RTBF. Per prendere decisioni informate, consultare il reparto etico e il team legale dell'organizzazione.

Creare criteri trasparenti per l'uso dei dati e il processo decisionale algoritmico per aiutare gli utenti a comprendere e considerare attendibile il processo. Documentare queste decisioni per mantenere una storia chiara per potenziali controversie future.

L'implementazione responsabile dell'IA include tre ruoli chiave: il team di ricerca, il team di criteri e il team di progettazione. La collaborazione tra questi team deve essere operativa. Se l'organizzazione ha un team esistente, utilizza il loro lavoro. In caso contrario, stabilire queste procedure manualmente.

Ogni team deve avere le proprie responsabilità. Per esempio:

  • Il team di ricerca conduce l'individuazione dei rischi consultando linee guida organizzative, standard del settore, leggi, normative e tattiche note del red team.

  • Il team delle politiche sviluppa politiche specifiche per il carico di lavoro. Incorporano linee guida dall'organizzazione madre e dalle normative governative.

  • Il team di progettazione implementa i criteri nei processi e nei risultati finali. Il team convalida e verifica la conformità.

Ogni team formalizza le linee guida, ma il team del carico di lavoro deve essere responsabile delle proprie procedure documentate. Il team deve documentare chiaramente eventuali passaggi aggiuntivi o deviazioni intenzionali per assicurarsi che non ci siano ambiguità su ciò che è consentito. Il team deve anche essere trasparente su eventuali potenziali carenze o risultati imprevisti nella soluzione.

Applicare la gestione alle politiche per un'IA responsabile

Progettare il carico di lavoro in modo che sia conforme alla governance organizzativa e normativa. Ad esempio, se la trasparenza è un requisito aziendale, determinare come si applica al carico di lavoro. Identificare le aree della progettazione, del ciclo di vita, del codice o di altri componenti in cui è necessario introdurre funzionalità di trasparenza per soddisfare tale standard.

Comprendere la governance, la responsabilità, i consigli di revisione e i mandati di creazione di report necessari. Assicurarsi che il consiglio di governance approvi e approvi formalmente i disegni dei carichi di lavoro per evitare riprogettazioni e attenuare le preoccupazioni relative alla sicurezza o alla privacy. Potrebbe essere necessario esaminare più livelli di approvazione. Il diagramma seguente illustra una struttura di governance tipica in un'organizzazione.

Diagramma che mostra una struttura di governance tipica in un'organizzazione.

Per ulteriori informazioni sui criteri e sui responsabili dell'approvazione dell'organizzazione, vedere Definire una strategia di IA responsabile.

Rendere l'esperienza utente sicura

Le esperienze utente devono essere basate sulle linee guida del settore. Usare Microsoft Human-AI Experiences Design Library, che include principi e fornisce linee guida per l'implementazione. Fornisce anche esempi di prodotti Microsoft e altre fonti di settore.

Per tutto il ciclo di vita dell'interazione dell'utente ci sono responsabilità del carico di lavoro. Iniziano con l'intento di un utente di usare il sistema e continuano durante una sessione e durante eventuali interruzioni causate dagli errori di sistema. Considerare le procedure seguenti:

  • Costruire trasparenza. Rendere gli utenti consapevoli del modo in cui il sistema genera risposte alla query.

    Includere collegamenti a origini dati consultate dal modello per le stime. Questa pratica aumenta la fiducia degli utenti mostrando loro le origini delle informazioni. La progettazione dei dati deve includere queste origini nei metadati. Ad esempio, quando l'agente di orchestrazione in un'applicazione aumentata di recupero esegue una ricerca, recupera 20 blocchi di documento e invia i primi 10 blocchi al modello come contesto. I primi 10 blocchi appartengono a tre diversi documenti. L'interfaccia utente può quindi fare riferimento a questi tre documenti di origine quando visualizza la risposta del modello. Questa trasparenza aumenta la fiducia degli utenti.

    La trasparenza diventa più importante quando si usano agenti, che fungono da intermediari tra interfacce front-end e sistemi back-end. Ad esempio, in un sistema di creazione di ticket, il codice di orchestrazione interpreta la finalità dell'utente e effettua chiamate API (Application Programming Interface) agli agenti per recuperare le informazioni necessarie. L'esposizione di queste interazioni consente all'utente di conoscere le azioni del sistema.

    Per i flussi di lavoro automatizzati che includono più agenti, creare file di log che registrano ogni passaggio. I file di log consentono di identificare e correggere gli errori. Forniscono inoltre agli utenti una spiegazione delle decisioni, che operano sulla trasparenza.

    Attenzione

    Quando si implementano raccomandazioni sulla trasparenza, evitare di sovraccaricare l'utente con troppe informazioni. Adottare un approccio graduale usando metodi di interfaccia utente con interruzione minima.

    Ad esempio, visualizzare un tooltip che mostra un punteggio di confidenza del modello. È possibile incorporare collegamenti, ad esempio collegamenti a documenti di origine, che gli utenti possono selezionare per altri dettagli. Questo metodo avviato dall'utente mantiene l'interfaccia utente non invadente e consente agli utenti di ottenere ulteriori informazioni solo se scelgono di farlo.

  • Raccogliere commenti e suggerimenti. Implementare meccanismi di feedback.

    Evitare di sovraccaricare gli utenti con questionari completi dopo ogni risposta. Usare invece meccanismi di feedback rapidi e semplici, ad esempio pollici su o pollice verso il basso o un sistema di classificazione per aspetti specifici della risposta su una scala da 1 a 5. Questi metodi consentono di migliorare il sistema nel tempo e di consentire un feedback granulare senza essere intrusivi. Tenere presente potenziali problemi di equità nei commenti e suggerimenti perché potrebbero esserci motivi secondari alla base delle risposte degli utenti.

    L'implementazione di un meccanismo di feedback influisce sull'architettura a causa della necessità di archiviazione dei dati. Considerare il feedback come i dati degli utenti e applicare livelli di controllo della privacy in base alle esigenze.

    Oltre al feedback delle risposte, raccogliere commenti e suggerimenti sull'efficacia dell'esperienza utente. Raccogli le metriche di coinvolgimento tramite lo stack di monitoraggio del sistema.

Rendere operative le misure di sicurezza dei contenuti

Integrare la sicurezza dei contenuti in ogni fase del ciclo di vita dell'intelligenza artificiale usando codice della soluzione personalizzato, strumenti appropriati e procedure di sicurezza efficaci. Considerare le strategie seguenti:

  • Rendere anonimi i dati. Man mano che i dati passano dall'inserimento al training o alla valutazione, implementare controlli lungo la strada per ridurre al minimo il rischio di perdita di informazioni personali ed evitare l'esposizione dei dati utente non elaborati.

  • Moderare il contenuto. Usare l'API di sicurezza del contenuto che valuta le richieste e le risposte in tempo reale. Assicurarsi che queste API siano raggiungibili.

  • Identificare e attenuare le minacce. Applicare procedure di sicurezza note agli scenari di intelligenza artificiale. Ad esempio, eseguire la modellazione delle minacce e documentare le minacce e come sono state attenuate. Le procedure di sicurezza tipiche, come gli esercizi red team, si applicano ai carichi di lavoro di intelligenza artificiale. I team rossi possono verificare se i modelli possono essere modificati per generare contenuto dannoso. Queste attività devono essere integrate nelle operazioni di IA.

    Per informazioni, vedere Pianificare il red teaming per modelli linguistici di grandi dimensioni e le applicazioni.

  • Usare le metriche corrette. Usare le metriche che misurano efficacemente il comportamento del modello. Le metriche variano a seconda del tipo di modello di intelligenza artificiale. In alcuni casi, la misurazione dei modelli generativi potrebbe non essere applicabile ai modelli di regressione. Ad esempio, un modello stima l'aspettativa di vita e i risultati influiscono sui tassi di assicurazione. I problemi di equità in questo modello possono causare danni correlati all'equità. Questo problema deriva dalle deviazioni nei test delle metriche principali perché le metriche di equità e accuratezza sono in genere interconnesse. Migliorare l'accuratezza per ridurre i danni correlati all'equità.

  • Aggiungere la strumentazione appropriata. I risultati del modello di intelligenza artificiale devono essere spiegabili. È necessario giustificare e tracciare il modo in cui vengono effettuate le inferenze, inclusi i dati di training, le funzionalità calcolate e i dati di base. Nell'intelligenza artificiale discriminante, è possibile giustificare le decisioni passo dopo passo. Tuttavia, per i modelli generativi, la spiegazione dei risultati può essere complessa. Documentare il processo decisionale per affrontare potenziali implicazioni legali e fornire trasparenza.

    È consigliabile implementare questo aspetto di spiegazione nell'intero ciclo di vita dell'IA. La pulizia dei dati, la derivazione, i criteri di selezione e l'elaborazione sono fasi critiche in cui è necessario tenere traccia delle decisioni.

Strumenti

Integrare strumenti per la sicurezza dei contenuti e la tracciabilità dei dati, ad esempio Microsoft Purview. Le API di Sicurezza dei contenuti di Azure per intelligenza artificiale possono essere chiamate dai test per facilitare i test di sicurezza dei contenuti.

Azure AI Foundry fornisce metriche che valutano il comportamento del modello. Per altre informazioni, vedere Valutazione e monitoraggio delle metriche per l'intelligenza artificiale generativa.

Per i modelli di training, vedere le metriche di fornite da Azure Machine Learning.

Esaminare i dati in ingresso e in uscita

Gli attacchi prompt injection, ad esempio il jailbreaking, rappresentano un problema comune per i carichi di lavoro di intelligenza artificiale. In questo caso, alcuni utenti potrebbero tentare di usare in modo improprio il modello per scopi imprevisti. Per garantire la sicurezza, controllare i dati per evitare attacchi e filtrare contenuti inappropriati. Applicare questa analisi sia all'input dell'utente che alle risposte del sistema per garantire una moderazione completa del contenuto nei flussi in ingresso e nei flussi in uscita.

In alcuni casi, è necessario effettuare più chiamate di modello, ad esempio tramite il servizio OpenAI di Azure, per gestire una singola richiesta client. In questi scenari, l'applicazione di controlli di sicurezza dei contenuti a ogni chiamata può essere costosa e non necessaria. Valutare la possibilità di centralizzare il funzionamento dell'architettura mantenendo la sicurezza come responsabilità lato server. Si supponga che un'architettura disponga di un gateway davanti all'endpoint di inferenza del modello per eseguire l'offload di funzionalità back-end specifiche. È possibile progettare tale gateway per gestire i controlli di sicurezza del contenuto per le richieste e le risposte che il back-end potrebbe non supportare in modo nativo. Anche se un gateway è una soluzione comune, un livello di orchestrazione può gestire queste attività in modo efficace in architetture più semplici. In entrambi i casi, è possibile applicare selettivamente questi controlli quando necessario, ottimizzando le prestazioni e i costi.

Le ispezioni devono essere multimodali e coprire vari formati. Quando si usano input multipli, ad esempio immagini, è importante analizzarli per individuare i messaggi nascosti che potrebbero essere dannosi o violenti. Questi messaggi potrebbero non essere immediatamente visibili, quindi richiedono un'attenta ispezione. A questo scopo, usare strumenti come le API Content Safety.

Per applicare le politiche di privacy e sicurezza dei dati, esaminare i dati utente e i dati di base per verificare la conformità alle normative sulla privacy. Assicurarsi che i dati vengano sanificati o filtrati mentre passano attraverso il sistema. Ad esempio, i dati delle conversazioni precedenti del supporto clienti possono fungere da dati di base. Questi dati devono essere sanificati prima del riutilizzo.

Gestire i dati utente in modo appropriato

Le procedure responsabili comportano un'attenta gestione dei dati degli utenti. Questa gestione include sapere quando usare i dati e quando evitare di basarsi sui dati utente.

  • Praticare l'inferenza senza condividere i dati utente. Per condividere in modo sicuro i dati utente con altre organizzazioni per informazioni dettagliate, usare un modello clearinghouse. In questo scenario, le organizzazioni forniscono dati a un partner attendibile che esegue il training del modello usando i dati aggregati. Tutti gli istituti possono quindi usare questo modello e condividere informazioni dettagliate senza esporre singoli set di dati. L'obiettivo è usare le funzionalità di inferenza del modello senza condividere dati di training dettagliati.

  • Promuovere la diversità e l'inclusione. Quando i dati utente sono necessari, usare una vasta gamma di dati, inclusi generi e creatori sottorappresentati, per attenuare i danni correlati all'equità. Implementare funzionalità che incoraggiano gli utenti a esplorare contenuti nuovi e vari. Monitorare l'utilizzo in modo continuativo e adeguare le raccomandazioni per evitare di sovrarappresentare un unico tipo di contenuto.

  • Rispettare l'rtbf. Evitare di usare i dati utente quando possibile. Per garantire la conformità con rtbf, è necessario disporre delle misure necessarie per assicurarsi che i dati utente vengano eliminati diligentemente.

    Per garantire la conformità, potrebbe essere necessario rimuovere i dati utente dal sistema. Per i modelli più piccoli, è possibile rimuovere i dati utente ripetendo il training del modello usando dati che escludono informazioni personali. Per i modelli più grandi, che possono essere costituiti da diversi modelli più piccoli, sottoposti a training indipendentemente, il processo è più complesso e il costo e lo sforzo sono significativi. Cercare indicazioni legali ed etiche sulla gestione di queste situazioni e assicurarsi di includere le linee guida nei criteri di per l'IA responsabile.

  • Conservare i dati in modo responsabile. Quando l'eliminazione dei dati non è possibile, ottenere il consenso esplicito dell'utente per la raccolta dei dati e fornire criteri di privacy chiari. Raccogliere e conservare i dati solo quando è assolutamente necessario. Disporre di operazioni per rimuovere i dati in modo aggressivo quando non sono più necessari. Ad esempio, cancellare la cronologia delle chat non appena pratico e rendere anonimi i dati sensibili prima della conservazione. Usare metodi di crittografia avanzati per i dati a riposo.

  • Supporto all'esplicabilità. Tenere traccia delle decisioni nel sistema per supportare i requisiti di spiegazione. Sviluppare spiegazioni chiare del funzionamento degli algoritmi di raccomandazione. Fornire agli utenti informazioni dettagliate sul motivo per cui è consigliabile usare contenuti specifici. L'obiettivo è garantire che i carichi di lavoro di intelligenza artificiale e i relativi risultati siano trasparenti e giustificabili descrivendo in dettaglio come prendere decisioni, quali dati usano e come sono stati sottoposti a training i modelli.

  • Crittografare i dati utente. I dati di input devono essere crittografati in ogni fase della pipeline di elaborazione dati dal momento in cui l'utente immette i dati. Queste fasi includono i dati durante lo spostamento da un punto a un altro, i dati archiviati e i dati inferenziati, se necessario. Bilanciare la sicurezza e le funzionalità e mirare a mantenere privati i dati durante il ciclo di vita.

  • Fornire controlli di accesso affidabili. Diversi tipi di identità possono potenzialmente accedere ai dati utente. Implementare il controllo degli accessi in base al ruolo sia per il piano di controllo che per il piano dati in modo da coprire la comunicazione tra utente e sistema.

    Mantenere una segmentazione utente appropriata per proteggere la privacy. Ad esempio, Microsoft 365 Copilot può cercare e fornire risposte in base a documenti e messaggi di posta elettronica specifici di un utente, assicurando al contempo che sia accessibile solo il contenuto pertinente a tale utente.

  • Ridurre la superficie. Una strategia fondamentale del pilastro Well-Architected Framework Security consiste nel ridurre al minimo la superficie di attacco e rafforzare le risorse. È consigliabile applicare questa strategia alle procedure standard di sicurezza degli endpoint controllando rigorosamente gli endpoint API, esponendo solo i dati essenziali ed evitando informazioni estranee nelle risposte. Bilanciare la scelta di progettazione tra flessibilità e controllo.

    Assicurarsi che non siano presenti endpoint anonimi. In generale, evitare di concedere agli utenti un maggiore controllo del necessario. Nella maggior parte degli scenari, gli utenti non devono modificare gli iperparametri ad eccezione degli ambienti sperimentali. Per i casi d'uso tipici, ad esempio l'interazione con un agente virtuale, gli utenti devono controllare solo gli aspetti essenziali per garantire la sicurezza limitando il controllo non necessario.

Per altre informazioni, vedere progettazione di applicazioni per carichi di lavoro di intelligenza artificiale in Azure.

Passaggio successivo