Condividi tramite


IA sicura: raccomandazioni per le organizzazioni che proteggono i carichi di lavoro di intelligenza artificiale in Azure

Questo articolo descrive il processo aziendale per proteggere i carichi di lavoro di intelligenza artificiale. Si concentra sulla riservatezza, l'integrità e la disponibilità (CIA) dell'IA. Le procedure di sicurezza efficaci riducono il rischio di compromissione salvaguardando la riservatezza, l'integrità e la disponibilità di modelli e dati di intelligenza artificiale. Un ambiente di intelligenza artificiale sicuro è allineato anche agli obiettivi di sicurezza aziendali e migliora la fiducia nei processi basati sull'intelligenza artificiale.

Diagramma che illustra il processo di adozione dell'intelligenza artificiale: strategia di intelligenza artificiale, piano di intelligenza artificiale, pronto per intelligenza artificiale, governance dell'intelligenza artificiale, gestione dell'intelligenza artificiale e intelligenza artificiale sicura.

Valutare i rischi per la sicurezza dell'IA

La valutazione dei rischi per la sicurezza dell'intelligenza artificiale comporta l'identificazione e la valutazione di potenziali vulnerabilità che potrebbero influire sui carichi di lavoro di intelligenza artificiale. Affrontare in modo proattivo questi rischi consente di prevenire violazioni, manipolazione e uso improprio, che rafforza l'affidabilità delle applicazioni di intelligenza artificiale. Questo approccio supporta anche gli obiettivi dell'organizzazione proteggendo i dati sensibili e mantenendo la fiducia degli stakeholder.

  • Identificare i rischi comuni per la sicurezza dell'intelligenza artificiale. Usare risorse riconosciute come MITRE ATLAS, rischio di Machine Learning OWASP e rischio di intelligenza artificiale generativa OWASP per valutare regolarmente i rischi in tutti i carichi di lavoro di intelligenza artificiale. Per la gestione continuativa del comportamento di sicurezza, è consigliabile usare strumenti di sicurezza dell'intelligenza artificiale come la gestione del comportamento di sicurezza dell'intelligenza artificiale in Microsoft Defender per il cloud. Questi strumenti possono automatizzare il rilevamento e la correzione dei rischi generativi di intelligenza artificiale.

  • Identificare i rischi per i dati. La perdita o l'esposizione dei dati sensibili può avere un impatto significativo sugli stakeholder e sugli obblighi di conformità dell'organizzazione. Usare strumenti a livello aziendale come Gestione dei rischi Insider Microsoft Purview per valutare il rischio Insider e mantenere la sicurezza dei dati in tutta l'azienda. In tutti i carichi di lavoro di intelligenza artificiale, classificare e classificare in ordine di priorità i rischi in base alla riservatezza dei dati elaborati, archiviati o trasmessi.

  • Eseguire la modellazione delle minacce di intelligenza artificiale. Eseguire la modellazione delle minacce di intelligenza artificiale a livello aziendale usando framework come STRIDE per valutare potenziali vettori di attacco per tutti i carichi di lavoro di intelligenza artificiale. Aggiornare regolarmente i modelli di minaccia per adattarsi ai nuovi casi d'uso e alle minacce di intelligenza artificiale. Il centro di eccellenza dell'intelligenza artificiale deve prendere in considerazione la centralizzazione della modellazione delle minacce di intelligenza artificiale per garantire un approccio uniforme all'interno dell'organizzazione e mitigare i rischi associati a vari modelli di intelligenza artificiale, origini dati e processi.

  • Testare i modelli di intelligenza artificiale. Eseguire test red-team su modelli di intelligenza artificiale generativi e modelli non generici per valutare la vulnerabilità agli attacchi. Gli strumenti come PyRIT possono automatizzare questo processo per l'intelligenza artificiale generativa, in modo da poter sfidare gli output del modello in varie condizioni. Questo passaggio è altamente tecnico e richiede competenze dedicate per eseguire efficacemente.

Implementare i controlli di sicurezza dell'intelligenza artificiale

L'implementazione dei controlli di sicurezza dell'intelligenza artificiale significa stabilire criteri, procedure e strumenti che consentono di proteggere le risorse e i dati di intelligenza artificiale. Questi controlli consentono di garantire la conformità ai requisiti normativi e di proteggersi da accessi non autorizzati, supportando il funzionamento continuo e la privacy dei dati. Quando si applicano controlli coerenti tra carichi di lavoro di intelligenza artificiale, è possibile gestire la sicurezza in modo più efficace.

Proteggere le risorse di intelligenza artificiale

La protezione delle risorse di intelligenza artificiale include la gestione e la protezione dei sistemi, dei modelli e dell'infrastruttura che supportano le applicazioni di intelligenza artificiale. Questo passaggio riduce la probabilità di accesso non autorizzato e consente di standardizzare le procedure di sicurezza nell'intera organizzazione. Un inventario completo delle risorse consente un'applicazione coerente dei criteri di sicurezza e rafforza il controllo complessivo degli asset di intelligenza artificiale.

  • Stabilire un inventario centralizzato degli asset di intelligenza artificiale. La gestione di un inventario dettagliato e aggiornato delle risorse del carico di lavoro di intelligenza artificiale garantisce che sia possibile applicare i criteri di sicurezza in modo uniforme a tutti i carichi di lavoro di intelligenza artificiale. Compilare un inventario a livello aziendale di tutti i sistemi di intelligenza artificiale, i modelli, i set di dati e l'infrastruttura in Azure. Usare strumenti come Azure Resource Graph Explorer e Microsoft Defender per il cloud per automatizzare il processo di individuazione. Microsoft Defender per il cloud è possibile individuare carichi di lavoro di intelligenza artificiale generativi e in elementi di intelligenza artificiale pre-distribuzione.

  • Proteggere le piattaforme di intelligenza artificiale di Azure. Standardizzare l'applicazione delle baseline di sicurezza di Azure per ogni risorsa di intelligenza artificiale. Seguire le raccomandazioni sulla sicurezza in Guide ai servizi di Azure.

  • Usare linee guida per la governance specifiche del carico di lavoro. Sono disponibili indicazioni dettagliate sulla sicurezza per i carichi di lavoro di intelligenza artificiale nei servizi della piattaforma Di Azure (PaaS) e nell'infrastruttura di Azure (IaaS). Usare queste linee guida per proteggere modelli, risorse e dati di intelligenza artificiale all'interno di questi tipi di carico di lavoro.

Proteggere i dati di intelligenza artificiale

La protezione dei dati di intelligenza artificiale comporta la protezione dei dati usati e generati dai modelli di intelligenza artificiale. Le procedure efficaci per la sicurezza dei dati consentono di evitare accessi non autorizzati, perdite di dati e violazioni della conformità. Il controllo dell'accesso ai dati e la gestione di un catalogo dettagliato supportano anche il processo decisionale informato e riducono il rischio di esporre informazioni riservate.

  • Definire e gestire i limiti dei dati. Assicurarsi che i carichi di lavoro di intelligenza artificiale usino i dati appropriati per il livello di accesso. Le applicazioni di intelligenza artificiale accessibili a tutti i dipendenti devono elaborare solo i dati adatti a tutti i dipendenti. Le applicazioni di intelligenza artificiale con connessione Internet devono usare i dati appropriati per l'utilizzo pubblico. Usare set di dati o ambienti separati per applicazioni di intelligenza artificiale diverse per impedire l'accesso accidentale ai dati. Prendere in considerazione l'uso della suite di strumenti di sicurezza dei dati di Microsoft Purview per proteggere i dati.

  • Implementare controlli di accesso ai dati rigorosi. Assicurarsi che le applicazioni verifichino che gli utenti finali siano autorizzati ad accedere ai dati coinvolti nelle query. Evitare autorizzazioni di sistema generali per le azioni dell'utente. Opera in base al principio che, se l'IA può accedere a determinate informazioni, l'utente deve essere autorizzato ad accedervi direttamente.

  • Gestire un catalogo dati. Mantenere un catalogo aggiornato di tutti i dati connessi e usati dai sistemi di intelligenza artificiale, inclusi i percorsi di archiviazione e i dettagli di accesso. Analizzare ed etichettare regolarmente i dati per tenere traccia dei livelli di riservatezza e dell'idoneità, agevolando l'analisi e l'identificazione dei rischi. Prendere in considerazione l'uso di Microsoft Purview Data Catalog per eseguire il mapping e la governance dei dati.

  • Creare un piano di gestione delle modifiche di riservatezza dei dati. Tenere traccia dei livelli di riservatezza dei dati in quanto possono cambiare nel tempo. Usare il catalogo dati per monitorare le informazioni usate nei carichi di lavoro di intelligenza artificiale. Implementare un processo per trovare e rimuovere dati sensibili dai carichi di lavoro di intelligenza artificiale.

  • Proteggere gli artefatti di intelligenza artificiale. Riconoscere i modelli e i set di dati di intelligenza artificiale come proprietà intellettuale preziose e implementare misure per proteggerli di conseguenza. Archiviare modelli e set di dati di intelligenza artificiale dietro endpoint privati e in ambienti sicuri, ad esempio Archiviazione BLOB di Azure e aree di lavoro dedicate. Applicare criteri di accesso e crittografia rigorosi per proteggere gli artefatti di intelligenza artificiale da accessi non autorizzati o furti per evitare l'avvelenamento dei dati.

  • Proteggere i dati sensibili. Quando l'origine dati originale non è adatta per l'uso diretto, usare duplicati, copie locali o subset che contengono solo le informazioni necessarie. Elaborare i dati sensibili all'interno di ambienti controllati che presentano isolamento della rete e controlli di accesso rigorosi per impedire accessi non autorizzati o perdite di dati. Inoltre, implementare misure di sicurezza complete, ad esempio la crittografia, il monitoraggio continuo e i sistemi di rilevamento delle intrusioni per proteggersi dalle violazioni dei dati durante l'elaborazione.

Gestire i controlli di sicurezza dell'intelligenza artificiale

La gestione dei controlli di sicurezza di intelligenza artificiale include monitoraggio, test e aggiornamento continui delle misure di sicurezza per affrontare le minacce in continua evoluzione. La revisione periodica dei controlli di sicurezza garantisce che i carichi di lavoro di intelligenza artificiale rimangano protetti e che l'organizzazione possa adattarsi ai nuovi rischi. La manutenzione proattiva consente di prevenire violazioni e mantenere la fiducia nei sistemi di intelligenza artificiale nel tempo.

  • Implementare test per la perdita di dati e la coercizione nei sistemi di intelligenza artificiale. Eseguire test rigorosi per determinare se i dati sensibili possono essere persi o coerciti tramite i sistemi di intelligenza artificiale. Eseguire test di prevenzione della perdita dei dati (DLP) e simulare scenari di attacco specifici dell'intelligenza artificiale. Simulare l'inversione del modello o gli attacchi antagonisti per valutare la resilienza delle misure di protezione dei dati. Garantire che i modelli di intelligenza artificiale e i processi di gestione dei dati siano protetti da accessi non autorizzati e manipolazione sia fondamentale per mantenere l'integrità dei dati e la fiducia nelle applicazioni di intelligenza artificiale.

  • Fornire formazione e consapevolezza dei dipendenti incentrati sull'IA. Fornire programmi di formazione per tutti i dipendenti coinvolti nei progetti di IA. Evidenziare l'importanza della sicurezza dei dati e delle procedure consigliate specifiche per lo sviluppo e la distribuzione di intelligenza artificiale. Informare il personale su come gestire i dati sensibili usati nel training e riconoscere minacce come attacchi di inversione del modello o avvelenamento da dati. La formazione regolare garantisce che i membri del team siano informati sui protocolli di sicurezza di intelligenza artificiale più recenti e comprendano il loro ruolo per mantenere l'integrità dei carichi di lavoro di intelligenza artificiale.

  • Sviluppare e gestire un piano di risposta agli eventi imprevisti per la sicurezza dell'intelligenza artificiale. Creare una strategia di risposta agli eventi imprevisti personalizzata per i sistemi di intelligenza artificiale per risolvere potenziali violazioni dei dati o eventi imprevisti di sicurezza. Il piano deve delineare procedure chiare per rilevare, segnalare e attenuare gli eventi imprevisti di sicurezza che potrebbero influire su modelli di intelligenza artificiale, dati o infrastruttura. Eseguire esercitazioni e simulazioni regolari incentrate su scenari specifici dell'IA per garantire che il team di risposta sia pronto a gestire in modo efficiente gli eventi imprevisti di sicurezza dell'intelligenza artificiale reali.

  • Eseguire valutazioni periodiche dei rischi. Valutare le minacce emergenti e le vulnerabilità specifiche dell'IA regolarmente tramite valutazioni dei rischi e analisi di impatto. Queste valutazioni consentono di identificare nuovi rischi associati ai modelli di intelligenza artificiale, ai processi di gestione dei dati e agli ambienti di distribuzione. Le valutazioni valutano anche i potenziali effetti delle violazioni della sicurezza nei sistemi di IA.

Passaggi successivi

Gestire l'intelligenza artificiale, gestire l'intelligenza artificiale e l'intelligenza artificiale sicura sono processi continui che è necessario scorrere regolarmente. Rivedere ogni strategia di intelligenza artificiale, piano di intelligenza artificiale e ai pronti per l'intelligenza artificiale in base alle esigenze. Usare gli elenchi di controllo per l'adozione dell'intelligenza artificiale per determinare il passaggio successivo.