Intelligenza artificiale sicura : processo per proteggere l'intelligenza artificiale
Questo articolo descrive il processo aziendale per proteggere i carichi di lavoro di intelligenza artificiale. Si concentra sulla riservatezza, l'integrità e la disponibilità (CIA) dell'IA. Le procedure di sicurezza efficaci riducono il rischio di compromissione salvaguardando la riservatezza, l'integrità e la disponibilità di modelli e dati di intelligenza artificiale. Un ambiente di intelligenza artificiale sicuro è allineato anche agli obiettivi di sicurezza aziendali e migliora la fiducia nei processi basati sull'intelligenza artificiale.
Valutare i rischi per la sicurezza dell'IA
La valutazione dei rischi per la sicurezza dell'intelligenza artificiale comporta l'identificazione e la valutazione di potenziali vulnerabilità che potrebbero influire sui carichi di lavoro di intelligenza artificiale. Affrontare in modo proattivo questi rischi consente di prevenire violazioni, manipolazione e uso improprio, che rafforza l'affidabilità delle applicazioni di intelligenza artificiale. Questo approccio supporta anche gli obiettivi dell'organizzazione proteggendo i dati sensibili e mantenendo la fiducia degli stakeholder.
Identificare i rischi comuni per la sicurezza dell'intelligenza artificiale. Usare risorse riconosciute come MITRE ATLAS e rischio generativo di intelligenza artificiale di OWASP per valutare regolarmente i rischi in tutte le attività di intelligenza artificiale.
Gestire il comportamento di sicurezza dell'intelligenza artificiale. Per la gestione continuativa del comportamento di sicurezza, è consigliabile usare strumenti di sicurezza dell'intelligenza artificiale come la gestione del comportamento di sicurezza dell'intelligenza artificiale in Microsoft Defender per il cloud. Questi strumenti possono automatizzare il rilevamento e la correzione dei rischi generativi di intelligenza artificiale.
Identificare i rischi per i dati. Usare strumenti a livello aziendale come Gestione dei rischi Insider Microsoft Purview per valutare il rischio Insider e mantenere la sicurezza dei dati in tutta l'azienda. In tutti i carichi di lavoro di intelligenza artificiale, classificare e classificare in ordine di priorità i rischi in base alla riservatezza dei dati elaborati, archiviati o trasmessi.
Modelli di intelligenza artificiale red team. Eseguire test del red team su modelli di intelligenza artificiale generativa e modelli non generativi per valutare la vulnerabilità agli attacchi. Seguire queste raccomandazioni per il red teaming nell'intelligenza artificiale:
Valutare le funzionalità di sistema e il contesto dell'applicazione. Identificare le operazioni che il sistema di intelligenza artificiale può eseguire e dove viene applicato per individuare in modo efficace le vulnerabilità reali. Partire dagli effetti potenziali per progettare strategie di attacco significative.
Usare prima tecniche di attacco semplici. Sfrutta l'ingegneria di base dei prompt e le debolezze del sistema prima di tentare attacchi avversari complessi. Molte violazioni del mondo reale si basano su tecniche a risorse basse.
Distinguere il red teaming dal benchmarking. Il red teaming di intelligenza artificiale rivela rischi sconosciuti. Il benchmarking valuta le vulnerabilità note. Concentrarsi sul test dell'intelligenza artificiale in scenari reali anziché basarsi esclusivamente sulle metriche di valutazione predefinite.
Automatizzare l'espansione della copertura dei rischi. Usare strumenti come PyRIT per testare i sistemi di intelligenza artificiale su larga scala ma mantenere la supervisione umana.
Dare priorità al giudizio umano nel contesto del red teaming per l'intelligenza artificiale. L'automazione supporta i test, ma gli esseri umani forniscono il contesto necessario per valutare rischi sfumati come distorsione, risposte emotive e implicazioni culturali.
Sviluppare metodi affidabili per misurare gli errori di IA responsabili. Gli errori di IA responsabili si verificano quando i sistemi di intelligenza artificiale violano i principi dell'IA responsabile. A differenza delle vulnerabilità di sicurezza, questi errori sono più difficili da definire e misurare a causa delle loro implicazioni soggettive, sociali ed etiche. Usare linee guida strutturate e valutazioni basate su scenari per valutare e attenuare gli output dannosi.
Proteggere le minacce tradizionali e specifiche dell'intelligenza artificiale. Risolvere le vulnerabilità di sicurezza convenzionali insieme ai rischi di intelligenza artificiale, ad esempio inserimenti di richieste e esfiltrazione di dati. Rafforzare sia le difese a livello di sistema che specifiche del modello.
Per altre informazioni, vedere lezioni dal red teaming di 100 prodotti generativi di intelligenza artificiale.
Implementare i controlli di sicurezza dell'intelligenza artificiale
L'implementazione dei controlli di sicurezza dell'intelligenza artificiale significa stabilire criteri, procedure e strumenti che consentono di proteggere le risorse e i dati di intelligenza artificiale. Questi controlli consentono di garantire la conformità ai requisiti normativi e di proteggersi da accessi non autorizzati, supportando il funzionamento continuo e la privacy dei dati. Quando si applicano controlli coerenti tra carichi di lavoro di intelligenza artificiale, è possibile gestire la sicurezza in modo più efficace.
Proteggere le risorse di intelligenza artificiale
La protezione delle risorse di intelligenza artificiale include la gestione e la protezione dei sistemi, dei modelli e dell'infrastruttura che supportano le applicazioni di intelligenza artificiale. Questo passaggio riduce la probabilità di accesso non autorizzato e consente di standardizzare le procedure di sicurezza nell'intera organizzazione. Un inventario completo delle risorse consente un'applicazione coerente dei criteri di sicurezza e rafforza il controllo complessivo degli asset di intelligenza artificiale.
Stabilire un inventario centralizzato degli asset di intelligenza artificiale. La gestione di un inventario dettagliato e aggiornato delle risorse del carico di lavoro di intelligenza artificiale garantisce che sia possibile applicare i criteri di sicurezza in modo uniforme a tutti i carichi di lavoro di intelligenza artificiale. Compilare un inventario a livello aziendale di tutti i sistemi di intelligenza artificiale, i modelli, i set di dati e l'infrastruttura in Azure. Usare strumenti come Azure Resource Graph Explorer e Microsoft Defender per il cloud per automatizzare il processo di individuazione. Microsoft Defender per il cloud è possibile individuare carichi di lavoro di intelligenza artificiale generativi e in elementi di intelligenza artificiale pre-distribuzione.
Proteggere le piattaforme di intelligenza artificiale di Azure. Standardizzare l'applicazione delle baseline di sicurezza di Azure per ogni risorsa di intelligenza artificiale. Seguire le raccomandazioni sulla sicurezza in Guide ai servizi di Azure.
Usare linee guida per la governance specifiche del carico di lavoro. Sono disponibili indicazioni dettagliate sulla sicurezza per i carichi di lavoro di intelligenza artificiale nei servizi della piattaforma Di Azure (PaaS) e nell'infrastruttura di Azure (IaaS). Usare queste linee guida per proteggere modelli, risorse e dati di intelligenza artificiale all'interno di questi tipi di carico di lavoro.
Proteggere i dati di intelligenza artificiale
La protezione dei dati di intelligenza artificiale comporta la protezione dei dati usati e generati dai modelli di intelligenza artificiale. Le procedure efficaci per la sicurezza dei dati consentono di evitare accessi non autorizzati, perdite di dati e violazioni della conformità. Il controllo dell'accesso ai dati e la gestione di un catalogo dettagliato supportano anche il processo decisionale informato e riducono il rischio di esporre informazioni riservate.
Definire e gestire i limiti dei dati. Assicurarsi che i carichi di lavoro di intelligenza artificiale usino i dati appropriati per il livello di accesso. Le applicazioni di intelligenza artificiale accessibili a tutti i dipendenti devono elaborare solo i dati adatti a tutti i dipendenti. Le applicazioni di intelligenza artificiale con connessione Internet devono usare i dati appropriati per l'utilizzo pubblico. Usare set di dati o ambienti separati per applicazioni di intelligenza artificiale diverse per impedire l'accesso accidentale ai dati. Prendere in considerazione l'uso della suite di strumenti di sicurezza dei dati di Microsoft Purview per proteggere i dati.
Implementare controlli di accesso ai dati rigorosi. Assicurarsi che le applicazioni verifichino che gli utenti finali siano autorizzati ad accedere ai dati coinvolti nelle query. Evitare autorizzazioni di sistema generali per le azioni dell'utente. Opera in base al principio che, se l'IA può accedere a determinate informazioni, l'utente deve essere autorizzato ad accedervi direttamente.
Gestire un catalogo dati. Mantenere un catalogo aggiornato di tutti i dati connessi e usati dai sistemi di intelligenza artificiale, inclusi i percorsi di archiviazione e i dettagli di accesso. Analizzare ed etichettare regolarmente i dati per tenere traccia dei livelli di riservatezza e dell'idoneità, agevolando l'analisi e l'identificazione dei rischi. Prendere in considerazione l'uso di Microsoft Purview Data Catalog per eseguire il mapping e la governance dei dati.
Creare un piano di gestione delle modifiche di riservatezza dei dati. Tenere traccia dei livelli di riservatezza dei dati in quanto possono cambiare nel tempo. Usare il catalogo dati per monitorare le informazioni usate nei carichi di lavoro di intelligenza artificiale. Implementare un processo per trovare e rimuovere dati sensibili dai carichi di lavoro di intelligenza artificiale.
Proteggere gli artefatti di intelligenza artificiale. Riconoscere i modelli e i set di dati di intelligenza artificiale come proprietà intellettuale preziose e implementare misure per proteggerli di conseguenza. Archiviare modelli e set di dati di intelligenza artificiale dietro endpoint privati e in ambienti sicuri, ad esempio Archiviazione BLOB di Azure e aree di lavoro dedicate. Applicare criteri di accesso e crittografia rigorosi per proteggere gli artefatti di intelligenza artificiale da accessi non autorizzati o furti per evitare l'avvelenamento dei dati.
Proteggere i dati sensibili. Quando l'origine dati originale non è adatta per l'uso diretto, usare duplicati, copie locali o subset che contengono solo le informazioni necessarie. Elaborare i dati sensibili all'interno di ambienti controllati che presentano isolamento della rete e controlli di accesso rigorosi per impedire accessi non autorizzati o perdite di dati. Inoltre, implementare misure di sicurezza complete, ad esempio la crittografia, il monitoraggio continuo e i sistemi di rilevamento delle intrusioni per proteggersi dalle violazioni dei dati durante l'elaborazione.
Gestire i controlli di sicurezza dell'intelligenza artificiale
La gestione dei controlli di sicurezza di intelligenza artificiale include monitoraggio, test e aggiornamento continui delle misure di sicurezza per affrontare le minacce in continua evoluzione. La revisione periodica dei controlli di sicurezza garantisce che i carichi di lavoro di intelligenza artificiale rimangano protetti e che l'organizzazione possa adattarsi ai nuovi rischi. La manutenzione proattiva consente di prevenire violazioni e mantenere la fiducia nei sistemi di intelligenza artificiale nel tempo.
Implementare test per la perdita di dati e la coercizione nei sistemi di intelligenza artificiale. Eseguire test rigorosi per determinare se i dati sensibili possono essere persi o coerciti tramite i sistemi di intelligenza artificiale. Eseguire test di prevenzione della perdita dei dati (DLP) e simulare scenari di attacco specifici dell'intelligenza artificiale. Simulare l'inversione del modello o gli attacchi antagonisti per valutare la resilienza delle misure di protezione dei dati. Garantire che i modelli di intelligenza artificiale e i processi di gestione dei dati siano protetti da accessi non autorizzati e manipolazione sia fondamentale per mantenere l'integrità dei dati e la fiducia nelle applicazioni di intelligenza artificiale.
Fornire formazione e consapevolezza dei dipendenti incentrati sull'IA. Fornire programmi di formazione per tutti i dipendenti coinvolti nei progetti di IA. Evidenziare l'importanza della sicurezza dei dati e delle procedure consigliate specifiche per lo sviluppo e la distribuzione di intelligenza artificiale. Informare il personale su come gestire i dati sensibili usati nel training e riconoscere minacce come attacchi di inversione del modello o avvelenamento da dati. La formazione regolare garantisce che i membri del team siano informati sui protocolli di sicurezza di intelligenza artificiale più recenti e comprendano il loro ruolo per mantenere l'integrità dei carichi di lavoro di intelligenza artificiale.
Sviluppare e gestire un piano di risposta agli eventi imprevisti per la sicurezza dell'intelligenza artificiale. Creare una strategia di risposta agli eventi imprevisti personalizzata per i sistemi di intelligenza artificiale per risolvere potenziali violazioni dei dati o eventi imprevisti di sicurezza. Il piano deve delineare procedure chiare per rilevare, segnalare e attenuare gli eventi imprevisti di sicurezza che potrebbero influire su modelli di intelligenza artificiale, dati o infrastruttura. Eseguire esercitazioni e simulazioni regolari incentrate su scenari specifici dell'IA per garantire che il team di risposta sia pronto a gestire in modo efficiente gli eventi imprevisti di sicurezza dell'intelligenza artificiale reali.
Eseguire valutazioni periodiche dei rischi. Valutare le minacce emergenti e le vulnerabilità specifiche dell'IA regolarmente tramite valutazioni dei rischi e analisi di impatto. Queste valutazioni consentono di identificare nuovi rischi associati ai modelli di intelligenza artificiale, ai processi di gestione dei dati e agli ambienti di distribuzione. Le valutazioni valutano anche i potenziali effetti delle violazioni della sicurezza nei sistemi di IA.
Passaggi successivi
Gestire l'intelligenza artificiale, gestire l'intelligenza artificiale e l'intelligenza artificiale sicura sono processi continui che è necessario scorrere regolarmente. Rivedere ogni strategia di intelligenza artificiale, piano di intelligenza artificiale e ai pronti per l'intelligenza artificiale in base alle esigenze. Usare gli elenchi di controllo per l'adozione dell'intelligenza artificiale per determinare il passaggio successivo.