Raccomandazioni sulla sicurezza per i carichi di lavoro di intelligenza artificiale in Azure
Questo articolo offre raccomandazioni sulla sicurezza per le organizzazioni che eseguono carichi di lavoro di intelligenza artificiale in Azure. Si concentra sulle soluzioni PaaS (Platform-as-a-Service) di Azure AI, tra cui Azure AI Studio, Azure OpenAI, Azure Machine Learning e Servizi di intelligenza artificiale di Azure. Vengono trattati sia carichi di lavoro generativi che non generici di intelligenza artificiale.
Man mano che l'IA diventa più integrata nelle operazioni aziendali, la protezione di queste risorse da potenziali minacce è fondamentale per mantenere l'integrità e la conformità dei dati. L'applicazione di baseline di sicurezza standardizzate e i framework ben strutturati consentono alle organizzazioni di proteggere l'infrastruttura di intelligenza artificiale dalle vulnerabilità.
Proteggere le risorse di intelligenza artificiale
La protezione delle risorse di intelligenza artificiale significa applicare baseline di sicurezza e procedure consigliate per proteggere l'infrastruttura usata per i carichi di lavoro di intelligenza artificiale in Azure. Questa protezione riduce al minimo i rischi derivanti da minacce esterne e garantisce un comportamento di sicurezza coerente nell'intera organizzazione.
Proteggere le piattaforme di intelligenza artificiale di Azure. Standardizzare l'applicazione delle baseline di sicurezza di Azure per ogni risorsa di intelligenza artificiale. Seguire le raccomandazioni sulla sicurezza in Guide ai servizi di Azure all'interno di Azure Well-Architected Framework.
Baseline di sicurezza della piattaforma azure per intelligenza artificiale | Guida al servizio Azure Well-Architected Framework |
---|---|
Azure Machine Learning | Azure Machine Learning |
Studio AI della piattaforma Azure | |
OpenAI di Azure | OpenAI di Azure |
Proteggere i modelli di intelligenza artificiale
La protezione dei modelli di intelligenza artificiale si riferisce all'implementazione della protezione dalle minacce, al monitoraggio dei rischi di inserimento dei prompt, alla verifica dell'integrità del modello e alla centralizzazione della governance. Queste procedure assicurano che i modelli di intelligenza artificiale rimangano al sicuro da manipolazioni dannose, mantengano l'affidabilità e forniscano risultati accurati.
Implementare la protezione dalle minacce per tutti i modelli di intelligenza artificiale. Usare Microsoft Defender per il cloud per proteggere i modelli di intelligenza artificiale da minacce come attacchi di tipo prompt injection e manipolazione del modello. Questo strumento fornisce il monitoraggio continuo dei carichi di lavoro di intelligenza artificiale, consentendo di rilevare e prevenire le minacce emergenti. L'implementazione di questa protezione in tutti i carichi di lavoro garantisce un comportamento di sicurezza coerente in tutta l'organizzazione.
Monitorare gli output e applicare la schermatura dei prompt. Esaminare regolarmente i dati restituiti dai modelli di intelligenza artificiale per rilevare e mitigare i rischi associati a richieste utente dannose o imprevedibili. Implementare Prompt Shields per analizzare il testo per individuare il rischio di un attacco di input dell'utente sui modelli GeneratiVi al.
Verificare la verifica del modello. Stabilire meccanismi di verifica a livello aziendale per garantire che tutti i modelli di intelligenza artificiale in uso siano legittimi e sicuri. Se si usano modelli open source, usare firme di modelli o altri processi di verifica per confermare l'autenticità dei modelli di intelligenza artificiale, impedendo la distribuzione di modelli non autorizzati o manomessi.
Prendere in considerazione l'uso di un gateway di intelligenza artificiale. Azure Gestione API (APIM) consente di garantire una sicurezza coerente tra carichi di lavoro di intelligenza artificiale. Usare i criteri predefiniti per il controllo del traffico e l'applicazione della sicurezza. Integrare Gestione API con Microsoft Entra ID per centralizzare l'autenticazione e l'autorizzazione e garantire che solo gli utenti o le applicazioni autorizzati interagiscono con i modelli di intelligenza artificiale. Assicurarsi di configurare l'accesso con privilegi minimi nell'identità gestita del proxy inverso. Per altre informazioni, vedere Autenticazione di intelligenza artificiale con Gestione API
Proteggere l'accesso all'intelligenza artificiale
La protezione dell'accesso di intelligenza artificiale include la definizione di controlli di autenticazione e autorizzazione sia per il piano di gestione che per l'accesso esterno alle risorse di intelligenza artificiale. La gestione degli accessi appropriata limita l'utilizzo delle risorse solo agli utenti con autorizzazioni verificate. Riduce le probabilità di interazioni non autorizzate con i modelli di intelligenza artificiale. I controlli di accesso sicuro, ad esempio l'accesso basato sui ruoli e i criteri di accesso condizionale, consentono di proteggere i dati sensibili e mantenere la conformità agli standard di sicurezza.
Organizzare le risorse e i controlli di accesso. Usare aree di lavoro distinte per organizzare e gestire artefatti di intelligenza artificiale come set di dati, modelli e esperimenti. Le aree di lavoro centralizzano la gestione delle risorse e semplificano il controllo di accesso. Ad esempio, usare i progetti all'interno di Azure AI Studio per gestire in modo efficiente le risorse e le autorizzazioni, semplificando la collaborazione mantenendo al tempo stesso i limiti di sicurezza.
Usare Microsoft Entra ID per l'autenticazione. Laddove possibile, eliminare le chiavi API statiche a favore di Microsoft Entra ID per l'autenticazione. Questo passaggio migliora la sicurezza tramite la gestione centralizzata delle identità e riduce il sovraccarico di gestione dei segreti. Limitare anche la distribuzione delle chiavi API. Preferisce invece le identità in Microsoft Entra ID rispetto alle chiavi API per l'autenticazione. Controllare l'elenco di utenti con accesso alla chiave API per assicurarsi che sia aggiornato. Per indicazioni sull'autenticazione, vedere Azure AI Studio, Azure OpenAI, Servizi di intelligenza artificiale di Azure, Azure Machine Learning.
Configurare l'autenticazione. Abilitare l'autenticazione a più fattori (MFA) e preferire gli account amministrativi secondari o l'accesso JIT con Privileged Identity Management (PIM) per gli account sensibili. Limitare l'accesso al piano di controllo usando servizi come Azure Bastion come punti di ingresso sicuri nelle reti private.
Usare i criteri di accesso condizionale. Implementare criteri di accesso condizionale basati sul rischio che rispondono a un'attività di accesso insolita o a comportamenti sospetti. Usare segnali come posizione utente, stato del dispositivo e comportamento di accesso per attivare passaggi di verifica aggiuntivi. Richiedere l'autenticazione a più fattori per accedere alle risorse di intelligenza artificiale critiche per migliorare la sicurezza. Limitare l'accesso all'infrastruttura di intelligenza artificiale in base a posizioni geografiche o intervalli IP attendibili. Assicurarsi che solo i dispositivi conformi (che soddisfano i requisiti di sicurezza) possano accedere alle risorse di intelligenza artificiale.
Configurare l'accesso con privilegi minimi. Configurare l'accesso con privilegi minimi implementando il controllo degli accessi in base al ruolo per fornire l'accesso minimo ai dati e ai servizi. Assegnare ruoli a utenti e gruppi in base alle proprie responsabilità. Usare il controllo degli accessi in base al ruolo di Azure per ottimizzare il controllo di accesso per risorse specifiche, ad esempio macchine virtuali e account di archiviazione. Assicurarsi che gli utenti abbiano solo il livello minimo di accesso necessario per eseguire le attività. Esaminare e regolare regolarmente le autorizzazioni per evitare che i privilegi si verifichino. ad esempio:
Ruolo Autorizzazioni di esempio Scienziati dei dati Accesso in lettura/scrittura all'archiviazione dei dati, autorizzazione per eseguire processi di training e accesso agli ambienti di training del modello. Sviluppatori di intelligenza artificiale Accesso agli ambienti di sviluppo, alle autorizzazioni di distribuzione e alla possibilità di modificare le applicazioni di intelligenza artificiale. Amministratori IT Accesso completo per gestire l'infrastruttura, le configurazioni di rete e i criteri di sicurezza. Proteggere le interazioni da servizio a servizio di Azure. Usare l'identità gestita per consentire ai servizi di Azure di eseguire l'autenticazione tra loro senza gestire le credenziali.
Proteggere l'accesso esterno agli endpoint del modello di intelligenza artificiale. Richiedere ai client di eseguire l'autenticazione usando Microsoft Entra ID quando si accede agli endpoint del modello di intelligenza artificiale. Prendere in considerazione l'uso di Azure Gestione API come gateway di intelligenza artificiale davanti agli endpoint del modello di intelligenza artificiale per applicare criteri di accesso, controllare l'utilizzo e fornire funzionalità di monitoraggio.
Esecuzione sicura dell'intelligenza artificiale
La protezione dell'esecuzione dell'intelligenza artificiale comporta la protezione dei processi con cui gli agenti di intelligenza artificiale, ad esempio assistenti virtuali o agenti autonomi, eseguono il codice in risposta alle richieste degli utenti. Isolare gli ambienti di esecuzione, eseguire revisioni del codice e impostare i limiti delle risorse. Queste misure consentono di garantire che queste esecuzioni non comprometteno la stabilità o la sicurezza del sistema. Queste procedure impediscono attività dannose e proteggono l'integrità dei sistemi in cui operano gli agenti di intelligenza artificiale, consentendo loro di funzionare in modo affidabile all'interno di un framework sicuro.
Implementare meccanismi di isolamento. Usare la gestione dinamica delle sessioni, ad esempio sessioni dinamiche nelle app contenitore di Azure, per garantire che ogni esecuzione del codice venga eseguita in un ambiente fresco e isolato che viene eliminato definitivamente dopo l'uso.
Proteggere il codice di esecuzione. Eseguire verifiche e test accurati del codice prima di distribuire script per l'esecuzione da parte degli agenti di intelligenza artificiale. Questo processo consente di identificare e attenuare potenziali vulnerabilità. Usare i sistemi di controllo della versione per gestire le modifiche del codice e assicurarsi che vengano eseguite solo le versioni approvate degli script.
Implementare i limiti delle risorse. Impostare i limiti delle risorse (CPU, memoria, utilizzo del disco) per gli ambienti di esecuzione del codice per impedire a qualsiasi singola esecuzione di consumare risorse eccessive e potenzialmente interrompere altri servizi. Definire i timeout di esecuzione per garantire che i processi con esecuzione prolungata o potenzialmente bloccati vengano terminati automaticamente.
Per altre informazioni, vedere How to create Assistants with Azure OpenAI Service , How to use Azure OpenAI Assistants function calling e Agent implementation (Come usare le funzioni degli assistenti OpenAI di Azure chiamando e l'implementazione dell'agente).