Raccomandazioni sulla governance per i carichi di lavoro di intelligenza artificiale in Azure
Questo articolo offre raccomandazioni sulla governance per le organizzazioni che eseguono carichi di lavoro di intelligenza artificiale in Azure. Si concentra sulle soluzioni PaaS (Platform-as-a-Service) di Azure AI, tra cui Azure AI Studio, Azure OpenAI, Azure Machine Learning e Servizi di intelligenza artificiale di Azure. Vengono trattati sia carichi di lavoro generativi che non generici di intelligenza artificiale.
Una governance efficace supporta l'uso responsabile dell'IA. Consente alle aziende di ottimizzare gli investimenti di intelligenza artificiale riducendo al contempo i rischi associati alla sicurezza, ai costi e alla conformità alle normative.
Gestire i modelli di intelligenza artificiale
La governance del modello di intelligenza artificiale si riferisce ai processi per la gestione dei modelli di intelligenza artificiale per garantire che producano output affidabili, sicuri ed etici. I controlli sugli input e sugli output del modello consentono di ridurre i rischi. Questi rischi includono contenuto dannoso e uso imprevisto dell'IA. Entrambi possono influire sugli utenti e sull'organizzazione. Questi processi supportano la distribuzione responsabile dell'IA e salvaguardano le potenziali sfide legali ed etiche.
Stabilire un processo per rilevare i rischi di intelligenza artificiale. Usare strumenti come Defender per il cloud per individuare carichi di lavoro generativi di intelligenza artificiale ed esplorare i rischi per la pre-distribuzione degli artefatti di intelligenza artificiale generativi. Definire criteri per creare regolarmente modelli di intelligenza artificiale generati dal red team. Documentare i rischi identificati e aggiornare continuamente i criteri di governance dell'IA per attenuare i problemi emergenti.
Definire i filtri del contenuto di base per i modelli di intelligenza artificiale generativi. Usare Sicurezza dei contenuti di Intelligenza artificiale di Azure per definire un filtro di contenuto di base per i modelli di intelligenza artificiale approvati. Questo sistema di sicurezza esegue sia la richiesta che il completamento del modello tramite un gruppo di modelli di classificazione. Questi modelli di classificazione rilevano e consentono di evitare l'output di contenuto dannoso in un'ampia gamma di categorie. Content Safety offre funzionalità come schermate di richiesta, rilevamento di suolo e rilevamento del testo del materiale protetto. Analizza immagini e testo. Creare un processo per i team delle applicazioni per comunicare esigenze di governance diverse.
Modelli di intelligenza artificiale generativi a terra. Usare i messaggi di sistema e il modello di generazione aumentata (RAG) di recupero per gestire l'output dei modelli di intelligenza artificiale generativi. Testare l'efficacia del grounding usando strumenti come il flusso di prompt o il framework di red teaming open source PyRIT.
Gestire i costi di intelligenza artificiale
La governance dei costi di intelligenza artificiale comporta la gestione delle spese associate ai carichi di lavoro di intelligenza artificiale per ottimizzare l'efficienza e ridurre le spese non necessarie. Un controllo dei costi efficace garantisce che gli investimenti di IA siano allineati agli obiettivi aziendali, evitando costi imprevisti dall'over-provisioning o dalla sottoutilizzazione. Queste procedure consentono alle organizzazioni di ottimizzare le operazioni di IA finanziariamente.
Usare il modello di fatturazione corretto. Se si hanno carichi di lavoro prevedibili, usare i livelli di impegno di intelligenza artificiale nei servizi di intelligenza artificiale di Azure. Per i modelli OpenAI di Azure, usare unità elaborate con provisioning (PTU), che possono essere meno costose rispetto ai prezzi con pagamento in base al consumo (in base al consumo). È comune combinare endpoint PTU e endpoint basati sul consumo per l'ottimizzazione dei costi. Usare ptu nell'endpoint primario del modello di intelligenza artificiale e un endpoint di intelligenza artificiale secondario basato sul consumo per lo spillover. Per altre informazioni, vedere Introduzione di un gateway per più istanze openAI di Azure.
Scegliere il modello appropriato per il caso d'uso. Selezionare il modello di intelligenza artificiale che soddisfa le proprie esigenze senza incorrere in costi eccessivi. Usare modelli meno costosi, a meno che il caso d'uso non richieda un modello più costoso. Per ottimizzare l'ottimizzazione, ottimizzare l'utilizzo del tempo entro ogni periodo di fatturazione per evitare addebiti aggiuntivi. Per altre informazioni, vedere Modelli e prezzi di Azure OpenAI. Vedere anche il catalogo dei modelli di Azure AI Studio e le informazioni di fatturazione per le distribuzioni di modelli.
Impostare i limiti di provisioning. Allocare le quote di provisioning per ogni modello in base ai carichi di lavoro previsti per evitare costi non necessari. Monitorare continuamente le quote dinamiche per assicurarsi che corrispondano alla domanda effettiva e modificarle di conseguenza per mantenere la velocità effettiva ottimale senza sovraccaricare.
Usare il tipo di distribuzione corretto. I modelli OpenAI di Azure consentono di usare tipi di distribuzione diversi. La distribuzione globale offre prezzi inferiori per token di costo per token in determinati modelli OpenAI.
Valutare le opzioni di hosting. Scegliere l'infrastruttura di hosting appropriata, a seconda delle esigenze della soluzione. Ad esempio, per i carichi di lavoro generativi di intelligenza artificiale, le opzioni includono endpoint online gestiti, servizio Azure Kubernetes (servizio Azure Kubernetes) e servizio app Azure, ognuno con il proprio modello di fatturazione. Selezionare l'opzione che offre il miglior equilibrio tra prestazioni e costi per i requisiti specifici.
Controllare il comportamento del client nei servizi basati sull'utilizzo. Limitare l'accesso client al servizio di intelligenza artificiale applicando protocolli di sicurezza come controlli di rete, chiavi e controllo degli accessi in base al ruolo. Assicurarsi che i client usino vincoli API come il numero massimo di token e il numero massimo di completamenti. Quando possibile, le richieste batch per ottimizzare l'efficienza. Mantenere concise le richieste, ma fornire il contesto necessario per ridurre l'utilizzo dei token.
Prendere in considerazione l'uso di un gateway di intelligenza artificiale generativo. Un gateway di intelligenza artificiale generativo consente di tenere traccia dell'utilizzo dei token, limitare l'utilizzo dei token, applicare interruttori di circuito e indirizzare a endpoint di intelligenza artificiale diversi per controllare i costi.
Creare un criterio per arrestare le istanze di calcolo. Definire e applicare criteri che indicano che le risorse di intelligenza artificiale devono usare la funzionalità di arresto automatico nelle macchine virtuali e nelle istanze di calcolo in Azure AI Studio e Azure Machine Learning. L'arresto automatico è applicabile agli ambienti non di produzione e ai carichi di lavoro di produzione che è possibile portare offline per determinati periodi di tempo.
Per altre indicazioni sulla gestione dei costi, vedere Gestire i costi di intelligenza artificiale e l'ottimizzazione dei costi nell'architettura di base di Azure OpenAI.
Gestire le piattaforme di intelligenza artificiale
La governance della piattaforma di intelligenza artificiale include l'applicazione di controlli dei criteri a vari servizi di intelligenza artificiale in Azure, ad esempio Azure AI Studio e Azure Machine Learning. L'uso della governance a livello di piattaforma applica criteri di sicurezza, conformità e operativi coerenti nell'ecosistema di intelligenza artificiale. Questo allineamento supporta una supervisione efficace, che rafforza la gestione e l'affidabilità complessive dell'IA.
Usare i criteri di governance predefiniti. Usare Criteri di Azure per applicare definizioni di criteri predefinite per ogni piattaforma di intelligenza artificiale in uso. Include Azure AI Studio, Azure Machine Learning, servizi di intelligenza artificiale di Azure, Ricerca di intelligenza artificiale di Azure e altri.
Abilitare i criteri di intelligenza artificiale della zona di destinazione di Azure. Per gli utenti della zona di destinazione di Azure, la distribuzione include un set curato di criteri predefiniti consigliati per i servizi della piattaforma di intelligenza artificiale di Azure. Selezionare l'iniziativa dei criteri da usare nella categoria Conformità specifica del carico di lavoro durante una distribuzione della zona di destinazione di Azure. I set di criteri includono i servizi Azure OpenAI, Azure Machine Learning e Ricerca di intelligenza artificiale di Azure e Azure Bot.
Gestire la sicurezza dell'intelligenza artificiale
La governance della sicurezza dell'intelligenza artificiale risolve la necessità di proteggere i carichi di lavoro di intelligenza artificiale dalle minacce che potrebbero compromettere dati, modelli o infrastruttura. Procedure di sicurezza affidabili salvaguardino questi sistemi contro accessi non autorizzati e violazioni dei dati. Questa protezione garantisce l'integrità e l'affidabilità delle soluzioni di intelligenza artificiale, che è essenziale per mantenere la fiducia degli utenti e la conformità alle normative.
Abilitare Defender per il cloud in ogni sottoscrizione. Defender per il cloud offre un approccio conveniente per rilevare le configurazioni nelle risorse distribuite che non sono sicure. È anche necessario abilitare la protezione dalle minacce per l'intelligenza artificiale.
Configurare il controllo di accesso. Concedere l'accesso utente con privilegi minimi alle risorse di intelligenza artificiale centralizzate. Ad esempio, iniziare con il ruolo Lettore di Azure ed eseguire l'elevazione al ruolo Collaboratore azure se le autorizzazioni limitate rallentano lo sviluppo di applicazioni.
Usare identità gestite. Usare l'identità gestita in tutti i servizi di Azure supportati. Concedere l'accesso con privilegi minimi alle risorse dell'applicazione che devono accedere agli endpoint del modello di intelligenza artificiale.
Usare l'accesso JUST-In-Time. Usare Privileged Identity Management (PIM) per l'accesso JIT.
Gestire le operazioni di intelligenza artificiale
La governance delle operazioni di intelligenza artificiale è incentrata sulla gestione e la gestione di servizi di intelligenza artificiale stabili. Queste operazioni supportano affidabilità e prestazioni a lungo termine. I piani centralizzati di supervisione e continuità aiutano le organizzazioni a evitare tempi di inattività, garantendo così un valore aziendale coerente dell'IA. Questi sforzi contribuiscono alla distribuzione efficiente dell'IA e all'efficacia operativa sostenuta.
Esaminare e gestire i modelli di intelligenza artificiale. Sviluppare criteri per la gestione del controllo delle versioni dei modelli, in particolare quando i modelli vengono aggiornati o ritirati. È necessario mantenere la compatibilità con i sistemi esistenti e garantire una transizione uniforme tra le versioni del modello.
Definire un piano di continuità aziendale e ripristino di emergenza. Definire criteri per la continuità aziendale e il ripristino di emergenza per gli endpoint di intelligenza artificiale e i dati di intelligenza artificiale. Configurare il ripristino di emergenza di base per le risorse che ospitano gli endpoint del modello di intelligenza artificiale. Queste risorse includono Azure AI Studio, Azure Machine Learning, Azure OpenAI o i servizi di intelligenza artificiale di Azure. Tutti gli archivi dati di Azure, ad esempio Archiviazione BLOB di Azure, Azure Cosmos DB e database SQL di Azure, forniscono indicazioni sull'affidabilità e sul ripristino di emergenza da seguire.
Definire le metriche di base per le risorse di intelligenza artificiale. Abilitare le regole di avviso consigliate per ricevere notifiche di deviazioni che indicano un calo dell'integrità del carico di lavoro. Per esempi, vedere Ricerca di intelligenza artificiale di Azure, Azure Machine Learning, distribuzioni dei flussi dei prompt di Azure AI Studio e indicazioni sui singoli servizi di intelligenza artificiale di Azure.
Gestire la conformità alle normative di intelligenza artificiale
La conformità alle normative nell'IA richiede alle organizzazioni di seguire gli standard del settore e gli obblighi legali, riducendo così i rischi correlati alle responsabilità e alla creazione di fiducia. Le misure di conformità consentono alle organizzazioni di evitare sanzioni e migliorare la credibilità con i clienti e le autorità di regolamentazione. L'adesione a questi standard stabilisce una solida base per l'utilizzo responsabile e conforme dell'IA.
Automatizzare la conformità. Usare Microsoft Purview Compliance Manager per valutare e gestire la conformità in ambienti cloud. Usare le iniziative di conformità alle normative applicabili in Criteri di Azure per il settore. Applicare altri criteri basati sui servizi di intelligenza artificiale usati, ad esempio Azure AI Studio e Azure Machine Learning.
Sviluppare elenchi di controllo di conformità specifici del settore. Le normative e gli standard variano in base al settore e alla posizione. È necessario conoscere i requisiti normativi e compilare elenchi di controllo che riflettono le richieste normative rilevanti per il settore. Usare standard, ad esempio ISO/IEC 23053:2022 (Framework per sistemi di intelligenza artificiale con Machine Learning), per controllare i criteri applicati ai carichi di lavoro di intelligenza artificiale.
Gestire i dati di intelligenza artificiale
La governance dei dati di intelligenza artificiale prevede criteri per garantire che l'inserimento dei dati nei modelli di intelligenza artificiale sia appropriato, conforme e sicuro. La governance dei dati protegge la privacy e la proprietà intellettuale, migliorando l'affidabilità e la qualità degli output di intelligenza artificiale. Queste misure consentono di attenuare i rischi correlati all'uso improprio dei dati e si allineano agli standard normativi ed etici.
Stabilire un processo per la catalogazione dei dati. Usare uno strumento come Microsoft Purview per implementare un catalogo dati unificato e un sistema di classificazione nell'organizzazione. Integrare questi criteri nelle pipeline CI/CD per lo sviluppo di intelligenza artificiale.
Gestire i limiti di sicurezza dei dati. La catalogazione dei dati garantisce che i dati sensibili non vengano inseriti in endpoint di intelligenza artificiale pubblici. Quando si creano indici da determinate origini dati, il processo di indicizzazione può rimuovere i limiti di sicurezza relativi ai dati. Assicurarsi che tutti i dati inseriti nei modelli di intelligenza artificiale siano classificati e controllati in base agli standard centralizzati.
Impedire la violazione del copyright. Usare un sistema di filtro dei contenuti come Il rilevamento dei materiali protetti in Sicurezza dei contenuti di Azure per intelligenza artificiale per filtrare il materiale protetto da copyright. Se si sta eseguendo il training o l'ottimizzazione di un modello di intelligenza artificiale, assicurarsi di usare i dati ottenuti e concessi in licenza in modo legale e implementare misure di sicurezza per impedire al modello di violare i diritti d'autore. Esaminare regolarmente gli output per la conformità della proprietà intellettuale.
Implementare il controllo della versione per i dati di base. Stabilire un processo di controllo della versione per i dati di base, ad esempio in RAG. Il controllo delle versioni garantisce che sia possibile tenere traccia delle modifiche apportate ai dati sottostanti o alla relativa struttura. È possibile ripristinare le modifiche, se necessario, per mantenere la coerenza tra le distribuzioni.