Condividi tramite


Modello di responsabilità condivisa di intelligenza artificiale

Quando si valuta e si valuta l'integrazione abilitata per l'intelligenza artificiale, è fondamentale comprendere il modello di responsabilità condivisa e le attività gestite dalla piattaforma di intelligenza artificiale o dal provider di applicazioni e dalle attività gestite dall'utente. Le responsabilità del carico di lavoro variano a seconda che l'integrazione di intelligenza artificiale sia basata su Software as a Service (SaaS), Piattaforma distribuita come servizio (PaaS) o Infrastruttura distribuita come servizio (IaaS).

Divisione di responsabilità

Come per i servizi cloud, sono disponibili opzioni per l'implementazione delle funzionalità di intelligenza artificiale per l'organizzazione. A seconda dell'opzione scelta, si assume la responsabilità di diverse parti delle operazioni e dei criteri necessari per usare l'intelligenza artificiale in modo sicuro.

Il diagramma seguente illustra le aree di responsabilità tra l'utente e Microsoft in base al tipo di distribuzione.

Diagramma che mostra le zone di responsabilità dell'intelligenza artificiale.

Panoramica del livello di intelligenza artificiale

Un'applicazione abilitata per l'intelligenza artificiale è costituita da tre livelli di funzionalità che raggruppano le attività eseguite dall'utente o da un provider di intelligenza artificiale. Le responsabilità di sicurezza in genere risiedono con chiunque esegua le attività, ma un provider di intelligenza artificiale potrebbe scegliere di esporre la sicurezza o altri controlli come opzione di configurazione a seconda delle esigenze. Questi tre livelli includono:

Piattaforma per intelligenza artificiale

Il livello di piattaforma dell’intelligenza artificiale fornisce le funzionalità di intelligenza artificiale alle applicazioni. A livello di piattaforma, è necessario creare e proteggere l'infrastruttura che esegue il modello di intelligenza artificiale, i dati di training e configurazioni specifiche che modificano il comportamento del modello, ad esempio pesi e distorsioni. Questo livello fornisce l'accesso alle funzionalità tramite API, che passano testo noto come metaprompt al modello di intelligenza artificiale per l'elaborazione, quindi restituiscono il risultato generato, noto come Prompt-Response.

Considerazioni sulla sicurezza della piattaforma di intelligenza artificiale: per proteggere la piattaforma di intelligenza artificiale da input dannosi, è necessario creare un sistema di sicurezza per filtrare le istruzioni potenzialmente dannose inviate al modello di intelligenza artificiale (input). Poiché i modelli di intelligenza artificiale sono generativi, è anche possibile che alcuni contenuti dannosi vengano generati e restituiti all'utente (output). Qualsiasi sistema di sicurezza deve prima proteggersi da input e output potenzialmente dannosi di molte classificazioni, tra cui odio, jailbreak e altro. Queste classificazioni si evolveranno probabilmente nel tempo in base alla conoscenza, alle impostazioni locali e al settore del modello.

Microsoft dispone di sistemi di sicurezza predefiniti per le offerte PaaS e SaaS:

Applicazione di intelligenza artificiale

L'applicazione di intelligenza artificiale accede alle funzionalità di intelligenza artificiale e fornisce il servizio o l'interfaccia usata dall'utente. I componenti di questo livello possono variare da relativamente semplici a molto complessi, a seconda dell'applicazione. Le applicazioni di intelligenza artificiale autonome più semplici fungono da interfaccia per un set di API che accettano una richiesta utente basata su testo e passano tali dati al modello per una risposta. Le applicazioni di intelligenza artificiale più complesse includono la possibilità di impostare il prompt degli utenti con un contesto aggiuntivo, tra cui un livello di persistenza, un indice semantico o tramite plug-in per consentire l'accesso a più origini dati. Le applicazioni avanzate di intelligenza artificiale potrebbero anche interfacciarsi con applicazioni e sistemi esistenti. Le applicazioni e i sistemi esistenti possono funzionare tra testo, audio e immagini per generare vari tipi di contenuto.

Considerazioni sulla sicurezza delle applicazioni di intelligenza artificiale: è necessario creare un sistema di sicurezza delle applicazioni per proteggere l'applicazione di intelligenza artificiale da attività dannose. Il sistema di sicurezza fornisce un'ispezione approfondita del contenuto usato nel Metaprompt inviato al modello di intelligenza artificiale. Il sistema di sicurezza controlla anche le interazioni con qualsiasi plug-in, connettori dati e altre applicazioni di intelligenza artificiale (nota come orchestrazione di intelligenza artificiale). Un modo per incorporarlo nella propria applicazione di intelligenza artificiale basata su IaaS/PaaS consiste nell'usare il servizio Azure AI Content Safety . Altre funzionalità sono disponibili a seconda delle esigenze.

Utilizzo dell'intelligenza artificiale

Il livello di utilizzo dell'intelligenza artificiale descrive come vengono usate e usate le funzionalità di intelligenza artificiale. L'intelligenza artificiale generativa offre un nuovo tipo di interfaccia utente/computer fondamentalmente diversa da altre interfacce computer, ad esempio API, prompt dei comandi e interfacce utente grafiche. L'interfaccia dell'intelligenza artificiale generativa è sia interattiva che dinamica, consentendo in tal modo alle funzionalità del computer di adattarsi all'utente e alle sue finalità. L'interfaccia di intelligenza artificiale generativa è in contrasto con le interfacce precedenti che impongono principalmente agli utenti di apprendere la progettazione e le funzionalità del sistema e adattarla. Questa interattività consente agli utenti di immettere, invece di progettisti di applicazioni, di avere un elevato livello di influenza dell'output del sistema, rendendo le protezioni di sicurezza critiche per proteggere persone, dati e asset aziendali.

Considerazioni sulla sicurezza dell'utilizzo dell'intelligenza artificiale: la protezione dell'utilizzo dell'intelligenza artificiale è simile a qualsiasi sistema informatico, perché si basa su garanzie di sicurezza per i controlli di identità e accesso, protezioni e monitoraggio dei dispositivi, protezione e governance dei dati, controlli amministrativi e altri controlli.

Maggiore attenzione è necessaria sul comportamento degli utenti e sulla responsabilità a causa dell'aumento dell'influenza degli utenti sull'output dei sistemi. È fondamentale aggiornare i criteri di utilizzo accettabili e informare gli utenti sulla differenza delle applicazioni IT standard per le applicazioni abilitate per l'intelligenza artificiale. Tali criteri devono includere considerazioni specifiche relative all'intelligenza artificiale in materia di sicurezza, privacy ed etica. Inoltre, gli utenti devono essere informati sugli attacchi basati sull'intelligenza artificiale che possono essere usati per raggirarli con testi falsi convincenti, voci, video e altro ancora.

I tipi di attacco specifici dell'intelligenza artificiale sono definiti in:

Ciclo di vita della sicurezza

Come per la sicurezza per altri tipi di funzionalità, è fondamentale pianificare un approccio completo. Un approccio completo include persone, processi e tecnologie nell'intero ciclo di vita della sicurezza: identificare, proteggere, rilevare, rispondere, ripristinare e gestire. Qualsiasi gap o debolezza in questo ciclo di vita potrebbe avere:

  • Non è possibile proteggere gli asset importanti
  • Esperienza di attacchi facilmente evitabili
  • Impossibile gestire gli attacchi
  • Non è possibile ripristinare rapidamente i servizi business critical
  • Applicare controlli in modo incoerente

Per altre informazioni sulla natura univoca dei test delle minacce per l'intelligenza artificiale, vedere come Microsoft AI Red Team sta creando il futuro dell'intelligenza artificiale più sicura.

Configurare prima di personalizzare

Microsoft consiglia alle organizzazioni di iniziare con approcci basati su SaaS, ad esempio il modello Copilot, per l'adozione iniziale dell'IA e per tutti i carichi di lavoro di intelligenza artificiale successivi. Ciò riduce al minimo il livello di responsabilità e competenze che l'organizzazione deve fornire per progettare, gestire e proteggere queste funzionalità estremamente complesse.

Se le funzionalità correnti "off the shelf" non soddisfano le esigenze specifiche per un carico di lavoro, è possibile adottare un modello PaaS usando i servizi di intelligenza artificiale, ad esempio il servizio Azure OpenAI, per soddisfare tali requisiti specifici.

La creazione di modelli personalizzati deve essere adottata solo dalle organizzazioni con competenze approfondite in materia di data science e sicurezza, privacy e considerazioni etiche dell'IA.

Per contribuire a portare l'IA al mondo, Microsoft sta sviluppando soluzioni Copilot per ognuna delle principali soluzioni di produttività: da Bing e Windows a GitHub e Office 365. Microsoft sta sviluppando soluzioni full stack per tutti i tipi di scenari di produttività. Questi vengono offerti come soluzioni SaaS. Integrato nell'interfaccia utente del prodotto, vengono ottimizzati per aiutare l'utente con attività specifiche per aumentare la produttività.

Microsoft garantisce che ogni soluzione Copilot sia progettata seguendo i principi fondamentali per la governance dell'IA.

Passaggi successivi

Altre informazioni sui requisiti di sviluppo dei prodotti Microsoft per l'IA responsabile nello standard di intelligenza artificiale responsabile Microsoft.

Informazioni sulle responsabilità condivise per il cloud computing.