Gestire una soluzione di intelligenza artificiale generativa responsabile
Dopo aver identificato i potenziali danni, sviluppato un modo per misurarne la presenza e implementato le misure di mitigazione nella soluzione, è possibile prepararsi al rilascio della soluzione. Prima di eseguire questa operazione, è necessario effettuare alcune considerazioni che consentono di garantire l'esito positivo della versione e delle operazioni successive.
Completare le revisioni della versione preliminare
Prima di rilasciare una soluzione di intelligenza artificiale generativa, identificare i vari requisiti di conformità nell'organizzazione e nel settore e assicurarsi che i team appropriati siano in grado di esaminare il sistema e la relativa documentazione. Le verifiche di conformità comuni includono:
- Note legali
- Riservatezza
- Sicurezza
- Accessibilità
Rilasciare e gestire la soluzione
L'esito positivo di una versione richiede una pianificazione e una preparazione. Considerare le linee guida seguenti:
- Progettare un piano di recapito in più fasi che consente di rilasciare inizialmente la soluzione a un gruppo limitato di utenti. Questo approccio consente di raccogliere commenti e suggerimenti e identificare i problemi prima di rilasciare la soluzione a un pubblico più ampio.
- Creare un piano di risposta agli eventi imprevisti che includa le stime del tempo impiegato per rispondere agli eventi imprevisti.
- Creare un piano di ripristino dello stato precedente che definisca i passaggi per ripristinare lo stato precedente della soluzione in caso di un evento imprevisto.
- Implementare la funzionalità per bloccare immediatamente le risposte dannose al sistema quando vengono individuate.
- Implementare una funzionalità per bloccare utenti, applicazioni o indirizzi IP client specifici in caso di uso improprio del sistema.
- Implementare un modo per consentire agli utenti di fornire feedback e segnalare problemi. In particolare, consentire agli utenti di segnalare i contenuti generati come "imprecisi", "incompleti", "dannosi", "offensivi" o comunque problematici.
- Tenere traccia dei dati di telemetria che consentono di determinare la soddisfazione degli utenti e identificare le lacune funzionali o i problemi di usabilità. I dati di telemetria raccolti devono rispettare le leggi sulla privacy e i criteri e gli impegni dell'organizzazione per la privacy degli utenti.
Usare Sicurezza dei contenuti di Azure AI
Diverse risorse di Azure per intelligenza artificiale forniscono un'analisi predefinita dei contenuti usati, tra cui Linguaggio, Visione e Azure OpenAI tramite i filtri dei contenuti.
Sicurezza dei contenuti di Azure AI offre altre funzionalità incentrate sul proteggere l'intelligenza artificiale e i copiloti dai rischi. Queste funzionalità includono il rilevamento di un linguaggio inappropriato o offensivo, sia da input che generato, e il rilevamento di input rischiosi o inappropriati.
Le funzionalità di Sicurezza dei contenuti di Azure AI includono:
Funzionalità | Funzionalità |
---|---|
Protezioni delle richieste | Analisi del rischio di attacchi di input dell'utente ai modelli linguistici |
Rilevamento del grounding | Rileva se le risposte di testo sono basate sul contenuto di origine dell'utente |
Rilevamento di materiale protetto | Analizza i contenuti protetti da copyright |
Categorie personalizzate | Definire categorie personalizzate per qualsiasi modello nuovo o emergente |
I dettagli e l'avvio rapido per l'uso di Sicurezza dei contenuti di Azure AI sono disponibili nelle pagine di documentazione del servizio.