Considerazioni sull'intelligenza artificiale responsabile per carichi di lavoro di applicazioni intelligenti
I carichi di lavoro delle applicazioni intelligenti devono rispettare i principi dell'intelligenza artificiale responsabile per garantire equità, responsabilità, trasparenza e comportamento etico.
Progettare il sistema di intelligenza artificiale in modo da trattare tutti gli utenti in modo equo, ritenere gli sviluppatori e gli utenti responsabili delle sue prestazioni, garantire la trasparenza nelle operazioni di intelligenza artificiale e rispettare gli standard etici.
Noi di Microsoft ci impegniamo per il progresso dell'intelligenza artificiale guidata da principi che mettono le persone al primo posto. I modelli generativi presentano potenziali vantaggi significativi, ma senza un'attenta progettazione e mitigazioni ponderate, tali modelli possono generare contenuti errati o addirittura dannosi. Microsoft ha effettuato investimenti significativi per aiutare a proteggersi da abusi e danni non intenzionali, che includono l'integrazione dei principi per l'uso responsabile dell'IA di Microsoft, adottando un codice di comportamento, la creazione di filtri di contenuti per supportare i clienti e la fornitura di informazioni e linee guida sull'IA responsabile che i clienti dovrebbero prendere in considerazione quando utilizzano l'IA generativa.
I copiloti Power Platform e le funzionalità di IA generativa seguono un set di procedure di base per la sicurezza e la privacy e lo Standard sull'intelligenza artificiale responsabile di Microsoft. I dati di Power Platform sono protetti da controlli di conformità, privacy e sicurezza completi e leader del settore.
Altre informazioni:
- Principi di IA di Microsoft
- Intelligenza artificiale responsabile di Microsoft: risorse
- Corsi di apprendimento di Microsoft Azure sull'intelligenza artificiale responsabile
- Domande frequenti sull'intelligenza artificiale responsabile per Copilot Studio
- Panoramica delle procedure di intelligenza artificiale responsabile per modelli di OpenAI di Azure
Principi fondamentali dell'IA responsabile
I principi fondamentali dell'IA responsabile includono equità, responsabilità, trasparenza ed etica. Per garantire che un carico di lavoro di un'applicazione intelligente creata con Power Platform aderisca a questi principi fondamentali sono necessarie diverse procedure chiave:
- Equità: utilizza dati di training diversificati e rappresentativi per ridurre al minimo le distorsioni. Aggiorna regolarmente i dati di addestramento e arruola revisori per convalidare la correttezza e l'equità.
- Responsabilità: definisci ruoli e responsabilità chiari per i membri del team coinvolti nel progetto di intelligenza artificiale. Stabilisci e aderisci a standard etici che diano priorità all'equità e alla responsabilità.
- Trasparenza: assicurati che gli utenti sappiano che stanno utilizzando un carico di lavoro che utilizza funzionalità di intelligenza artificiale generativa. Comunica chiaramente perché è stata scelta una soluzione di intelligenza artificiale, come è stata progettata e come viene monitorata e aggiornata.
- Etica: promuove una forza lavoro inclusiva e cerca il contributo di comunità diverse nelle prime fasi del processo di sviluppo. Valuta e testa regolarmente i modelli per individuare le preoccupazioni etiche e le disparità nelle prestazioni. Stabilisci un framework di governance che includa controlli regolari.
Incorpora queste procedure nei processi di sviluppo e distribuzione per creare un carico di lavoro dell'applicazione intelligente che aderisca ai principi fondamentali dell'intelligenza artificiale responsabile.
Sicurezza e privacy dei dati
Garantire la privacy dei dati è fondamentale, soprattutto perché il carico di lavoro dell'applicazione intelligente può gestire dati sensibili. Quando si pianifica un carico di lavoro Power Platform di un'applicazione intelligente, è essenziale affrontare diversi rischi chiave e implementare strategie di mitigazione efficaci:
- Funzionalità della piattaforma: scopri i controlli nativi e le funzionalità della piattaforma che proteggono i tuoi dati. Microsoft Copilot si basa sul Servizio OpenAI di Microsoft Azure e viene eseguito completamente nel cloud di Azure. Copilot utilizza i modelli OpenAI con tutte le funzionalità di sicurezza di Microsoft Azure. Copilot è integrato in servizi Microsoft come Dynamics 365 e Power Platform ed eredita i criteri e i processi di sicurezza, conformità e privacy di questi prodotti, come ad esempio l'autenticazione a più fattori e i limiti di conformità.
- Crittografia dei dati: le tecnologie lato servizio crittografano i contenuti inattivi e in transito dell'organizzazione a favore di una sicurezza solida. Le connessioni sono salvaguardate con il protocollo Transport Layer Security (TLS) e i trasferimenti di dati tra Dynamics 365, Power Platform e OpenAI di Azure avvengono sulla rete backbone Microsoft, garantendo così affidabilità e sicurezza. Altre informazioni sulla crittografia in Microsoft Cloud.
- Controlli di accesso: i dati vengono forniti a Copilot (o a un agente personalizzato) solo in base al livello di accesso dell'utente corrente. Implementa il controllo degli accessi in base al ruolo (RBAC) tramite Microsoft Entra ID per garantire che solo gli utenti autorizzati possano accedere ai dati. Applica il principio del privilegio minimo per limitare l'accesso solo a ciò che è necessario.
- Monitoraggio e controllo: rileva e rispondi a potenziali incidenti di sicurezza monitorando regolarmente l'accesso e l'utilizzo del sistema di intelligenza artificiale. Gestisci registri di controllo dettagliati per tenere traccia dell'accesso e delle modifiche ai dati.
- Conformità e governance: garantisci la conformità alle normative sulla privacy dei dati pertinenti, come GDPR (Regolamento generale sulla protezione dei dati), HIPAA (Health Insurance Portability and Accountability Act) e CCPA (California Consumer Privacy Act). Implementa pratiche etiche di IA per evitare distorsioni e garantire l'equità nei risultati dell'IA.
- Educazione degli utenti e formazione: formare gli utenti sulle procedure consigliate di sicurezza e sull'importanza della privacy dei dati. Tieni informati gli utenti sugli aggiornamenti e sulle modifiche ai criteri e alle procedure di sicurezza.
Altre informazioni: Domande frequenti sulla sicurezza e sulla privacy dei dati utilizzati da Copilot per Dynamics 365 e Power Platform
Consapevolezza e mitigazione dei pregiudizi
Riconosci l'importanza di affrontare i pregiudizi nel sistema e garantire l'equità per evitare distorsioni nelle risposte dell'IA.
- Dati vari e rappresentativi: assicurati che i dati di formazione siano vari e rappresentativi dei diversi dati demografici per ridurre al minimo le distorsioni intrinseche. Controlla regolarmente i dati per individuare distorsioni e squilibri e intraprendere azioni correttive se necessario.
- Strumenti di rilevamento e mitigazione delle distorsioni: utilizza strumenti e tecniche per rilevare le distorsioni nei modelli di intelligenza artificiale, come l'analisi statistica e le metriche di equità. Implementa tecniche di debiasing, tra cui il ricampionamento, la riponderazione o l'adversarial debiasing, per ridurre le distorsioni nei modelli.
- Intervento umano nel ciclo: integra cicli di revisione e feedback umani per identificare e correggere i pregiudizi che l'IA potrebbe introdurre. Istituisci un comitato etico o un comitato di governance per supervisionare lo sviluppo e l'implementazione dell'IA, garantendo il rispetto degli standard etici.
- Trasparenza e fiducia: assicurati che gli utenti sappiano che stanno utilizzando un carico di lavoro che utilizza funzionalità di intelligenza artificiale generativa. Comunica chiaramente perché è stata scelta una soluzione di intelligenza artificiale e fornisci informazioni su come è stata progettata e su come viene monitorata e aggiornata.
- Monitoraggio e miglioramento continui: monitora continuamente il sistema di intelligenza artificiale alla ricerca di distorsioni e problemi di prestazioni e aggiorna i modelli secondo necessità. Assicurati che i modelli rimangano equi e imparziali ripetendo regolarmente il training dei modelli con dati aggiornati e più diversificati.
Monitoraggio e valutazione continui
Continua a migliorare il carico di lavoro delle applicazioni intelligenti. Stabilisci un quadro di riferimento per il monitoraggio e la valutazione continui e incorpora il feedback degli utenti e l'evoluzione degli standard etici negli aggiornamenti.
- Cicli di feedback: stabilisci meccanismi di feedback in cui gli utenti possono segnalare imprecisioni, che possono quindi essere utilizzate per perfezionare e migliorare i modelli.
- Monitoraggio e controllo: rileva e rispondi a potenziali incidenti di sicurezza monitorando regolarmente l'accesso e l'utilizzo del sistema di intelligenza artificiale. Gestisci registri di controllo dettagliati per tenere traccia dell'accesso e delle modifiche ai dati.