Condividi tramite


Linee guida per l'integrazione e l'uso responsabile di Personalizza esperienze

Importante

A partire dal 20 settembre 2023 non sarà possibile creare nuove risorse di Personalizza esperienze. Il servizio Personalizza esperienze verrà ritirato il 1° ottobre 2026.

Microsoft collabora per aiutare i clienti a sviluppare e distribuire soluzioni in modo responsabile usando Personalizza esperienze di Azure AI. Il nostro approccio basato sul principio sostiene l'agenzia personale e la dignità considerando il sistema di IA:

  • Equità, affidabilità e sicurezza.
  • Privacy e tutela.
  • Inclusività.
  • Trasparenza.
  • Responsabilità umana.

Queste considerazioni riflettono il nostro impegno nello sviluppo dell'IA responsabile.

Linee guida generali per l'integrazione e i principi di utilizzo responsabile

Quando si è pronti per l'integrazione e l'uso responsabile di prodotti o funzionalità basati sull'intelligenza artificiale, le attività seguenti consentono di configurare in modo ottimale:

  • Informazioni su cosa può fare. Valutare appieno il potenziale di Personalizza esperienze per comprenderne le funzionalità e le limitazioni. Comprendere come verrà eseguito nello scenario e nel contesto specifico testandolo accuratamente con condizioni e dati reali.

  • Rispettare il diritto alla privacy di un utente. Raccogliere solo dati e informazioni da persone per scopi legittimi e giustificabili. Usare solo i dati e le informazioni per cui si ha il consenso all’utilizzo per questo scopo.

  • Ottenere una revisione legale. Richiedere una consulenza legale appropriata per esaminare Personalizza esperienze e il modo in cui lo si utilizza nella soluzione, in particolare se lo si utilizza in applicazioni sensibili o ad alto rischio. Comprendere entro quali restrizioni potrebbe essere necessario lavorare e la propria responsabilità nel risolvere eventuali problemi che potrebbero verificarsi in futuro.

  • Disporre sempre di una verifica umana. Includere la supervisione umana come area di modello coerente da esplorare. Garantire una supervisione umana costante del prodotto o della funzionalità basata sull'intelligenza artificiale. Mantenere il ruolo degli esseri umani nel processo decisionale. Assicurarsi di disporre di un intervento umano in tempo reale nella soluzione per evitare danni e gestire situazioni in cui il sistema di intelligenza artificiale non funziona come previsto.

  • Creare una relazione di trust con gli stakeholder interessati. Comunicare i vantaggi previsti e i potenziali rischi per gli stakeholder interessati. Aiutare gli utenti a capire perché i dati sono necessari e come l'uso dei dati porterà loro dei vantaggi. Descrivere la gestione dei dati in modo comprensibile.

  • Creare un ciclo di feedback dei clienti. Fornire un canale di feedback che consente a utenti e ai singoli di segnalare problemi con il servizio dopo la distribuzione. Dopo aver distribuito un prodotto o una funzionalità basata su intelligenza artificiale, richiede un monitoraggio e un miglioramento continui. Essere pronti per implementare eventuali commenti e suggerimenti per il miglioramento. Stabilire canali per raccogliere domande e preoccupazioni da parte degli stakeholder interessati. Le persone che potrebbero essere direttamente o indirettamente interessate dal sistema includono dipendenti, visitatori e pubblico generale.

  • Feedback: cercare feedback da un campionamento diversificato della community durante il processo di sviluppo e valutazione (ad esempio, gruppi storicamente emarginati, persone con disabilità e operatori dei servizi). Per altre informazioni, vedere Giuria della Community.

  • Studio degli utenti: qualsiasi raccomandazione in materia di consenso o divulgazione deve essere inserita in uno studio degli utenti. Valutare la prima esperienza e l'esperienza di utilizzo continuo con un campione rappresentativo della community per verificare che le scelte di progettazione portino a una divulgazione efficace. Condurre ricerche sugli utenti con 10-20 membri della community (stakeholder interessati) per valutare la comprensione delle informazioni e determinare se vengono soddisfatte le loro aspettative.

  • Trasparenza e spiegabilità: valutare la possibilità di abilitare e usare la capacità di spiegabilità dell'inferenza di Personalizza esperienze per comprendere meglio quali funzionalità svolgono un ruolo significativo nella scelta decisionale di Personalizza esperienze in ogni chiamata di classificazione. Questa funzionalità consente di fornire agli utenti trasparenza in merito al modo in cui i dati hanno svolto un ruolo nella produzione dell'azione consigliata. Ad esempio, è possibile assegnare agli utenti un pulsante con l'etichetta "Perché questi suggerimenti?" che mostra quali funzionalità principali hanno avuto un ruolo nella produzione dei risultati di Personalizza esperienze. Queste informazioni possono essere usate anche per comprendere meglio quali attributi di dati sugli utenti, i contesti e le azioni funzionano a favore della scelta di Personalizza esperienze, quali stanno lavorando contro di esso e quali potrebbero avere un effetto minimo o nullo. Questa funzionalità può anche fornire informazioni dettagliate sui segmenti degli utenti e aiutare a identificare e risolvere potenziali distorsioni.

  • Uso antagonista: valutare la possibilità di stabilire un processo per rilevare e agire sulla manipolazione dannosa. Ci sono attori che sfruttano la capacità di machine learning e i sistemi di intelligenza artificiale di imparare dal proprio ambiente. Con gli attacchi coordinati, possono simulare artificialmente modelli di comportamento che spostano i dati e i modelli di intelligenza artificiale verso i loro obiettivi. Se l'uso di Personalizza esperienze potrebbe influire sulle scelte importanti, assicurarsi di avere i mezzi appropriati per rilevare e attenuare questi tipi di attacchi.

  • Rifiutare esplicitamente: valutare la possibilità di fornire agli utenti un controllo per rifiutare esplicitamente la ricezione di raccomandazioni personalizzate. Per questi utenti, l'API di classificazione di Personalizza esperienze non verrà chiamata dall'applicazione. L'applicazione può invece usare un meccanismo alternativo per decidere quale azione viene eseguita. Ad esempio, rifiutando esplicitamente le raccomandazioni personalizzate e scegliendo l'azione predefinita o di base, l'utente potrebbe sperimentare l'azione che verrebbe eseguita senza consigli di Personalizza esperienze. In alternativa, l'applicazione può usare raccomandazioni basate su misure aggregate o basate sulla popolazione (ad esempio, tendenze, primi 10 più popolari e così via).

Responsabilità

Tutte le linee guida per l'implementazione responsabile si basano sul fatto che gli sviluppatori e le aziende che usano Personalizza esperienze sono responsabili e devono rendere conto degli effetti dell'uso di questi algoritmi nella società. Se si sviluppa un'applicazione che verrà distribuita dall'organizzazione a cui si appartiene, è necessario riconoscere il proprio ruolo e la propria responsabilità nel funzionamento dell'applicazione e nel relativo impatto sulle persone. Se si progetta un'applicazione da distribuire da terze parti, è possibile comprendere chi è responsabile del comportamento dell'applicazione. Assicurarsi di documentare tale comprensione.

Domande e commenti

Microsoft aggiorna continuamente strumenti e documenti che consentano di far fronte a queste responsabilità. Il nostro team invita gli utenti a inviare commenti e suggerimenti a Microsoft, se ritengono che per implementare queste linee guida per l'uso di Personalizza esperienze sarebbero utili altri strumenti, documenti e funzionalità di prodotto.

  • Vedere i sei principi di Microsoft per lo sviluppo responsabile di intelligenza artificiale che sono stati pubblicati nel libro di gennaio 2018 The Future Computed (Il calcolo del futuro).

Passaggi successivi

Informazioni su come l'API Personalizza esperienze riceve le funzionalità: Funzionalità: Azione e contesto