Privacy, sicurezza e uso responsabile di Copilot in Fabric
Prima che l'azienda inizi a usare Copilot in Fabric, potrebbero essere presenti domande sul funzionamento, su come mantenere sicuri i dati aziendali e rispettare i requisiti di privacy e su come usare l'intelligenza artificiale generativa in modo responsabile.
Questo articolo fornisce risposte alle domande comuni relative alla sicurezza e alla privacy dei dati aziendali per aiutare l'organizzazione a iniziare a usare Copilot in Fabric. L'articolo privacy, sicurezza e uso responsabile per Copilot in Power BI (anteprima) offre una panoramica delle Copilot in Power BI. Continua a leggere per i dettagli su Copilot per Fabric.
Nota
- L'amministratore deve abilitare il switch del tenant prima di iniziare a usare Copilot. Per informazioni dettagliate, vedere l'articolo Copilot impostazioni del tenant.
- La capacità F64 o P1 deve trovarsi in una delle regioni elencate in questo articolo, disponibilità del Fabric nelle regioni.
- Se il tuo tenant o la tua capacità si trovano al di fuori degli Stati Uniti o della Francia, Copilot è disabilitato per impostazione predefinita, a meno che l'amministratore del tenant di Fabric non abiliti l'impostazione che permette l'elaborazione dei dati inviati ad Azure OpenAI al di fuori della regione geografica del tuo tenant, del limite di conformità o dell'istanza di cloud nazionale nel portale di amministrazione di Fabric.
- Copilot in Microsoft Fabric non è supportato negli SKU di prova. Sono supportati solo gli SKU a pagamento (F64 o versione successiva o P1 o superiore).
- Copilot in Fabric è attualmente in fase di distribuzione in anteprima pubblica e dovrebbe essere disponibile per tutti i clienti entro la fine di marzo 2024.
- Per altre informazioni, vedere l'articolo Panoramica delle Copilot in Fabric e Power BI.
I dati aziendali sono sicuri
- Copilot funzionalità usano servizio Azure OpenAI, completamente controllato da Microsoft. I dati non vengono usati per eseguire il training dei modelli e non sono disponibili per altri clienti.
- Si mantiene il controllo sulla posizione in cui vengono elaborati i dati. I dati elaborati da Copilot in Fabric rimangono all'interno dell'area geografica del tenant, a meno che non si consenta esplicitamente l'elaborazione dei dati all'esterno dell'area, ad esempio per consentire agli utenti di usare Copilot quando Azure OpenAI non è disponibile nell'area o la disponibilità è limitata a causa di una domanda elevata. Scopri di più sulle impostazioni di amministrazione di per Copilot.
- Copilot non archivia i dati per il monitoraggio degli abusi. Per migliorare la privacy e l'attendibilità, è stato aggiornato l'approccio al monitoraggio degli abusi: in precedenza sono stati conservati i dati di Copilot in Fabric, contenenti input e output delle richieste, per un massimo di 30 giorni per verificare la presenza di abusi o uso improprio. Dopo il feedback dei clienti, abbiamo eliminato questa conservazione di 30 giorni. Ora, non archiviamo più i dati correlati alle richieste, dimostrando il nostro impegno incrollabile per la privacy e la sicurezza.
Controllare gli output Copilot prima di usarli
- Copilot risposte possono includere contenuti non accurati o di bassa qualità, quindi assicurarsi di esaminare i risultati prima di usarli nel proprio lavoro.
- Gli utenti che possono valutare in modo significativo l'accuratezza e l'adeguatezza del contenuto devono esaminare gli output.
- Oggi, le funzionalità Copilot funzionano meglio in inglese. Altre lingue potrebbero non funzionare altrettanto bene.
Importante
Esamina le condizioni di anteprima supplementari per Fabric, che includono le condizioni d'uso per le anteprime del servizio di intelligenza artificiale generativa di Microsoft.
Funzionamento di Copilot
In questo articolo, Copilot fa riferimento a una gamma di funzionalità e funzionalità di intelligenza artificiale generative in Fabric basate sul servizio Azure OpenAI.
In generale, queste funzionalità sono progettate per generare linguaggio naturale, codice o altro contenuto basato su:
(b) dati di base a cui la funzionalità ha accesso.
Ad esempio, Power BI, Data Factory e data science offrono Copilot chat in cui è possibile porre domande e ottenere risposte contestualizzate sui dati. Copilot per Power BI può anche creare report e altre visualizzazioni. Copilot per Data Factory può trasformare i dati e spiegare i passaggi applicati. La data science offre funzionalità Copilot al di fuori del riquadro della chat, come i comandi magici IPython personalizzati nei notebook. Copilot le chat possono essere aggiunte ad altre esperienze in Fabric, insieme ad altre funzionalità basate su Azure OpenAI.
Queste informazioni vengono inviate al servizio OpenAI di Azure, in cui vengono elaborate e viene generato un output. Di conseguenza, i dati elaborati da Azure OpenAI possono includere:
- Il prompt o l'inputdell'utente.
- dati fondamentali.
- La risposta o l'output di intelligenza artificiale.
I dati di base possono includere una combinazione di schema del set di dati, punti dati specifici e altre informazioni rilevanti per l'attività corrente dell'utente. Esaminare ogni sezione dell'esperienza per informazioni dettagliate sui dati accessibili alle funzionalità di Copilot in tale scenario.
Le interazioni con Copilot sono specifiche di ogni utente. Ciò significa che Copilot può accedere solo ai dati a cui l'utente corrente ha l'autorizzazione per accedere e i relativi output sono visibili solo a tale utente, a meno che l'utente non condivida l'output con altri utenti, ad esempio la condivisione di un report di Power BI generato o il codice generato. Copilot non utilizza dati di altri utenti nello stesso tenant o in altri tenant.
Copilot usa Azure OpenAI, non i servizi OpenAI disponibili pubblicamente, per elaborare tutti i dati, inclusi input utente, dati di base e output Copilot. Copilot attualmente usa una combinazione di modelli GPT, tra cui GPT 3.5. Microsoft ospita i modelli OpenAI nell'ambiente Microsoft Azure e il servizio non interagisce con alcun servizio da OpenAI, ad esempio ChatGPT o l'API OpenAI. I dati non vengono usati per eseguire il training dei modelli e non sono disponibili per altri clienti. Altre informazioni su Azure OpenAI.
Processo di Copilot
Queste funzionalità seguono lo stesso processo generale:
- Copilot riceve un prompt da un utente. Questa richiesta potrebbe essere sotto forma di domanda che un utente digita in un riquadro di chat o sotto forma di azione, ad esempio la selezione di un pulsante che indica "Crea un report".
- Copilot pre-elabora la richiesta tramite un approccio denominato grounding. A seconda dello scenario, questo potrebbe includere il recupero di dati pertinenti, ad esempio lo schema del set di dati o la cronologia delle chat dalla sessione corrente dell'utente con Copilot. Il grounding migliora la specificità della richiesta, in modo che l'utente ottenga risposte rilevanti e utilizzabili per l'attività specifica. Il recupero dei dati è limitato ai dati accessibili all'utente autenticato in base alle relative autorizzazioni. Vedere la sezione Quali dati vengono usati Copilot e come vengono elaborati? in questo articolo per altre informazioni.
- Copilot accetta la risposta da Azure OpenAI ed esegue la post-elaborazione. A seconda dello scenario, questa post-elaborazione può includere controlli di intelligenza artificiale responsabili, filtri con moderazione del contenuto di Azure o vincoli aggiuntivi specifici dell'azienda.
- Copilot restituisce una risposta all'utente sotto forma di linguaggio naturale, codice o altro contenuto. Ad esempio, una risposta potrebbe essere sotto forma di messaggio di chat o codice generato oppure potrebbe trattarsi di un modulo contestualmente appropriato, ad esempio un report di Power BI o una cella del notebook Synapse.
- L'utente esamina la risposta prima di usarla. Copilot risposte possono includere contenuto impreciso o di bassa qualità, quindi è importante per gli esperti di materia controllare gli output prima di usarli o condividerli.
Proprio come ogni esperienza in Fabric è stata progettata per determinati scenari e persone, dagli ingegneri dei dati agli analisti dei dati, ogni Copilot funzionalità di Fabric è stata progettata anche con scenari e utenti specifici. Per le funzionalità, gli usi previsti e le limitazioni di ogni funzionalità, vedere la sezione relativa all'esperienza in uso.
Definizioni
Richiesta o input
Testo o azione inviata a Copilot da un utente. Potrebbe trattarsi di una domanda che un utente digita in un riquadro di chat o sotto forma di azione, ad esempio la selezione di un pulsante che indica "Crea un report".
Messa a terra
Una tecnica di pre-elaborazione in cui Copilot recupera dati aggiuntivi contestuali alla richiesta dell'utente e quindi invia tali dati insieme alla richiesta dell'utente ad Azure OpenAI per generare una risposta più pertinente e pratica.
Risposta o risultato
Contenuto che Copilot restituisce a un utente. Ad esempio, una risposta potrebbe essere sotto forma di messaggio di chat o codice generato oppure potrebbe essere contenuto contestualmente appropriato, ad esempio un report di Power BI o una cella del notebook Synapse.
Quali dati vengono usati Copilot e come vengono elaborati?
Per generare una risposta, Copilot usa:
- Richiesta o input dell'utente e, se appropriato,
- Dati aggiuntivi recuperati tramite il processo di adattamento.
Queste informazioni vengono inviate al servizio OpenAI di Azure, in cui vengono elaborate e viene generato un output. Di conseguenza, i dati elaborati da Azure OpenAI possono includere:
- Richiesta o input dell'utente.
- Dati di base.
- Risposta o output di intelligenza artificiale.
I dati di base possono includere una combinazione di schema del set di dati, punti dati specifici e altre informazioni rilevanti per l'attività corrente dell'utente. Esaminare ogni sezione dell'esperienza per informazioni dettagliate sui dati accessibili alle funzionalità di Copilot in tale scenario.
Le interazioni con Copilot sono specifiche di ogni utente. Ciò significa che Copilot può accedere solo ai dati a cui l'utente corrente ha l'autorizzazione per accedere e i relativi output sono visibili solo a tale utente, a meno che l'utente non condivida l'output con altri utenti, ad esempio la condivisione di un report di Power BI generato o il codice generato. Copilot non utilizza dati di altri utenti all'interno dello stesso tenant o di altri tenant.
Copilot usa Azure OpenAI, non i servizi disponibili pubblicamente di OpenAI, per elaborare tutti i dati, inclusi input utente, dati di base e output Copilot. Copilot attualmente usa una combinazione di modelli GPT, tra cui GPT 3.5. Microsoft ospita i modelli OpenAI nell'ambiente Azure di Microsoft e il servizio non interagisce con alcun servizio da OpenAI, ad esempio ChatGPT o l'API OpenAI. I dati non vengono usati per eseguire il training dei modelli e non sono disponibili per altri clienti. Altre informazioni su Azure OpenAI.
Residenza e conformità dei dati
Si mantiene il controllo sulla posizione in cui vengono elaborati i dati. I dati elaborati da Copilot in Fabric rimangono all'interno dell'area geografica del tenant, a meno che non si consenta esplicitamente l'elaborazione dei dati all'esterno dell'area, ad esempio per consentire agli utenti di usare Copilot quando Azure OpenAI non è disponibile nell'area o la disponibilità è limitata a causa di una domanda elevata. Vedere in cui Azure OpenAI è attualmente disponibile.)
Per consentire l'elaborazione dei dati altrove, l'amministratore può attivare l'impostazione Dati inviati ad Azure OpenAI può essere elaborato all'esterno dell'area geografica del tenant, del limite di conformità o dell'istanza cloud nazionale. Scopri di più sulle impostazioni di amministrazione di per Copilot.
Cosa devo sapere per usare Copilot responsabilmente?
Microsoft si impegna a garantire che i nostri sistemi di intelligenza artificiale siano guidati dai nostri principi di IA e dallo Standard per l'IA Responsabile . Questi principi includono la possibilità per i nostri clienti di usare questi sistemi in modo efficace e in linea con i loro usi previsti. Il nostro approccio all'IA responsabile è in continua evoluzione per risolvere in modo proattivo i problemi emergenti.
Copilot funzionalità di Fabric sono create per soddisfare lo standard di intelligenza artificiale responsabile, il che significa che vengono esaminate dai team multidisciplinari per individuare potenziali danni e quindi affinate per includere mitigazioni per tali danni.
Prima di usare Copilot, tenere presenti le limitazioni di Copilot:
- Copilot risposte possono includere contenuti non accurati o di bassa qualità, quindi assicurati di esaminare i risultati prima di utilizzarli nel tuo lavoro.
- Gli utenti in grado di valutare in modo significativo l'accuratezza e l'adeguatezza del contenuto devono esaminare gli output.
- Attualmente, le funzionalità di Copilot funzionano meglio in inglese. Altre lingue potrebbero non funzionare altrettanto bene.
Copilot per i carichi di lavoro di Fabric
Privacy, sicurezza e uso responsabile per:
- Copilot per Data Factory (anteprima)
- Copilot per l'analisi scientifica dei dati (anteprima)
- Copilot per Data Warehouse (Anteprima)
- Copilot per i database SQL (anteprima)
- Copilot per Power BI
- Copilot per di Real-Time Intelligence (anteprima)