Microsoft Purview protegge la sicurezza dei dati e la conformità per le app di intelligenza artificiale generativa
Linee guida sulle licenze di Microsoft 365 per la sicurezza & conformità
Usare Microsoft Purview per attenuare e gestire i rischi associati all'utilizzo dell'IA e implementare i controlli di protezione e governance corrispondenti.
Microsoft Purview Data Security Posture Management per intelligenza artificiale offre strumenti grafici e report facili da usare per ottenere rapidamente informazioni dettagliate sull'uso dell'IA all'interno dell'organizzazione. I criteri con un clic consentono di proteggere i dati e di rispettare i requisiti normativi.
Usare Data Security Posture Management per l'intelligenza artificiale insieme ad altre funzionalità di Microsoft Purview per rafforzare la sicurezza e la conformità dei dati per Microsoft 365 Copilot e Microsoft Copilot:
- Etichette di riservatezza e contenuto crittografato da Microsoft Purview Information Protection
- Classificazione dei dati
- Customer Key
- Conformità delle comunicazioni
- Controllo
- Ricerca contenuto
- eDiscovery
- Conservazione ed eliminazione
- Customer Lockbox
Nota
Per verificare se i piani di licenza dell'organizzazione supportano queste funzionalità, vedere il collegamento alle linee guida sulle licenze nella parte superiore della pagina. Per informazioni sulle licenze per Microsoft 365 Copilot stesso, vedere la descrizione del servizio per Microsoft 365 Copilot.
Usare le sezioni seguenti per altre informazioni sulla gestione del comportamento di sicurezza dei dati per l'intelligenza artificiale e sulle funzionalità di Microsoft Purview che forniscono controlli aggiuntivi per la sicurezza e la conformità dei dati per accelerare l'adozione di Microsoft 365 Copilot e altre app di intelligenza artificiale generative dell'organizzazione. Se non si ha familiarità con Microsoft Purview, è anche possibile trovare una panoramica del prodotto utile: Informazioni su Microsoft Purview.
Per informazioni più generali sui requisiti di sicurezza e conformità per Microsoft 365 Copilot, vedere Dati, privacy e sicurezza per Microsoft 365 Copilot. Per Microsoft Copilot, vedere Protezione e privacy copilot.
Gestione del comportamento di sicurezza dei dati per l'intelligenza artificiale fornisce informazioni dettagliate, criteri e controlli per le app per intelligenza artificiale
Microsoft Purview Data Security Posture Management for AI (DSPM for AI) dal portale di Microsoft Purview o dal Portale di conformità di Microsoft Purview offre una posizione di gestione centrale che consente di proteggere rapidamente i dati per le app per intelligenza artificiale e monitorare in modo proattivo l'uso dell'intelligenza artificiale. Queste app includono Microsoft 365 Copilot, altri copilot di Microsoft e app per intelligenza artificiale di moduli di linguaggio di grandi dimensioni di terze parti.
Data Security Posture Management for AI offre un set di funzionalità che consentono di adottare in modo sicuro l'intelligenza artificiale senza dover scegliere tra produttività e protezione:
Informazioni dettagliate e analisi sulle attività di intelligenza artificiale nell'organizzazione
Criteri pronti per l'uso per proteggere i dati e prevenire la perdita di dati nelle richieste di intelligenza artificiale
Valutazioni dei dati per identificare, correggere e monitorare la potenziale sovrasdivisione dei dati.
Controlli di conformità per applicare criteri ottimali per la gestione e l'archiviazione dei dati
Per un elenco dei siti di intelligenza artificiale di terze parti supportati, ad esempio quelli usati per Gemini e ChatGPT, vedere Siti di intelligenza artificiale supportati da Microsoft Purview per la protezione della sicurezza dei dati e della conformità.
Come usare la gestione del comportamento di sicurezza dei dati per l'intelligenza artificiale
Per ottenere più rapidamente informazioni dettagliate sull'utilizzo dell'intelligenza artificiale e proteggere i dati, Gestione del comportamento di sicurezza dei dati per l'intelligenza artificiale fornisce alcuni criteri preconfigurati consigliati che è possibile attivare con un solo clic. Consentire almeno 24 ore a questi nuovi criteri di raccogliere dati per visualizzare i risultati in Gestione del comportamento di sicurezza dei dati per l'intelligenza artificiale o riflettere eventuali modifiche apportate alle impostazioni predefinite.
Non è necessaria alcuna attivazione e ora in anteprima La gestione del comportamento di sicurezza dei dati per l'intelligenza artificiale esegue automaticamente una valutazione dei dati settimanale per i primi 100 siti di SharePoint usati da Microsoft Copilot. È possibile integrarlo con le proprie valutazioni dei dati personalizzate. Queste valutazioni sono progettate specificamente per consentire di identificare, correggere e monitorare la potenziale sovrascitazione dei dati, in modo da poter distribuire in modo più sicuro Microsoft 365 Copilot.
Per iniziare a usare Gestione del comportamento di sicurezza dei dati per l'intelligenza artificiale, è possibile usare il portale di Microsoft Purview o il Portale di conformità di Microsoft Purview. È necessario un account con autorizzazioni appropriate per la gestione della conformità, ad esempio un account membro del ruolo del gruppo Amministratore conformità Microsoft Entra.
A seconda del portale in uso, passare a una delle posizioni seguenti:
Accedere al portale> di Microsoft PurviewSoluzioni>DSPM per intelligenza artificiale.
Accedere al Portale di conformità di Microsoft Purview>DSPM per intelligenza artificiale.
In Panoramica vedere la sezione Introduzione per altre informazioni sulla gestione del comportamento di sicurezza dei dati per l'intelligenza artificiale e sulle azioni immediate che è possibile eseguire. Selezionare ognuno di essi per visualizzare il riquadro a comparsa per altre informazioni, eseguire azioni e verificare lo stato corrente.
Azione Ulteriori informazioni Attivare Microsoft Purview Audit Il controllo è attivato per impostazione predefinita per i nuovi tenant, quindi è possibile che si soddisfi già questo prerequisito. In tal caso, e agli utenti sono già state assegnate licenze per Copilot, si iniziano a visualizzare informazioni dettagliate sulle attività copilot nella sezione Report più in basso nella pagina. Installare l'estensione del browser Microsoft Purview Prerequisito per i siti di intelligenza artificiale di terze parti. Eseguire l'onboarding dei dispositivi in Microsoft Purview Un prerequisito anche per i siti di intelligenza artificiale di terze parti. Estendere le informazioni dettagliate per l'individuazione dei dati Criteri con un clic per raccogliere informazioni sugli utenti che visitano siti di IA generativi di terze parti e inviano loro informazioni sensibili. L'opzione è la stessa del pulsante Estendi informazioni dettagliate nella sezione Analisi dei dati di intelligenza artificiale più avanti nella pagina. Per altre informazioni sui prerequisiti, vedere Prerequisiti per la gestione del comportamento di sicurezza dei dati per l'intelligenza artificiale.
Per altre informazioni sui criteri preconfigurati che è possibile attivare, vedere Criteri con un clic da Gestione postura di sicurezza dei dati per intelligenza artificiale.
Esaminare quindi la sezione Raccomandazioni e decidere se implementare eventuali opzioni rilevanti per il tenant. Visualizzare ogni raccomandazione per comprendere in che modo sono rilevanti per i dati e altre informazioni.
Queste opzioni includono l'esecuzione di una valutazione dei dati nei siti di SharePoint, la creazione di etichette di riservatezza e criteri per proteggere i dati e la creazione di alcuni criteri predefiniti che consentono di rilevare e proteggere immediatamente i dati sensibili inviati ai siti generativi di intelligenza artificiale. Esempi di raccomandazioni:
- Proteggere i dati da potenziali rischi di sovrasciezione visualizzando i risultati della valutazione dei dati predefinita per identificare e correggere i problemi per distribuire in modo più sicuro Microsoft 365 Copilot.
- Proteggere i dati sensibili a cui si fa riferimento in Microsoft 365 Copilot creando un criterio DLP che seleziona le etichette di riservatezza per impedire Microsoft 365 Copilot riepilogo dei dati etichettati. Per altre informazioni, vedere Informazioni sul percorso dei criteri di Microsoft 365 Copilot.
- Rilevare interazioni rischiose nelle app di intelligenza artificiale per calcolare il rischio degli utenti rilevando richieste e risposte rischiose in Microsoft 365 Copilot e in altre app generative per intelligenza artificiale. Per altre informazioni, vedere Utilizzo dell'intelligenza artificiale rischiosa (anteprima).
- Individuare e gestire le interazioni con ChatGPT'intelligenza artificiale aziendale registrando le aree di lavoro ChatGPT Enterprise, è possibile identificare i potenziali rischi di esposizione dei dati rilevando le informazioni sensibili condivise con ChatGPT Enterprise.
- Ottenere assistenza guidata alle normative sull'intelligenza artificiale, che usa modelli normativi di mapping dei controlli di Compliance Manager.
È possibile usare il collegamento Visualizza tutte le raccomandazioni o Raccomandazioni del riquadro di spostamento per visualizzare tutte le raccomandazioni disponibili per il tenant e il relativo stato. Quando una raccomandazione viene completata o ignorata, non viene più visualizzata nella pagina Panoramica .
Utilizzare la sezione Report o la pagina Report del riquadro di spostamento per visualizzare i risultati dei criteri predefiniti creati. È necessario attendere almeno un giorno per il popolamento dei report. Selezionare le categorie di esperienze Microsoft Copilot, app enterprise per intelligenza artificiale e altre app per intelligenza artificiale per identificare l'app per intelligenza artificiale generativa specifica.
Usare la pagina Criteri per monitorare lo stato dei criteri predefiniti creati con un clic e dei criteri correlati all'intelligenza artificiale di altre soluzioni Microsoft Purview. Per modificare i criteri, usare la soluzione di gestione corrispondente nel portale. Ad esempio, per DSPM per intelligenza artificiale - Comportamento non etico in Copilot, è possibile esaminare e correggere le corrispondenze dalla soluzione Conformità delle comunicazioni.
Nota
Se sono presenti i criteri di conservazione meno recenti per le chat di Teams e le interazioni con Copilot, non sono inclusi in questa pagina. Informazioni su come creare criteri di conservazione separati per Microsoft Copilot Esperienze che include Microsoft 365 Copilot e verranno visualizzati in questa pagina Criteri.
Selezionare Esplora attività per visualizzare i dettagli dei dati raccolti dai criteri.
Queste informazioni più dettagliate includono il tipo di attività e l'utente, la data e l'ora, la categoria e l'app dell'app per intelligenza artificiale, l'app a cui si accede, tutti i tipi di informazioni sensibili, i file a cui si fa riferimento e i file sensibili a cui si fa riferimento.
Esempi di attività includono l'interazione con l'intelligenza artificiale, i tipi di informazioni sensibili e la visita al sito Web di intelligenza artificiale. Le richieste e le risposte copilot sono incluse negli eventi di interazione con intelligenza artificiale quando si hanno le giuste permisisons. Per altre informazioni sugli eventi, vedere Eventi di Esplora attività.
Analogamente alle categorie di report, i carichi di lavoro includono esperienze Microsoft Copilot, app enterprise per intelligenza artificiale e altre app per intelligenza artificiale. Esempi di ID app e host app per esperienze Microsoft Copilot includono rispettivamente Microsoft 365 Copilots e Word.
Selezionare Valutazioni dei dati (anteprima) per identificare e correggere potenziali rischi di oversharing dei dati nell'organizzazione. Una valutazione dei dati predefinita viene eseguita automaticamente ogni settimana per i primi 100 siti di SharePoint usati da Copilot nell'organizzazione e potrebbe essere già stata eseguita una valutazione personalizzata come una delle raccomandazioni. Tuttavia, tornare regolarmente a questa opzione per controllare i risultati settimanali della valutazione predefinita ed eseguire valutazioni personalizzate quando si desidera verificare la presenza di diversi utenti o siti specifici.
A causa della potenza e della velocità dell'intelligenza artificiale, l'intelligenza artificiale può far emergere in modo proattivo contenuti obsoleti, con autorizzazioni insufficienti o privi di controlli di governance, l'IA generativa amplifica il problema della condivisione eccessiva dei dati.Because of the power and speed AI can proactively surfacely content that might be obsolete, over-permissioned, or lacking governance controls, generative AI amplifies the problem of oversharing data. Usare le verifiche dei dati per identificare e correggere i problemi.
Per visualizzare la valutazione dei dati creata automaticamente per il tenant, nella categoria Valutazioni predefinite selezionare Oversharing Assessment per la settimana del <mese, anno> dall'elenco. Dalle colonne per ogni sito segnalato vengono visualizzate informazioni quali il numero totale di elementi trovati, il numero di accessi e la frequenza e il numero di tipi di informazioni sensibili trovati e accessibili.
Nell'elenco selezionare ogni sito per accedere al riquadro a comparsa con schede Panoramica, Protezione e Monitoraggio. Usare le informazioni in ogni scheda per altre informazioni ed eseguire azioni consigliate. Ad esempio:
Usare la scheda Proteggi per selezionare le opzioni per correggere l'oversharing, tra cui:
- Limitare l'accesso per etichetta: usare Prevenzione della perdita dei dati Microsoft Purview per creare un criterio DLP che impedisce a Microsoft 365 Copilot di riepilogare i dati quando sono selezionate etichette di riservatezza. Per altre informazioni sul funzionamento e sugli scenari supportati, vedere Informazioni sul percorso dei criteri di Microsoft 365 Copilot.
- Limitare tutti gli elementi: usare l'individuazione contenuto con restrizioni di SharePoint per elencare i siti di SharePoint da escludere dalla Microsoft 365 Copilot. Per altre informazioni, vedere Individuazione contenuto con restrizioni per i siti di SharePoint.
- Creare un criterio di etichettatura automatica: quando vengono trovate informazioni riservate per i file non etichettati, usare Microsoft Purview Information Protection per creare un criterio di etichettatura automatica per applicare automaticamente un'etichetta di riservatezza per i dati sensibili. Per altre informazioni su come creare questo criterio, vedere Come configurare i criteri di etichettatura automatica per SharePoint, OneDrive ed Exchange.
- Creare criteri di conservazione: quando non si accede al contenuto da almeno 3 anni, usare Gestione del ciclo di vita dei dati di Microsoft Purview per eliminarlo automaticamente. Per altre informazioni su come creare i criteri di conservazione, vedere Creare e configurare i criteri di conservazione.
Usare la scheda Monitoraggio per visualizzare il numero di elementi nel sito condivisi con chiunque, condivisi con tutti gli utenti dell'organizzazione, condivisi con persone specifiche e condivisi esternamente. Selezionare Avvia una verifica di accesso al sito di SharePoint per informazioni su come usare i report di governance dell'accesso ai dati di SharePoint.
Screenshot di esempio, dopo l'esecuzione di una valutazione dei dati, che mostra la scheda Proteggi con le soluzioni per i problemi rilevati:
Per creare una valutazione personalizzata dei dati, selezionare Crea valutazione per identificare i potenziali problemi di sovrasollamento per tutti gli utenti o per gli utenti selezionati, le origini dati da analizzare (attualmente supportate solo per SharePoint) ed eseguire la valutazione.
Se si selezionano tutti i siti, non è necessario essere membri dei siti, ma è necessario essere membri per selezionare siti specifici.
Questa valutazione dei dati viene creata nella categoria Valutazioni personalizzate . Attendere che lo stato della valutazione visualizzi l'analisi completata e selezionarlo per visualizzare i dettagli. Per eseguire nuovamente una valutazione dei dati personalizzata, usare l'opzione duplicata per creare una nuova valutazione, a partire dalle stesse selezioni.
Le valutazioni dei dati supportano attualmente un massimo di 200.000 elementi per località.
Per Microsoft 365 Copilot e Microsoft Copilot, usare questi criteri, strumenti e informazioni dettagliate insieme a protezioni aggiuntive e funzionalità di conformità di Microsoft Purview.
Microsoft Purview rafforza la protezione delle informazioni per Copilot
Microsoft 365 Copilot usa i controlli esistenti per garantire che i dati archiviati nel tenant non vengano mai restituiti all'utente o usati da un modello LLM (Large Language Model) se l'utente non ha accesso a tali dati. Quando i dati hanno etichette di riservatezza dell'organizzazione applicate al contenuto, esiste un ulteriore livello di protezione:
Quando un file è aperto in Word, Excel, PowerPoint o in modo analogo un evento di posta elettronica o calendario è aperto in Outlook, la riservatezza dei dati viene visualizzata per gli utenti dell'app con il nome dell'etichetta e i contrassegni di contenuto (ad esempio intestazione o testo del piè di pagina) configurati per l'etichetta. Loop componenti e pagine supportano anche le stesse etichette di riservatezza.
Quando l'etichetta di riservatezza applica la crittografia, gli utenti devono avere il diritto di utilizzo EXTRACT, nonché VIEW, affinché Copilot restituisca i dati.
Questa protezione si estende ai dati archiviati all'esterno del tenant di Microsoft 365 quando è aperta in un'app di Office (dati in uso). Ad esempio, archiviazione locale, condivisioni di rete e archiviazione cloud.
Consiglio
Se non è già stato fatto, è consigliabile abilitare le etichette di riservatezza per SharePoint e OneDrive e acquisire familiarità con i tipi di file e le configurazioni delle etichette che questi servizi possono elaborare. Quando le etichette di riservatezza non sono abilitate per questi servizi, i file crittografati a cui Microsoft 365 Copilot possono accedere sono limitati ai dati in uso dalle app di Office in Windows.
Per istruzioni, vedere Abilitare le etichette di riservatezza per i file di Office in SharePoint e OneDrive.
Inoltre, quando si usano Business Chat (in precedenza chat e Microsoft 365 Chat basate su graph) che possono accedere ai dati da un'ampia gamma di contenuti, la riservatezza dei dati etichettati restituiti da Microsoft 365 Copilot viene resa visibile agli utenti con l'etichetta di riservatezza visualizzata per le citazioni e gli elementi elencati nella risposta. Usando il numero di priorità delle etichette di riservatezza definito nel portale di Microsoft Purview o nel Portale di conformità di Microsoft Purview, la risposta più recente in Copilot visualizza l'etichetta di riservatezza con priorità più alta dai dati usati per la chat copilot.
Anche se gli amministratori della conformità definiscono la priorità di un'etichetta di riservatezza, un numero di priorità più alto indica in genere una maggiore riservatezza del contenuto, con autorizzazioni più restrittive. Di conseguenza, le risposte copilot vengono etichettate con l'etichetta di riservatezza più restrittiva.
Nota
Se gli elementi vengono crittografati da Microsoft Purview Information Protection ma non hanno un'etichetta di riservatezza, Microsoft 365 Copilot non restituirà questi elementi agli utenti se la crittografia non include i diritti di utilizzo EXTRACT o VIEW per l'utente.
Se non si usano già etichette di riservatezza, vedere Introduzione alle etichette di riservatezza.
Anche se i criteri DLP non supportano la classificazione dei dati per le interazioni Microsoft 365 Copilot, i tipi di informazioni sensibili e i classificatori sottoponibili a training sono supportati con i criteri di conformità delle comunicazioni per identificare i dati sensibili nelle richieste degli utenti a Copilot e nelle risposte.
Protezione copilot con ereditarietà dell'etichetta di riservatezza
Quando si usa Microsoft 365 Copilot per creare nuovo contenuto in base a un elemento a cui è applicata un'etichetta di riservatezza, l'etichetta di riservatezza del file di origine viene ereditata automaticamente, con le impostazioni di protezione dell'etichetta.
Ad esempio, un utente seleziona Bozza con Copilot in Word e quindi Fare riferimento a un file. In alternativa, un utente seleziona Crea presentazione da un file in PowerPoint o Modifica in pagine da Business Chat. Il contenuto di origine ha l'etichetta di riservatezza Confidential\Anyone (senza restrizioni) applicata e tale etichetta è configurata per applicare un piè di pagina che visualizza "Riservato". Il nuovo contenuto viene automaticamente etichettato Riservato\Chiunque (senza restrizioni) con lo stesso piè di pagina.
Per visualizzare un esempio di questo problema in azione, watch la demo seguente della sessione di Ignite 2023"Getting your enterprise ready for Microsoft 365 Copilot". La demo mostra come l'etichetta di riservatezza predefinita General viene sostituita con un'etichetta Confidential quando un utente esegue la bozza con Copilot e fa riferimento a un file etichettato. La barra delle informazioni nella barra multifunzione informa l'utente che il contenuto creato da Copilot ha comportato l'applicazione automatica della nuova etichetta:
Se vengono usati più file per creare nuovo contenuto, l'etichetta di riservatezza con la priorità più alta viene usata per l'ereditarietà delle etichette.
Come per tutti gli scenari di etichettatura automatica, l'utente può sempre eseguire l'override e sostituire un'etichetta ereditata (o rimuovere, se non si usa l'etichettatura obbligatoria).
Protezione di Microsoft Purview senza etichette di riservatezza
Anche se non viene applicata un'etichetta di riservatezza al contenuto, i servizi e i prodotti potrebbero usare le funzionalità di crittografia del servizio Azure Rights Management. Di conseguenza, Microsoft 365 Copilot può comunque verificare i diritti di utilizzo VIEW ed EXTRACT prima di restituire dati e collegamenti a un utente, ma non esiste un'ereditarietà automatica della protezione per i nuovi elementi.
Consiglio
Si otterrà la migliore esperienza utente quando si usano sempre etichette di riservatezza per proteggere i dati e la crittografia viene applicata da un'etichetta.
Esempi di prodotti e servizi che possono usare le funzionalità di crittografia del servizio Azure Rights Management senza etichette di riservatezza:
- Crittografia dei messaggi di Microsoft Purview
- Microsoft Information Rights Management (IRM)
- Connettore Microsoft Rights Management
- Microsoft Rights Management SDK
Per altri metodi di crittografia che non usano il servizio Azure Rights Management:
I messaggi di posta elettronica protetti da S/MIME non verranno restituiti da Copilot e Copilot non è disponibile in Outlook quando è aperto un messaggio di posta elettronica protetto S/MIME.
I documenti protetti da password non possono essere accessibili da Microsoft 365 Copilot a meno che non siano già aperti dall'utente nella stessa app (dati in uso). Le password non vengono ereditate da un elemento di destinazione.
Come per altri servizi di Microsoft 365, ad esempio eDiscovery e ricerca, gli elementi crittografati con Microsoft Purview Customer Key o la propria chiave radice (BYOK) sono supportati e idonei per essere restituiti da Microsoft 365 Copilot.
Microsoft Purview supporta la gestione della conformità per Copilot
Usare le funzionalità di conformità di Microsoft Purview con la protezione dei dati aziendali per supportare i requisiti di rischio e conformità per Microsoft 365 Copilot, Microsoft Copilot e altre app generative per intelligenza artificiale.
Le interazioni con Copilot possono essere monitorate per ogni utente nel tenant. Di conseguenza, è possibile usare la classificazione di Purview (tipi di informazioni sensibili e classificatori sottoponibili a training), la ricerca del contenuto, la conformità alle comunicazioni, il controllo, eDiscovery e le funzionalità di conservazione ed eliminazione automatiche usando i criteri di conservazione.
Per la conformità delle comunicazioni, è possibile analizzare le richieste degli utenti e le risposte copilot per rilevare interazioni inappropriate o rischiose o condividere informazioni riservate. Per altre informazioni, vedere Configurare criteri di conformità delle comunicazioni da rilevare per le interazioni copilot.
Per il controllo, i dettagli vengono acquisiti nel log di controllo unificato quando gli utenti interagiscono con Copilot. Gli eventi includono come e quando gli utenti interagiscono con Copilot, in cui si è svolta l'attività del servizio Microsoft 365, e riferimenti ai file archiviati in Microsoft 365 a cui è stato eseguito l'accesso durante l'interazione. Se questi file hanno un'etichetta di riservatezza applicata, anche questa viene acquisita. Nella soluzione Audit del portale di Microsoft Purview o del Portale di conformità di Microsoft Purview selezionare Attività Copilot e Interagire con Copilot. È anche possibile selezionare Copilot come carico di lavoro. Ad esempio, dal portale di conformità:
Per la ricerca di contenuto, poiché le richieste dell'utente a Copilot e le risposte da Copilot vengono archiviate nella cassetta postale di un utente, possono essere ricercate e recuperate quando la cassetta postale dell'utente è selezionata come origine per una query di ricerca. Selezionare e recuperare questi dati dalla cassetta postale di origine selezionando dal generatore di query Aggiungitipo di>condizione>Uguale a una qualsiasi delle>opzioni Aggiungi/Rimuovi altre interazioni>copilot.
Analogamente per eDiscovery, si usa lo stesso processo di query per selezionare le cassette postali e recuperare le richieste degli utenti a Copilot e le risposte da Copilot. Dopo la creazione della raccolta e l'origine della fase di revisione in eDiscovery (Premium), questi dati sono disponibili per l'esecuzione di tutte le azioni di revisione esistenti. Queste raccolte e questi set di revisione possono quindi essere ulteriormente sospesi o esportati. Se è necessario eliminare questi dati, vedere Cercare ed eliminare i dati per Copilot.
Per i criteri di conservazione che supportano la conservazione e l'eliminazione automatica, le richieste dell'utente a Copilot e le risposte da Copilot sono identificate da Microsoft 365 Copilots, incluse nel percorso dei criteri Microsoft Copilot Experiences. In precedenza inclusi in un percorso di criteri denominato Chat di Teams e Interazione copilot, questi criteri di conservazione meno recenti vengono sostituiti con posizioni separate. Per altre informazioni, vedere Separare un criterio "Chat di Teams e interazioni copilot" esistente.
Per informazioni dettagliate sul funzionamento di questa conservazione, vedere Informazioni sulla conservazione per le app copilot & per intelligenza artificiale.
Come per tutti i criteri e i blocchi di conservazione, se più criteri per la stessa posizione si applicano a un utente, i principi di conservazione resolvono eventuali conflitti. Ad esempio, i dati vengono conservati per la durata più lunga di tutti i criteri di conservazione applicati o dei blocchi di eDiscovery.
Per consentire alle etichette di conservazione di conservare automaticamente i file a cui si fa riferimento in Copilot, selezionare l'opzione per gli allegati cloud con un criterio di etichetta di conservazione automatica: Applicare l'etichetta agli allegati cloud e ai collegamenti condivisi in Exchange, Teams, Viva Engage e Copilot. Come per tutti gli allegati cloud conservati, la versione del file al momento in cui viene fatto riferimento viene mantenuta.
Per informazioni dettagliate sul funzionamento di questa conservazione, vedere Funzionamento della conservazione con gli allegati cloud.
Per istruzioni di configurazione:
Per configurare i criteri di conformità delle comunicazioni per le interazioni copilot, vedere Creare e gestire i criteri di conformità delle comunicazioni.
Per cercare le interazioni di Copilot nel log di controllo, vedere Cercare nel log di controllo.
Per usare la ricerca di contenuto per trovare le interazioni copilot, vedere Cercare contenuto.
Per usare eDiscovery per le interazioni copilot, vedere soluzioni Microsoft Purview eDiscovery.
Per creare o modificare un criterio di conservazione per le interazioni copilot, vedere Creare e configurare i criteri di conservazione.
Per creare un criterio di applicazione automatica delle etichette di conservazione per i file a cui si fa riferimento in Copilot, vedere Applicare automaticamente un'etichetta di conservazione per conservare o eliminare il contenuto.
Altra documentazione che consente di proteggere e gestire le app generative per intelligenza artificiale
Annuncio del post di blog: Accelerare l'adozione dell'IA con funzionalità di sicurezza e governance di nuova generazione
Per informazioni più dettagliate, vedere Considerazioni sulla gestione del comportamento di sicurezza dei dati di Microsoft Purview per l'intelligenza artificiale e le protezioni per la sicurezza e la conformità dei dati per Copilot.
Microsoft 365 Copilot:
Risorse correlate: