Condividi tramite


Guida allo studio per l'esame DP-700: Implementazione di soluzioni di ingegneria dei dati con Microsoft Fabric

Scopo di questo documento

Questa guida allo studio dovrebbe aiutare a comprendere cosa aspettarsi dall'esame e include un riepilogo dei possibili argomenti trattati dall'esame e collegamenti a risorse aggiuntive. Le informazioni e i materiali forniti in questo documento dovrebbero aiutare a concentrarsi sugli studi durante la preparazione dell'esame.

Collegamenti utili Descrizione
Come conseguire la certificazione Alcune certificazioni richiedono solo il superamento di un esame, mentre altre richiedono il superamento di più esami.
rinnovo della certificazione Le certificazioni associate, expert e speciali di Microsoft scadono annualmente. È possibile rinnovare superando un test gratuito online su Microsoft Learn.
Profilo personale di Microsoft Learn La connessione del profilo di certificazione a Microsoft Learn consente di pianificare e rinnovare gli esami e di condividere e stampare i certificati.
Assegnazione dei punteggi degli esami e report dei punteggi Per superare l'esame, è necessario un punteggio minimo pari a 700.
Sandbox dell'esame è possibile esplorare l'ambiente di esame visitando la sandbox dell'esame.
Richiedere gli alloggi Se si usano dispositivi con assistive technology oppure si ha bisogno di tempo supplementare o di modifiche a qualsiasi aspetto dell'esperienza di esame, è possibile richiedere un alloggio.

Informazioni sull'esame

Lingue

Alcuni esami vengono localizzati in altre lingue e le versioni localizzate vengono aggiornate circa otto settimane dopo l'aggiornamento della versione inglese. Se l'esame non è disponibile nella lingua preferita, è possibile richiedere 30 minuti in più per completare l'esame.

Nota

I punti elenco che seguono ognuna delle competenze misurate illustrano come viene valutata tale competenza. Nell'esame possono essere trattati alcuni argomenti correlati.

Nota

La maggior parte delle domande riguarda funzionalità disponibili a livello generale. L'esame può contenere anche domande su funzionalità di anteprima, se queste funzionalità sono d'uso comune.

Competenze misurate a partire dal 21 aprile 2025

Profilo dei partecipanti

I candidati di questo esame devono avere competenze nell'ambito dei modelli di caricamento dei dati, delle architetture dei dati e dei processi di orchestrazione. Le responsabilità di questo ruolo includono:

  • Inserimento e trasformazione dei dati.

  • Protezione e gestione di una soluzione di analisi.

  • Monitoraggio e ottimizzazione di una soluzione di analisi.

Lavorare a stretto contatto con tecnici di analisi, architetti, analisti e amministratori per progettare e distribuire soluzioni di ingegneria dei dati per l'analisi.

Avere competenze di manipolazione e trasformazione dei dati usando Structured Query Language (SQL), PySpark e Kusto Query Language (KQL).

Riepilogo delle competenze

  • Implementare e gestire una soluzione di analisi (30-35%)

  • Inserire e trasformare i dati(30-35%)

  • Monitorare e ottimizzare una soluzione di analisi (30-35%)

Implementare e gestire una soluzione di analisi (30-35%)

Configurare le impostazioni dell'area di lavoro di Microsoft Fabric

  • Configurare le impostazioni dell'area di lavoro di Spark

  • Configurare le impostazioni dell'area di lavoro del dominio

  • Configurare le impostazioni dell'area di lavoro di OneLake

  • Configurare le impostazioni dell'area di lavoro del flusso di lavoro dei dati

Implementare la gestione del ciclo di vita in Fabric

  • Configurare il controllo della versione

  • Implementare progetti di database

  • Creare e configurare delle pipeline di distribuzione

Configurare la sicurezza e la governance

  • Implementare i controlli dell'accesso a livello di area di lavoro

  • Implementare i controlli dell'accesso a livello di elemento

  • Implementare controlli di accesso a livello di riga, a livello di colonna, a livello di oggetto e a livello di cartella/file

  • Implementare la maschera dati dinamica

  • Applicare agli elementi le etichette di riservatezza

  • Approvare gli elementi

  • Implementare e usare la registrazione dell'area di lavoro

Orchestrare i processi

  • Scegliere tra una pipeline e un notebook

  • Progettare e implementare programmi e trigger basati su eventi

  • Implementare modelli di orchestrazione con notebook e pipeline, tra cui parametri ed espressioni dinamiche

Inserire e trasformare i dati(30-35%)

Progettare e implementare modelli di caricamento

  • Progettare e implementare carichi di dati completi e incrementali

  • Preparare i dati per il caricamento in un modello dimensionale

  • Progettare e implementare un modello di caricamento per i dati di streaming

Inserire e trasformare i dati in batch

  • Scegliere un archivio dati appropriato

  • Scegliere tra flussi di dati, notebook, KQL e T-SQL per la trasformazione dei dati

  • Creare e gestire i collegamenti ai dati

  • Implementare il mirroring

  • Inserire i dati usando le pipeline

  • Trasformare i dati usando PySpark, SQL e KQL

  • Denormalizzare i dati

  • Raggruppare e aggregare i dati

  • Gestire i dati duplicati, quelli mancanti e quelli in ritardo

Inserire e trasformare i dati di streaming

  • Scegliere un motore di streaming appropriato

  • Scegliere tra l'archiviazione nativa, l'archiviazione seguita o i collegamenti in Real-Time Intelligence

  • Elaborare i dati usando i flussi di eventi

  • Elaborare i dati usando lo streaming strutturato Spark

  • Elaborare i dati usando KQL

  • Creare funzioni di windowing

Monitorare e ottimizzare una soluzione di analisi (30-35%)

Monitorare gli elementi di Fabric

  • Monitorare l'inserimento dei dati

  • Monitorare la trasformazione dei dati

  • Monitorare l'aggiornamento del modello semantico

  • Configura avvisi

Identificazione e risoluzione degli errori

  • Individuare e risolvere gli errori delle pipeline

  • Individuare e risolvere gli errori dei flussi di dati

  • Individuare e risolvere gli errori dei notebook

  • Individuare e risolvere gli errori di Eventhouse

  • Individuare e risolvere gli errori Eventstream

  • Individuare e risolvere gli errori di T-SQL

Ottimizzare le prestazioni

  • Ottimizzare una tabella Lakehouse

  • Ottimizzare una pipeline

  • Ottimizzare un data warehouse

  • Ottimizzare Eventstream e Eventhouse

  • Ottimizzare le prestazioni di Spark

  • Ottimizzare le prestazioni delle query

Risorse di studio

È consigliabile seguire il corso di formazione e acquisire esperienza pratica prima di sostenere l'esame. Sono disponibili opzioni di studio in autonomia e formazione in aula oltre a collegamenti a documentazione, siti della community e video.

Risorse di studio Collegamenti alle sessioni di apprendimento e alla documentazione
Approfondisci Scegliere tra percorsi di apprendimento e moduli autogestiti o seguire un corso con docente
Trova la documentazione Microsoft Fabric
Cos'è l'ingegneria dei dati in Microsoft Fabric?
Fare una domanda Microsoft Q&A | Microsoft Docs
Richiedi supporto della community Analisi in Azure - Microsoft Tech Community
Microsoft Fabric Blog
Segui Microsoft Learn Microsoft Learn - Microsoft Tech Community
Trova un video Zona idoneità per gli esami
Dati esposti
Visualizzare altri video Microsoft Learn

Log delle modifiche

La tabella seguente riepiloga le modifiche tra la versione corrente e quella precedente delle competenze misurate. I gruppi funzionali sono in grassetto seguiti dagli obiettivi all'interno di ogni gruppo. La tabella fornisce un confronto tra la versione precedente e attuale delle competenze misurate per l'esame e la terza colonna descrive l'entità delle modifiche.

Area di competenza precedente al 21 aprile 2025 Area delle competenze a partire dal 21 aprile 2025 Cambiamento
Implementare e gestire una soluzione di analisi Implementare e gestire una soluzione di analisi Nessuna modifica
Configurare la sicurezza e la governance Configurare la sicurezza e la governance Minore
Inserire e trasformare i dati Inserire e trasformare i dati Nessuna modifica
Inserire e trasformare i dati in batch Inserire e trasformare i dati in batch Minore
Inserire e trasformare i dati di streaming Inserire e trasformare i dati di streaming Minore