Guida allo studio per l'esame DP-700: Implementazione di soluzioni di ingegneria dei dati con Microsoft Fabric
Scopo di questo documento
Questa guida allo studio dovrebbe aiutare a comprendere cosa aspettarsi dall'esame e include un riepilogo dei possibili argomenti trattati dall'esame e collegamenti a risorse aggiuntive. Le informazioni e i materiali forniti in questo documento dovrebbero aiutare a concentrarsi sugli studi durante la preparazione dell'esame.
Collegamenti utili | Descrizione |
---|---|
Come conseguire la certificazione | Alcune certificazioni richiedono solo il superamento di un esame, mentre altre richiedono il superamento di più esami. |
rinnovo della certificazione | Le certificazioni associate, expert e speciali di Microsoft scadono annualmente. È possibile rinnovare superando un test gratuito online su Microsoft Learn. |
Profilo personale di Microsoft Learn | La connessione del profilo di certificazione a Microsoft Learn consente di pianificare e rinnovare gli esami e di condividere e stampare i certificati. |
Assegnazione dei punteggi degli esami e report dei punteggi | Per superare l'esame, è necessario un punteggio minimo pari a 700. |
Sandbox dell'esame | è possibile esplorare l'ambiente di esame visitando la sandbox dell'esame. |
Richiedere gli alloggi | Se si usano dispositivi con assistive technology oppure si ha bisogno di tempo supplementare o di modifiche a qualsiasi aspetto dell'esperienza di esame, è possibile richiedere un alloggio. |
Informazioni sull'esame
Lingue
Alcuni esami vengono localizzati in altre lingue e le versioni localizzate vengono aggiornate circa otto settimane dopo l'aggiornamento della versione inglese. Se l'esame non è disponibile nella lingua preferita, è possibile richiedere 30 minuti in più per completare l'esame.
Nota
I punti elenco che seguono ognuna delle competenze misurate illustrano come viene valutata tale competenza. Nell'esame possono essere trattati alcuni argomenti correlati.
Nota
La maggior parte delle domande riguarda funzionalità disponibili a livello generale. L'esame può contenere anche domande su funzionalità di anteprima, se queste funzionalità sono d'uso comune.
Competenze misurate a partire dal 21 aprile 2025
Profilo dei partecipanti
I candidati di questo esame devono avere competenze nell'ambito dei modelli di caricamento dei dati, delle architetture dei dati e dei processi di orchestrazione. Le responsabilità di questo ruolo includono:
Inserimento e trasformazione dei dati.
Protezione e gestione di una soluzione di analisi.
Monitoraggio e ottimizzazione di una soluzione di analisi.
Lavorare a stretto contatto con tecnici di analisi, architetti, analisti e amministratori per progettare e distribuire soluzioni di ingegneria dei dati per l'analisi.
Avere competenze di manipolazione e trasformazione dei dati usando Structured Query Language (SQL), PySpark e Kusto Query Language (KQL).
Riepilogo delle competenze
Implementare e gestire una soluzione di analisi (30-35%)
Inserire e trasformare i dati(30-35%)
Monitorare e ottimizzare una soluzione di analisi (30-35%)
Implementare e gestire una soluzione di analisi (30-35%)
Configurare le impostazioni dell'area di lavoro di Microsoft Fabric
Configurare le impostazioni dell'area di lavoro di Spark
Configurare le impostazioni dell'area di lavoro del dominio
Configurare le impostazioni dell'area di lavoro di OneLake
Configurare le impostazioni dell'area di lavoro del flusso di lavoro dei dati
Implementare la gestione del ciclo di vita in Fabric
Configurare il controllo della versione
Implementare progetti di database
Creare e configurare delle pipeline di distribuzione
Configurare la sicurezza e la governance
Implementare i controlli dell'accesso a livello di area di lavoro
Implementare i controlli dell'accesso a livello di elemento
Implementare controlli di accesso a livello di riga, a livello di colonna, a livello di oggetto e a livello di cartella/file
Implementare la maschera dati dinamica
Applicare agli elementi le etichette di riservatezza
Approvare gli elementi
Implementare e usare la registrazione dell'area di lavoro
Orchestrare i processi
Scegliere tra una pipeline e un notebook
Progettare e implementare programmi e trigger basati su eventi
Implementare modelli di orchestrazione con notebook e pipeline, tra cui parametri ed espressioni dinamiche
Inserire e trasformare i dati(30-35%)
Progettare e implementare modelli di caricamento
Progettare e implementare carichi di dati completi e incrementali
Preparare i dati per il caricamento in un modello dimensionale
Progettare e implementare un modello di caricamento per i dati di streaming
Inserire e trasformare i dati in batch
Scegliere un archivio dati appropriato
Scegliere tra flussi di dati, notebook, KQL e T-SQL per la trasformazione dei dati
Creare e gestire i collegamenti ai dati
Implementare il mirroring
Inserire i dati usando le pipeline
Trasformare i dati usando PySpark, SQL e KQL
Denormalizzare i dati
Raggruppare e aggregare i dati
Gestire i dati duplicati, quelli mancanti e quelli in ritardo
Inserire e trasformare i dati di streaming
Scegliere un motore di streaming appropriato
Scegliere tra l'archiviazione nativa, l'archiviazione seguita o i collegamenti in Real-Time Intelligence
Elaborare i dati usando i flussi di eventi
Elaborare i dati usando lo streaming strutturato Spark
Elaborare i dati usando KQL
Creare funzioni di windowing
Monitorare e ottimizzare una soluzione di analisi (30-35%)
Monitorare gli elementi di Fabric
Monitorare l'inserimento dei dati
Monitorare la trasformazione dei dati
Monitorare l'aggiornamento del modello semantico
Configura avvisi
Identificazione e risoluzione degli errori
Individuare e risolvere gli errori delle pipeline
Individuare e risolvere gli errori dei flussi di dati
Individuare e risolvere gli errori dei notebook
Individuare e risolvere gli errori di Eventhouse
Individuare e risolvere gli errori Eventstream
Individuare e risolvere gli errori di T-SQL
Ottimizzare le prestazioni
Ottimizzare una tabella Lakehouse
Ottimizzare una pipeline
Ottimizzare un data warehouse
Ottimizzare Eventstream e Eventhouse
Ottimizzare le prestazioni di Spark
Ottimizzare le prestazioni delle query
Risorse di studio
È consigliabile seguire il corso di formazione e acquisire esperienza pratica prima di sostenere l'esame. Sono disponibili opzioni di studio in autonomia e formazione in aula oltre a collegamenti a documentazione, siti della community e video.
Risorse di studio | Collegamenti alle sessioni di apprendimento e alla documentazione |
---|---|
Approfondisci | Scegliere tra percorsi di apprendimento e moduli autogestiti o seguire un corso con docente |
Trova la documentazione |
Microsoft Fabric Cos'è l'ingegneria dei dati in Microsoft Fabric? |
Fare una domanda | Microsoft Q&A | Microsoft Docs |
Richiedi supporto della community |
Analisi in Azure - Microsoft Tech Community Microsoft Fabric Blog |
Segui Microsoft Learn | Microsoft Learn - Microsoft Tech Community |
Trova un video |
Zona idoneità per gli esami Dati esposti Visualizzare altri video Microsoft Learn |
Log delle modifiche
La tabella seguente riepiloga le modifiche tra la versione corrente e quella precedente delle competenze misurate. I gruppi funzionali sono in grassetto seguiti dagli obiettivi all'interno di ogni gruppo. La tabella fornisce un confronto tra la versione precedente e attuale delle competenze misurate per l'esame e la terza colonna descrive l'entità delle modifiche.
Area di competenza precedente al 21 aprile 2025 | Area delle competenze a partire dal 21 aprile 2025 | Cambiamento |
---|---|---|
Implementare e gestire una soluzione di analisi | Implementare e gestire una soluzione di analisi | Nessuna modifica |
Configurare la sicurezza e la governance | Configurare la sicurezza e la governance | Minore |
Inserire e trasformare i dati | Inserire e trasformare i dati | Nessuna modifica |
Inserire e trasformare i dati in batch | Inserire e trasformare i dati in batch | Minore |
Inserire e trasformare i dati di streaming | Inserire e trasformare i dati di streaming | Minore |