Condividi tramite


Esercitazione: Inserire dati in un warehouse

Si applica a✅: warehouse in Microsoft Fabric

Questa esercitazione illustra come inserire dati da Archiviazione di Microsoft Azure in un warehouse per creare tabelle.

Nota

Questa esercitazione fa parte di uno scenario end-to-end . Per completare questa esercitazione, è prima necessario completare queste esercitazioni:

  1. Creare un'area di lavoro
  2. Creare un magazzino

Inserire i dati

In questa attività viene illustrato come inserire dati nel warehouse per creare tabelle.

  1. Assicurati che il workspace creato nel primo tutorial sia aperto.

  2. Nel riquadro di destinazione dell'area di lavoro, selezionare + Nuovo Elemento per visualizzare l'elenco completo dei tipi di elementi disponibili.

  3. Nell'elenco, nella sezione Recupera dati, selezionare il tipo di elemento pipeline di dati.

  4. Nella finestra Nuova pipeline, immettere Load Customer Datanella casella Nome.

    Screenshot della finestra di dialogo Nuova pipeline, evidenziando il nome immesso.

  5. Per configurare la pipeline, selezionare Crea. Il provisioning viene completato quando viene visualizzata la pagina di destinazione Creare una pipeline di dati.

  6. Nella pagina di destinazione della pipeline di dati, selezionare Attività della pipeline .

    Screenshot della pagina di destinazione Crea una pipeline di dati, evidenziando l'opzione Attività pipeline.

  7. Nel menu, dall'interno della sezione Sposta e trasforma, seleziona Copia dati.

    Screenshot della sezione Sposta e trasforma, che mostra dove selezionare Copia dati.

  8. Nell'area di disegno della pipeline selezionare l'attività Copia dati.

    Screenshot della copia dei dati che si trovano nell'area di disegno.

  9. Per configurare l'attività, nella pagina Generale, nella casella Nome, sostituire il testo predefinito con CD Load dimension_customer.

    Screenshot della scheda Generale, che mostra dove inserire il nome dell'attività di copia.

  10. Nella pagina origine, nell'elenco a discesa Connessione, selezionare Più per visualizzare tutte le origini dati tra cui scegliere, incluse le origini dati nel catalogo OneLake.

  11. Selezionare + Nuovo per creare una nuova origine dati.

  12. Cerca e poi seleziona BLOB di Azure.

  13. Nella pagina Connect data source (Connetti origine dati), nella casella Nome account o URL, immettete https://fabrictutorialdata.blob.core.windows.net/sampledata/.

  14. Si noti che l'elenco a discesa nome connessione viene popolato automaticamente e che la modalità di autenticazione è impostata su anonimo.

    Screenshot della finestra Connetti all'origine dei dati con tutte le impostazioni completate.

  15. Selezionare Connetti.

  16. Nella pagina origine, per accedere ai file Parquet nell'origine dati, completare le impostazioni seguenti:

    1. Nelle caselle percorso file immettere:

      1. Percorso file - Contenitore:sampledata

      2. Percorso file - Directory:WideWorldImportersDW/tables

      3. Percorso file - Nome file:dimension_customer.parquet

    2. Nell'elenco a discesa del formato file , selezionare Parquet.

  17. Per visualizzare in anteprima i dati e verificare che non siano presenti errori, selezionare Anteprima dati.

    Schermata della pagina origine, che evidenzia le modifiche apportate nei passaggi precedenti e la funzione di visualizzazione dei dati.

  18. Nella pagina destinazione selezionare il magazzino nell'elenco a discesa connessione .

  19. Per 'opzione Tabella, selezionare l'opzione Creazione automatica tabella.

  20. Nella prima casella Tabella immettere .

  21. Nella seconda casella immettere dimension_customer.

    Screenshot della pagina Destinazione, evidenziando dove sono state apportate le modifiche nei passaggi precedenti.

  22. Nella barra multifunzione Home selezionare Esegui.

  23. Nella finestra di dialogo Salva ed esegui?, selezionare Salva ed esegui per caricare la tabella dimension_customer della pipeline.

    Screenshot della finestra di dialogo Salva ed esegui, evidenziando il pulsante Salva ed esegui.

  24. Per monitorare lo stato di avanzamento dell'attività di copia, esaminare le attività di esecuzione della pipeline nella pagina Output (attendere il completamento con uno stato Riuscito).

    Screenshot della pagina di Output, che evidenzia lo stato Riuscito.

Passaggio successivo