共用方式為


探索資料管線的來源資料

建立資料管線的常見第一步是了解管線的來源資料。 在此步驟中,您會在筆記本中執行 Databricks 公用程式和 PySpark 命令,以檢查來源資料和成品。

若要深入了解探勘資料分析,請參閱Azure Databricks 上的探索性資料分析:工具和技術

建立資料探索筆記本

  1. 在側邊欄中,點擊 新增圖示新增,然後從選單中選取 Notebook。 筆記本會以您可以取代的預設名稱開啟。

  2. 輸入筆記本的名稱,例如 Explore songs data。 預設情況:

    • Python 是選取的語言。
    • 筆記本會附加至您所使用的最後一個叢集。 在此情況下,您在步驟 1:建立叢集時創建的叢集。
  3. 若要檢視包含資料集的目錄內容,請在筆記本的第一個數據格中輸入下列內容,按兩下 [執行功能表],然後選取 [執行儲存格]

    %fs ls "/databricks-datasets/songs"
    
    路徑 名稱 尺寸 修改時間
    dbfs:/databricks-datasets/songs/README.md README.md 1719 1454620183000
    dbfs:/databricks-datasets/songs/data-001/ data-001/ 0 1672791237846
    dbfs:/databricks-datasets/songs/data-002/ data-002/ 0 1672791237846

探索資料

  1. 自述檔包含數據集的相關信息,包括數據架構的描述。 擷取數據時,會在下一個步驟中使用架構資訊。 若要檢視自述文件的內容,請在單元格操作功能表中單擊 [向下插號],選取 [在下方新增單元格],在新單元格中輸入下列內容,單擊 [執行功能表],接著選取 [執行單元格]

    %fs head --maxBytes=10000 "/databricks-datasets/songs/README.md"
    
    Sample of Million Song Dataset
    ===============================
    
    ## Source
    This data is a small subset of the [Million Song Dataset](http://labrosa.ee.columbia.edu/millionsong/).
    The original data was contributed by The Echo Nest.
    Prepared by T. Bertin-Mahieux <tb2332 '@' columbia.edu>
    
    ## Attribute Information
    - artist_id:string
    - artist_latitude:double
    - artist_longitude:double
    - artist_location:string
    - artist_name:string
    - duration:double
    - end_of_fade_in:double
    - key:int
    - key_confidence:double
    - loudness:double
    - release:string
    - song_hotnes:double
    - song_id:string
    - start_of_fade_out:double
    - tempo:double
    - time_signature:double
    - time_signature_confidence:double
    - title:string
    - year:double
    - partial_sequence:int
    ...
    
  2. 此範例中使用的記錄位於 /databricks-datasets/songs/data-001/ 目錄中。 若要檢視此目錄的內容,請單擊單元格動作功能表中的 [Down Caret],選取 [[在下方新增單元格],在新單元格中輸入下列內容,單擊 [執行功能表],然後選取 [執行單元格]

    %fs ls "/databricks-datasets/songs/data-001"
    
    路徑 姓名 尺寸 修改時間
    dbfs:/databricks-datasets/songs/data-001/header.txt header.txt 377 1454633901000
    dbfs:/databricks-datasets/songs/data-001/part-00000 part-00000 52837 1454547464000
    dbfs:/databricks-datasets/songs/data-001/part-00001 part-00001 52469 1454547465000
  3. 由於讀我檔案與檔案名稱未指出檔案格式,因此您可以檢視記錄的範例,以進一步了解每個記錄的內容和格式。 若要從其中一個數據檔讀取並顯示前十筆記錄,請在數據格動作功能表中按一下 [Down Caret],選取[在下方新增儲存格],在新儲存格中輸入以下內容,按一下 [執行功能表],然後在執行功能表中選取 [執行儲存格]。

    %fs head --maxBytes=10000 "/databricks-datasets/songs/data-001/part-00000"
    
     AR81V6H1187FB48872  nan     nan             Earl Sixteen    213.7073        0.0     11      0.419   -12.106 Soldier of Jah Army     nan     SOVNZSZ12AB018A9B8      208.289 125.882 1       0.0     Rastaman        2003    --
     ARVVZQP11E2835DBCB  nan     nan             Wavves  133.25016       0.0     0       0.282   0.596   Wavvves 0.471578247701  SOJTQHQ12A8C143C5F      128.116 89.519  1       0.0     I Want To See You (And Go To The Movies)        2009    --
     ARFG9M11187FB3BBCB  nan     nan     Nashua USA      C-Side  247.32689       0.0     9       0.612   -4.896  Santa Festival Compilation 2008 vol.1   nan     SOAJSQL12AB0180501      242.196 171.278 5       1.0     Loose on the Dancefloor 0       225261
     ...
    

    您可以從檢視記錄的範例來觀察有關資料的一些事項。 您稍後會在處理資料時使用這些觀察結果:

    • 記錄並不包含標頭。 相反地,標頭會在相同目錄中的個別檔案中儲存。
      • 這些檔案顯示為制表符分隔值 (TSV) 格式。
      • 某些欄位遺失或無效。
  4. 若要進一步探索和分析資料,請使用這些觀察結果將 TSV 格式化的歌曲資料載入 PySpark DataFrame。 若要這樣做,請單擊單元格動作功能表中的 向下箭頭,選取 在下方新增單元格,在新單元格中輸入下列程式代碼,然後單擊 執行功能表>執行單元格

    df = spark.read.format('csv').option("sep", "\t").load('dbfs:/databricks-datasets/songs/data-001/part-00000')
    df.display()
    

    因為數據檔遺漏標頭,所以數據行名稱會顯示為 _c0_c1等等。 不論實際數據類型為何,每個數據行都會解譯為 string下一個步驟中原始數據的擷取 示範如何在載入數據時強加有效的架構。

    從原始歌曲資料建立的 DataFrame