從 Azure Databricks 連線到數據源
本文提供 Azure 中可連線到 Azure Databricks 之所有不同數據源的連結。 請遵循這些連結中的範例,將數據從 Azure 數據源中擷取(例如,Azure Blob 儲存體、Azure 事件中樞 等)擷取到 Azure Databricks 叢集,並對其執行分析作業。
必要條件
- 您必須有 Azure Databricks 工作區和 Spark 叢集。 請依照開始使用中的指示操作。
Azure Databricks 的數據源
下列清單提供 Azure 中您可以搭配 Azure Databricks 使用的數據源。 如需可與 Azure Databricks 搭配使用的數據源完整清單,請參閱 Azure Databricks 的數據源。
-
此連結提供DataFrame API,以使用 JDBC 連線到 SQL 資料庫,以及如何控制透過 JDBC 介面讀取的平行處理原則。 本主題提供使用 Scala API 的詳細範例,結尾有縮寫的 Python 和 Spark SQL 範例。
-
此連結提供如何使用 Microsoft Entra ID (先前稱為 Azure Active Directory) 服務主體向 Azure Data Lake Storage 進行驗證的範例。 它也提供如何從 Azure Databricks 存取 Azure Data Lake Storage 中數據的指示。
-
此連結提供如何使用存取密鑰或指定容器的 SAS,直接從 Azure Databricks 存取 Azure Blob 儲存體 的範例。 此連結也會提供如何使用 RDD API 從 Azure Databricks 存取 Azure Blob 儲存體 的資訊。
-
此連結提供如何從 Azure Databricks 使用 Kafka 連接器來存取 Azure 事件中樞 數據的指示。
-
此連結提供如何在 Azure Synapse 中查詢數據的指示。
下一步
若要瞭解您可以從中將數據匯入 Azure Databricks 的來源,請參閱 Azure Databricks 的數據源。