Připojení ke zdrojům dat z Azure Databricks
Tento článek obsahuje odkazy na všechny různé zdroje dat v Azure, které je možné připojit k Azure Databricks. Pomocí příkladů v těchto odkazech extrahujte data ze zdrojů dat Azure (například Azure Blob Storage, Azure Event Hubs atd.) do clusteru Azure Databricks a spusťte na nich analytické úlohy.
Požadavky
- Musíte mít pracovní prostor Azure Databricks a cluster Spark. Postupujte podle pokynů v Začínáme.
Zdroje dat pro Azure Databricks
Následující seznam obsahuje zdroje dat v Azure, které můžete použít s Azure Databricks. Úplný seznam zdrojů dat, které je možné použít s Azure Databricks, najdete v tématu Zdroje dat pro Azure Databricks.
-
Tento odkaz poskytuje rozhraní DATAFrame API pro připojení k databázím SQL pomocí JDBC a řízení paralelismu čtení prostřednictvím rozhraní JDBC. Toto téma obsahuje podrobné příklady použití rozhraní Scala API s zkrácenými příklady Pythonu a Spark SQL na konci.
-
Tento odkaz obsahuje příklady použití instančního objektu Microsoft Entra ID (dříve Azure Active Directory) k ověření ve službě Azure Data Lake Storage. Obsahuje také pokyny k přístupu k datům v Azure Data Lake Storage z Azure Databricks.
-
Tento odkaz obsahuje příklady přímého přístupu ke službě Azure Blob Storage z Azure Databricks pomocí přístupového klíče nebo SAS pro daný kontejner. Odkaz také poskytuje informace o přístupu ke službě Azure Blob Storage z Azure Databricks pomocí rozhraní RDD API.
-
Tento odkaz obsahuje pokyny k použití konektoru Kafka z Azure Databricks pro přístup k datům ve službě Azure Event Hubs.
-
Tento odkaz obsahuje pokyny k dotazování dat v Azure Synapse.
Další kroky
Informace o zdrojích, ze kterých můžete importovat data do Azure Databricks, najdete v tématu Zdroje dat pro azure Databricks.