Ansluta till datakällor från Azure Databricks
Den här artikeln innehåller länkar till alla olika datakällor i Azure som kan anslutas till Azure Databricks. Följ exemplen i dessa länkar för att extrahera data från Azure-datakällorna (till exempel Azure Blob Storage, Azure Event Hubs osv.) till ett Azure Databricks-kluster och köra analysjobb på dem.
Förutsättningar
- Du måste ha en Azure Databricks-arbetsyta och ett Spark-kluster. Följ anvisningarna på Kom igång.
Datakällor för Azure Databricks
Följande lista innehåller de datakällor i Azure som du kan använda med Azure Databricks. En fullständig lista över datakällor som kan användas med Azure Databricks finns i Datakällor för Azure Databricks.
-
Den här länken innehåller DataFrame-API:et för att ansluta till SQL-databaser med JDBC och hur du styr parallelliteten för läsningar via JDBC-gränssnittet. Det här avsnittet innehåller detaljerade exempel med Scala API, med förkortade Python- och Spark SQL-exempel i slutet.
-
Den här länken innehåller exempel på hur du använder tjänstens huvudnamn för Microsoft Entra-ID (tidigare Azure Active Directory) för att autentisera med Azure Data Lake Storage. Den innehåller också instruktioner om hur du kommer åt data i Azure Data Lake Storage från Azure Databricks.
-
Den här länken innehåller exempel på hur du direkt kommer åt Azure Blob Storage från Azure Databricks med hjälp av åtkomstnyckeln eller SAS för en viss container. Länken innehåller också information om hur du kommer åt Azure Blob Storage från Azure Databricks med hjälp av RDD-API:et.
-
Den här länken innehåller instruktioner om hur du använder Kafka-anslutningsappen från Azure Databricks för att komma åt data i Azure Event Hubs.
-
Den här länken innehåller instruktioner om hur du frågar efter data i Azure Synapse.
Nästa steg
Information om källor där du kan importera data till Azure Databricks finns i Datakällor för Azure Databricks.