Dela via


Beräkningsresurser för notebook-filer

Den här artikeln beskriver alternativen för beräkningsresurser för notebook-filer. Du kan köra en notebook-fil i ett Databricks-kluster, serverlös beräkning eller, för SQL-kommandon, använda ett SQL-lager, en typ av beräkningsoptimerad för SQL-analys.

Serverlös beräkning för notebook-filer

Med serverlös beräkning kan du snabbt ansluta notebook-filen till databehandlingsresurser på begäran.

Om du vill ansluta till den serverlösa beräkningen klickar du på den nedrullningsbara menyn Anslut i anteckningsboken och väljer Serverlös.

Mer information finns i Serverlös beräkning för notebook-filer .

Koppla en notebook-fil till ett kluster

Om du vill koppla en notebook-fil till ett kluster behöver du behörigheten KAN KOPPLA TILL klusternivå.

Viktigt!

Så länge en notebook-fil är ansluten till ett kluster har alla användare med behörigheten CAN RUN i notebook-filen implicit behörighet att komma åt klustret.

Om du vill koppla en notebook-fil till ett kluster klickar du på beräkningsväljaren i notebook-verktygsfältet och väljer ett kluster i listrutan.

Menyn visar ett urval av kluster som du har använt nyligen eller som för närvarande körs.

Bifoga notebook-fil

Om du vill välja från alla tillgängliga kluster klickar du på Mer.... Klicka på klusternamnet för att visa en listmeny och välj ett befintligt kluster.

dialogruta för fler kluster

Du kan också skapa ett nytt kluster genom att välja Skapa ny resurs... på den nedrullningsbara menyn.

Viktigt!

En bifogad notebook-fil har följande Apache Spark-variabler definierade.

Klass Variabelnamn
SparkContext sc
SQLContext/HiveContext sqlContext
SparkSession (Spark 2.x) spark

Skapa inte en SparkSession, SparkContext, eller SQLContext. Detta leder till inkonsekvent beteende.

Använda en notebook-fil med ett SQL-lager

När en notebook-fil är ansluten till ett SQL-lager kan du köra SQL- och Markdown-celler. Om du kör en cell på något annat språk (till exempel Python eller R) genereras ett fel. SQL-celler som körs på ett SQL-lager visas i SQL-lagrets frågehistorik. Användaren som körde en fråga kan visa frågeprofilen från notebook-filen genom att klicka på den förflutna tiden längst ned i utdata.

För att köra en notebook-fil krävs ett proffs- eller serverlöst SQL-lager. Du måste ha åtkomst till arbetsytan och SQL-lagret.

Så här kopplar du en notebook-fil till ett SQL-lager :

  1. Klicka på beräkningsväljaren i notebook-verktygsfältet. Den nedrullningsbara menyn visar beräkningsresurser som för närvarande körs eller som du har använt nyligen. SQL-lager markeras med SQL-lageretikett.

  2. Välj ett SQL-lager på menyn.

    Om du vill se alla tillgängliga SQL-lager väljer du Mer... på den nedrullningsbara menyn. En dialogruta visas som visar beräkningsresurser som är tillgängliga för notebook-filen. Välj SQL Warehouse, välj det lager som du vill använda och klicka på Bifoga.

    mer klusterdialogruta med SQL Warehouse valt

Du kan också välja ett SQL-lager som beräkningsresurs för en SQL-notebook-fil när du skapar ett arbetsflöde eller ett schemalagt jobb.

Begränsningar för SQL-lager

Mer information finns i Kända begränsningar i Databricks-notebook-filer .

Koppla från en notebook-fil

Om du vill koppla från en notebook-fil från en beräkningsresurs klickar du på beräkningsväljaren i notebook-verktygsfältet och hovra över det anslutna klustret eller SQL-lagret i listan för att visa en sidomeny. På sidomenyn väljer du Koppla från.

Koppla från notebook-fil

Du kan också koppla från notebook-filer från ett kluster med hjälp av fliken Notebook-filer på klusterinformationssidan.

Dricks

Azure Databricks rekommenderar att du kopplar från oanvända notebook-filer från kluster. Detta frigör minne på drivrutinen.