Dela via


Utforska data i din speglade databas med notebook-filer

Du kan utforska data som replikeras från din speglade databas med Spark-frågor i notebook-filer.

Notebook-filer är ett kraftfullt kodobjekt där du kan utveckla Apache Spark-jobb och maskininlärningsexperiment på dina data. Du kan använda notebook-filer i Fabric Lakehouse för att utforska dina speglade tabeller.

Förutsättningar

Skapa en genväg

Du måste först skapa en genväg från dina speglade tabeller till Lakehouse och sedan skapa notebook-filer med Spark-frågor i Lakehouse.

  1. Öppna Dataingenjör ing i Infrastrukturportalen.

  2. Om du inte redan har skapat ett Lakehouse väljer du Lakehouse och skapar ett nytt Lakehouse genom att ge det ett namn.

  3. Välj Hämta data –> Ny genväg.

  4. Välj Microsoft OneLake.

  5. Du kan se alla dina speglade databaser på arbetsytan Infrastruktur.

  6. Välj den speglade databas som du vill lägga till i Lakehouse som en genväg.

  7. Välj önskade tabeller från den speglade databasen.

  8. Välj Nästa och sedan Skapa.

  9. I Utforskaren kan du nu se valda tabelldata i Lakehouse. Skärmbild från Infrastrukturportalen som visar Lakehouse Explorer som visar de speglade databastabellerna och data.

    Dricks

    Du kan lägga till andra data i Lakehouse direkt eller ta med genvägar som S3, ADLS Gen2. Du kan navigera till SQL-analysslutpunkten för Lakehouse och koppla data mellan alla dessa källor med speglade data sömlöst.

  10. Om du vill utforska dessa data i Spark väljer du ... punkterna bredvid valfri tabell. Välj Ny notebook-fil eller befintlig anteckningsbok för att börja analysera. Skärmbild från Fabric-portalen som visar snabbmenyn för att öppna en speglad databastabell i en notebook-fil.

  11. Notebook-filen öppnas automatiskt och dataramen läses in med en SELECT ... LIMIT 1000 Spark SQL-fråga.

    • Nya notebook-filer kan ta upp till två minuter att läsa in helt. Du kan undvika den här fördröjningen genom att använda en befintlig notebook-fil med en aktiv session. Skärmbild från Fabric-portalen som visar data från en speglad databastabell i en ny notebook-fil med en Spark SQL-fråga.