Udforsk data i din spejlede database med notesbøger
Du kan udforske de data, der er replikeret fra din spejlede database, med Spark-forespørgsler i notesbøger.
Notesbøger er et effektivt kodeelement, som du kan bruge til at udvikle Apache Spark-job og eksperimenter med maskinel indlæring på dine data. Du kan bruge notesbøger i Fabric Lakehouse til at udforske dine spejlede tabeller.
Forudsætninger
- Fuldfør selvstudiet for at oprette en spejlet database fra kildedatabasen.
- Selvstudium: Konfigurer spejlvendt Microsoft Fabric-database til Azure Cosmos DB (prøveversion)
- Selvstudium: Konfigurer spejlede Microsoft Fabric-databaser fra Azure Databricks (prøveversion)
- Selvstudium: Konfigurer spejlede Microsoft Fabric-databaser fra Azure SQL Database
- Selvstudium: Konfigurer spejlede Microsoft Fabric-databaser fra Azure SQL Managed Instance (prøveversion)
- Selvstudium: Konfigurer spejlede Microsoft Fabric-databaser fra Snowflake
Opret en genvej
Du skal først oprette en genvej fra dine spejlede tabeller til Lakehouse og derefter bygge notesbøger med Spark-forespørgsler i dit Lakehouse.
Åbn Dataudvikler ing på Fabric-portalen.
Hvis du ikke allerede har oprettet et Lakehouse, skal du vælge Lakehouse og oprette et nyt Lakehouse ved at give det et navn.
Vælg Hent data –> ny genvej.
Vælg Microsoft OneLake.
Du kan se alle dine spejlede databaser i Fabric-arbejdsområdet.
Vælg den spejlede database, du vil føje til Lakehouse, som en genvej.
Vælg de ønskede tabeller i den spejlede database.
Vælg Næste og derefter Opret.
I Stifinder kan du nu se de valgte tabeldata i lakehouse.
Tip
Du kan tilføje andre data direkte i Lakehouse eller hente genveje som F.eks. S3, ADLS Gen2. Du kan navigere til SQL Analytics-slutpunktet for Lakehouse og forbinde dataene på tværs af alle disse kilder med spejlede data uden problemer.
Hvis du vil udforske disse data i Spark, skal du vælge prikkerne
...
ud for en hvilken som helst tabel. Vælg Ny notesbog eller Eksisterende notesbog for at begynde analysen.Notesbogen åbnes automatisk, og datarammen indlæses med en
SELECT ... LIMIT 1000
Spark SQL-forespørgsel.