Del via


Microsoft Fabric-beslutningsvejledning: Vælg et datalager

Brug denne referencevejledning og eksempelscenarierne til at hjælpe dig med at vælge et datalager til dine Microsoft Fabric-arbejdsbelastninger.

Egenskaber for datalager

Brug disse oplysninger til at sammenligne Fabric-datalagre, f.eks. lager, lakehouse, Eventhouse, SQL-database og Power BI-datamart, baseret på datamængde, type, udviklerpersona, kompetencesæt, handlinger og andre funktioner. Disse sammenligninger er organiseret i følgende to tabeller:

Tabel 1 af 2 Lakehouse Lageragersted Eventhouse
Datamængde Ubegrænset Ubegrænset Ubegrænset
Datatype Ustruktureret
semi-struktureret,
Struktureret
Struktureret
semi-struktureret (JSON)
Ustruktureret
semi-struktureret,
Struktureret
Primær udviklerperson Datatekniker, dataforsker Udvikler af data warehouse, dataarkitekt, datatekniker, databaseudvikler Appudvikler, dataforsker, datatekniker
Primær udviklingsevne Spark (Scala, PySpark, Spark SQL, R) SQL Ingen kode, KQL, SQL
Data organiseret af Mapper og filer, databaser og tabeller Databaser, skemaer og tabeller Databaser, skemaer og tabeller
Læsehandlinger Spark, T-SQL T-SQL, Spark* KQL, T-SQL, Spark
Skrivehandlinger Spark (Scala, PySpark, Spark SQL, R) T-SQL KQL, Spark, forbindelsesøkosystem
Transaktioner med flere tabeller Nej Ja Ja, for indtagelse med flere tabeller
Primær udviklingsgrænseflade Spark-notesbøger, Spark-jobdefinitioner SQL-scripts KQL-forespørgselssæt, KQL-database
Sikkerhed RLS, CLS**, tabelniveau (T-SQL), ingen for Spark Objektniveau, RLS, CLS, DDL/DML, dynamisk datamaskering Sikkerhed på rækkeniveau
Få adgang til data via genveje Ja Ja, via SQL Analytics-slutpunktet Ja
Kan være en kilde til genveje Ja (filer og tabeller) Ja (tabeller) Ja
Forespørgsel på tværs af elementer Ja Ja Ja
Avanceret analyse Grænseflade til databehandling i stor skala, indbygget data parallelitet og fejltolerance Grænseflade til databehandling i stor skala, indbygget data parallelitet og fejltolerance Oprindelige elementer i tidsserien, fuld geo-afstand og forespørgselsfunktioner
Understøttelse af avanceret formatering Tabeller, der er defineret ved hjælp af PARQUET, CSV, AVRO, JSON og et hvilket som helst Apache Hive-kompatibelt filformat Tabeller, der er defineret ved hjælp af PARQUET, CSV, AVRO, JSON og et hvilket som helst Apache Hive-kompatibelt filformat Fuld indeksering til fri tekst og semi-strukturerede data, f.eks. JSON
Ventetid for indtagelse Tilgængelig med det samme til forespørgsler Tilgængelig med det samme til forespørgsler Køindtagelse, streamingindtagelse har et par sekunders ventetid

* Spark understøtter læsning fra tabeller ved hjælp af genveje, understøtter endnu ikke adgang til visninger, lagrede procedurer, funktioner osv.

Tabel 2 af 2 Fabric SQL-database Power BI-datamart
Datamængde 4 TB Op til 100 GB
Datatype Struktureret
semi-struktureret,
Ustruktureret
Struktureret
Primær udviklerperson AI-udvikler, appudvikler, databaseudvikler, DB-administrator Dataspecialist, dataanalytiker
Primær udviklingsevne SQL Ingen kode, SQL
Data organiseret af Databaser, skemaer, tabeller Database, tabeller, forespørgsler
Læsehandlinger T-SQL Spark, T-SQL
Skrivehandlinger T-SQL Dataflow, T-SQL
Transaktioner med flere tabeller Ja, fuld ACID-overholdelse Nej
Primær udviklingsgrænseflade SQL-scripts Power BI
Sikkerhed Objektniveau, RLS, CLS, DDL/DML, dynamisk datamaskering Indbygget RLS-editor
Få adgang til data via genveje Ja Nej
Kan være en kilde til genveje Ja (tabeller) Nej
Forespørgsel på tværs af elementer Ja Nej
Avanceret analyse T-SQL-analysefunktioner, data replikeret til delta-parquet i OneLake til analyse Grænseflade til databehandling med automatiseret justering af ydeevne
Understøttelse af avanceret formatering Tabelunderstøtter OLTP, JSON, vektor, graf, XML, afstand, nøgleværdi Tabeller, der er defineret ved hjælp af PARQUET, CSV, AVRO, JSON og et hvilket som helst Apache Hive-kompatibelt filformat
Ventetid for indtagelse Tilgængelig med det samme til forespørgsler Tilgængelig med det samme til forespørgsler

** Sikkerhed på kolonneniveau, der er tilgængelig i Lakehouse via et SQL-analyseslutpunkt ved hjælp af T-SQL.

Scenarier

Gennemse disse scenarier for at få hjælp til at vælge et datalager i Fabric.

Scenarie 1

Susan, der er professionel udvikler, er ny i Microsoft Fabric. De er klar til at komme i gang med at rense, modellere og analysere data, men skal beslutte at bygge et data warehouse eller et lakehouse. Efter gennemgang af detaljerne i den forrige tabel er de primære beslutningspunkter de tilgængelige færdigheder og behovet for transaktioner med flere tabeller.

Susan har brugt mange år på at bygge data warehouses på relationsdatabaseprogrammer og kender SQL-syntaks og -funktionalitet. Når man tænker på det større team, er de primære forbrugere af disse data også dygtige til SQL- og SQL-analyseværktøjer. Susan beslutter at bruge et Fabric Warehouse, som gør det muligt for teamet primært at interagere med T-SQL, samtidig med at spark-brugere i organisationen får adgang til dataene.

Susan opretter et nyt data warehouse og interagerer med det ved hjælp af T-SQL på samme måde som sine andre SQL-serverdatabaser. Det meste af den eksisterende T-SQL-kode, hun har skrevet for at bygge sit lager på SQL Server, fungerer på Fabric-data warehouseet, hvilket gør overgangen nem. Hvis hun vælger det, kan hun endda bruge de samme værktøjer, der fungerer sammen med sine andre databaser, f.eks. SQL Server Management Studio. Ved hjælp af SQL-editoren på Fabric-portalen skriver Susan og andre teammedlemmer analyseforespørgsler, der refererer til andre data warehouses og Delta-tabeller i lakehouses ved ganske enkelt at bruge navne med tre dele til at udføre forespørgsler på tværs af databaser.

Scenarie 2

Rob, der er datatekniker, skal gemme og modellere flere terabyte data i Fabric. Teamet har en blanding af PySpark og T-SQL færdigheder. De fleste af de team, der kører T-SQL-forespørgsler, er forbrugere og behøver derfor ikke at skrive INSERT-, UPDATE- eller DELETE-sætninger. De resterende udviklere er komfortable med at arbejde i notesbøger, og da dataene er gemt i Delta, kan de interagere med en lignende SQL-syntaks.

Rob beslutter sig for at bruge et lakehouse, hvilket gør det muligt for datateknikerteamet at bruge deres forskellige færdigheder i forhold til dataene, samtidig med at teammedlemmer, der er højt kvalificerede i T-SQL, kan bruge dataene.

Scenarie 3

Ash, der er borgerudvikler, er Power BI-udvikler. De kender Excel, Power BI og Office. De skal oprette et dataprodukt til en forretningsenhed. De ved, at de ikke helt har færdighederne til at bygge et data warehouse eller et lakehouse, og de ser ud til at være for meget til deres behov og datamængder. De gennemser detaljerne i den forrige tabel og kan se, at de primære beslutningspunkter er deres egne færdigheder og deres behov for selvbetjening, ingen kodefunktionalitet og datavolumen under 100 GB.

Ash arbejder sammen med forretningsanalytikere, der kender Power BI og Microsoft Office, og ved, at de allerede har et Premium-kapacitetsabonnement. Når de tænker på deres større team, indser de, at de primære forbrugere af disse data er analytikere, der kender værktøjer uden kode og SQL-analyse. Ash beslutter sig for at bruge en Power BI-datamart, som gør det muligt for teamet at interagere med at bygge funktionaliteten hurtigt ved hjælp af en oplevelse uden kode. Forespørgsler kan udføres via Power BI og T-SQL, samtidig med at alle Spark-brugere i organisationen også kan få adgang til dataene.

Scenario 4

Daisy er forretningsanalytiker og har erfaring med at bruge Power BI til at analysere flaskehalse i forsyningskæden for en stor global detailkæde. De skal bygge en skalerbar dataløsning, der kan håndtere milliarder af rækker med data og kan bruges til at oprette dashboards og rapporter, der kan bruges til at træffe forretningsbeslutninger. Dataene kommer fra anlæg, leverandører, afsendere og andre kilder i forskellige strukturerede, semi-strukturerede og ustrukturerede formater.

Daisy beslutter sig for at bruge et Eventhouse på grund af dets skalerbarhed, hurtige svartider, avancerede analysefunktioner, herunder tidsserieanalyse, geospatiale funktioner og hurtig direkte forespørgselstilstand i Power BI. Forespørgsler kan udføres ved hjælp af Power BI og KQL for at sammenligne mellem aktuelle og tidligere perioder, hurtigt identificere nye problemer eller levere geo-rumlige analyser af land- og søfartsruter.

Scenarie 5

Kirby er en programarkitekt, der har erfaring med udvikling af .NET-programmer til driftsdata. De har brug for en database med høj samtidighed med fuld ACID-transaktionsoverholdelse og stærkt gennemtvungne fremmede nøgler for relationsintegritet. Kirby ønsker fordelen ved automatisk justering af ydeevnen for at forenkle den daglige databaseadministration.

Kirby beslutter sig for en SQL-database i Fabric med det samme SQL Database Engine som Azure SQL Database. SQL-databaser i Fabric skaleres automatisk for at imødekomme efterspørgslen i løbet af arbejdsdagen. De har den fulde funktionalitet i transaktionstabeller og fleksibiliteten i transaktionsisolationsniveauerne fra serialiserbare til læsebelagte snapshots. SQL-databasen i Fabric opretter og dropper automatisk ikke-registrerede indeks baseret på stærke signaler fra udførelsesplaner, der er observeret over tid.

I Kirbys scenarie skal data fra driftsprogrammet være forbundet med andre data i Fabric: i Spark, i et lager og fra hændelser i realtid i et Eventhouse. Alle Fabric-databaser indeholder et SQL-analyseslutpunkt, så der kan opnås adgang til data i realtid fra Spark eller med Power BI-forespørgsler ved hjælp af DirectLake-tilstand. Disse rapporteringsløsninger skåner den primære driftsmæssige database fra omkostningerne ved analytiske arbejdsbelastninger og undgår denormalisering. Kirby har også eksisterende driftsdata i andre SQL-databaser og skal importere disse data uden transformation. Kirby designer datapipelines med Fabric Data Factory for at importere data til Fabric SQL-databasen for at importere eksisterende driftsdata uden konvertering af datatyper.