Průvodce rozhodováním Microsoft Fabric: Volba úložiště dat
Tento referenční průvodce a ukázkové scénáře vám pomůžou zvolit úložiště dat pro vaše úlohy Microsoft Fabric.
Vlastnosti úložiště dat
Tyto informace slouží k porovnání úložišť dat Fabric, jako jsou sklad, jezero, Eventhouse, databáze SQL a datový diagram Power BI, na základě objemu dat, typu, osoby vývojáře, sady dovedností, operací a dalších funkcí. Tato porovnání jsou uspořádaná do následujících dvou tabulek:
Tabulka 1 ze 2 | Lakehouse | sklad | Eventhouse |
---|---|---|---|
objem dat | Neomezený | Neomezený | Neomezený |
Druh dat | Nestrukturovaný částečně strukturovaná, strukturovaný |
Strukturovaný částečně strukturovaná (JSON) |
Nestrukturovaný částečně strukturovaná, strukturovaný |
primární persona vývojáře | Datový inženýr, datový vědec | Vývojář datového skladu, datový architekt, datový inženýr, vývojář databáze | Vývojář aplikací, datový vědec, datový inženýr |
primární programátorské dovednosti | Spark (Scala, PySpark, Spark SQL, R) | SQL | Žádný kód, KQL, SQL |
data uspořádaná podle | Složky a soubory, databáze a tabulky | Databáze, schémata a tabulky | Databáze, schémata a tabulky |
operace čtení | Spark, T-SQL | T-SQL, Spark* | KQL, T-SQL, Spark |
operace zápisu | Spark (Scala, PySpark, Spark SQL, R) | T-SQL | KQL, Spark, ekosystém konektorů |
transakce s více tabulkami | Ne | Ano | Ano, pro vkládání více tabulek |
primárního vývojového rozhraní | Poznámkové bloky Sparku, definice úloh Sparku | Skripty SQL | Sada dotazů KQL, databáze KQL |
zabezpečení | RLS, CLS**, úroveň tabulky (T-SQL), žádné pro Spark | na úrovni objektu , RLS, CLS, DDL/DML, dynamické maskování dat | RLS |
Přístupujte k datům prostřednictvím klávesových zkratek | Ano | Ano, prostřednictvím koncového bodu SQL Analytics | Ano |
může být zdrojem pro klávesové zkratky | Ano (soubory a tabulky) | Ano (tabulky) | Ano |
Dotaz napříč položkami | Ano | Ano | Ano |
pokročilá analytika | Rozhraní pro rozsáhlé zpracování dat, integrovaný paralelismus dat a odolnost proti chybám | Rozhraní pro rozsáhlé zpracování dat, integrovaný paralelismus dat a odolnost proti chybám | Nativní prvky Time Series, úplné geografické prostorové a dotazovací funkce |
podpora rozšířeného formátování | Tabulky definované pomocí souborů PARQUET, CSV, AVRO, JSON a libovolného formátu souboru kompatibilního s Apache Hivem | Tabulky definované pomocí souborů PARQUET, CSV, AVRO, JSON a libovolného formátu souboru kompatibilního s Apache Hivem | Úplné indexování pro volný text a částečně strukturovaná data, jako je JSON |
latence příjmu dat | K dispozici okamžitě pro dotazování | K dispozici okamžitě pro dotazování | Příjem dat ve frontě a streamovaný příjem dat mají zpoždění několik sekund. |
* Spark podporuje čtení z tabulek pomocí klávesových zkratek, zatím nepodporuje přístup k zobrazením, uloženým procedurám, funkcím atd.
Tabulka 2 ze 2 | Fabric SQL databáze | Power BI Datamart |
---|---|---|
objem dat | 4 TB | Až 100 GB |
Typ datového | Strukturovaný částečně strukturovaná, nestrukturovaný |
Strukturovaný |
Primární persona vývojáře | Vývojář umělé inteligence, vývojář aplikací, vývojář databáze, správce databáze | Datový vědec, datový analytik |
primární dovednosti vývojáře | SQL | Žádný kód, SQL |
data uspořádaná podle | Databáze, schémata, tabulky | Databáze, tabulky, dotazy |
operace čtení | T-SQL | Spark, T-SQL |
operace zápisu | T-SQL | Datové toky, T-SQL |
transakce s více tabulkami | Ano, plná shoda s ACID | Ne |
primárního vývojového rozhraní | Skripty SQL | Power BI |
zabezpečení | Úroveň objektů, RLS, CLS, DDL/DML, dynamické maskování dat | Integrovaný editor RLS |
Přístup k datům prostřednictvím klávesových zkratek | Ano | Ne |
může být zdrojem pro klávesové zkratky | Ano (tabulky) | Ne |
Dotaz napříč položkami | Ano | Ne |
pokročilá analytika | Analytické možnosti T-SQL, data replikovaná do formátu delta parquet v OneLake pro analýzu | Rozhraní pro zpracování dat s automatizovaným laděním výkonu |
podpora rozšířeného formátování | Podpora tabulek pro OLTP, JSON, vektor, graf, XML, prostorové, klíč-hodnota | Tabulky definované pomocí souborů PARQUET, CSV, AVRO, JSON a libovolného formátu souboru kompatibilního s Apache Hivem |
latence příjmu dat | K dispozici okamžitě pro dotazování | K dispozici okamžitě pro dotazování |
** Zabezpečení na úrovni sloupců dostupné v Lakehouse prostřednictvím koncového bodu analýzy SQL pomocí T-SQL.
Scénáře
Prohlédněte si tyto scénáře pro pomoc při výběru úložiště dat ve Fabric.
Scénář 1
Susan, profesionální vývojář, je pro Microsoft Fabric novinkou. Jsou připravení začít s čištěním, modelováním a analýzou dat, ale musí se rozhodnout vytvořit datový sklad nebo jezero. Po kontrole podrobností v předchozí tabulce jsou primární rozhodovací body dostupnou sadou dovedností a potřebou transakcí s více tabulkami.
Susan strávila mnoho let sestavováním datových skladů na relačních databázových strojích a je obeznámena se syntaxí a funkcemi SQL. Při zvažování většího týmu jsou primárními spotřebiteli těchto dat také ti, kteří mají zkušenosti s SQL a analytickými nástroji SQL. Susan se rozhodne použít sklad Fabric, který týmu umožňuje především pracovat s T-SQL, a zároveň umožňuje všem uživatelům Sparku v organizaci přístup k datům.
Susan vytvoří nový datový sklad a komunikuje s ním pomocí T-SQL stejně jako ostatní databáze SQL Serveru. Většina existujícího kódu T-SQL, který napsala pro sestavení svého skladu na SQL Serveru, bude fungovat na datovém skladu Fabric, což usnadňuje přechod. Pokud se rozhodne, může dokonce používat stejné nástroje, které fungují s ostatními databázemi, jako je SQL Server Management Studio. Pomocí editoru SQL na portálu Fabric zapisují Susan a další členové týmu analytické dotazy, které odkazují na jiné datové sklady a tabulky Delta v lakehouses, jednoduše pomocí třídílných názvů k provádění dotazů napříč databázemi.
Scénář 2
Rob, datový inženýr, potřebuje ukládat a modelovat několik terabajtů dat v Fabric. Tým má kombinaci dovedností PySpark a T-SQL. Většina týmů, na kterých běží dotazy T-SQL, jsou příjemci, a proto nemusí psát příkazy INSERT, UPDATE nebo DELETE. Zbývající vývojáři dobře pracují v poznámkových blocích a protože jsou data uložená v Delta, můžou pracovat s podobnou syntaxí SQL.
Rob se rozhodne použít lakehouse, což týmu pro přípravu dat umožňuje využívat své různorodé dovednosti při práci s daty, a zároveň umožňuje členům týmu, kteří jsou vysoce zkušení v T-SQL, pracovat s daty.
Scénář 3
Ash, občan, vývojář, je vývojář Power BI. Jsou obeznámeni s Excelem, Power BI a Office. Potřebují vytvořit datový produkt pro obchodní jednotku. Vědí, že nemají dost dovedností k vytvoření datového skladu nebo lakehouse, a že tyto možnosti se zdají být příliš složité pro jejich potřeby a objemy dat. Projdou si podrobnosti v předchozí tabulce a zjistí, že primární rozhodovací body jsou jejich vlastní dovednosti a že potřebují samoobslužnou službu, žádné schopnosti kódu a objem dat pod 100 GB.
Ash spolupracuje s obchodními analytiky, kteří jsou obeznámeni s Power BI a Microsoft Office, a ví, že už mají předplatné kapacity Premium. Když přemýšlejí o svém širším týmu, uvědomují si, že primární uživatelé těchto dat jsou analytici, kteří se orientují v no-code a SQL analytických nástrojích. Ash se rozhodne použít datamart Power BI , který týmu umožňuje rychle rozvíjet schopnosti pomocí bezkódového prostředí. Dotazy je možné spouštět prostřednictvím Power BI a T-SQL a zároveň umožnit všem uživatelům Sparku v organizaci přístup k datům.
Scénář 4
Daisy je obchodní analytik zkušený s využitím Power BI k analýze kritických bodů dodavatelského řetězce pro rozsáhlý globální maloobchodní řetězec. Potřebují vytvořit škálovatelné datové řešení, které dokáže zpracovávat miliardy řádků dat a lze je použít k vytváření řídicích panelů a sestav, které je možné použít k obchodním rozhodnutím. Data pochází ze závodů, od dodavatelů, odesílatelů a dalších zdrojů v různých strukturovaných, částečně strukturovaných a nestrukturovaných formátech.
Daisy se rozhodne používat Eventhouse kvůli škálovatelnosti, rychlé době odezvy, pokročilým analytickým možnostem, včetně analýzy časových řad, geoprostorových funkcí a rychlého režimu přímého dotazu v Power BI. Dotazy je možné spouštět pomocí Power BI a KQL k porovnání mezi aktuálními a předchozími obdobími, rychle identifikovat vznikající problémy nebo poskytovat geoprostorovou analýzu vnitrozemí a námořních tras.
Scénář 5
Kirby je aplikační architekt zkušený při vývoji aplikací .NET pro provozní data. Potřebují databázi s úplným dodržováním vlastností ACID, vysokou souběžností a silně vynucenými cizími klíči pro relační integritu. Kirby chce využít výhody automatického ladění výkonu ke zjednodušení každodenní správy databází.
Kirby se rozhodne pro databázi SQL ve Fabricuse stejným SQL databázovým strojem jako Azure SQL Database. Databáze SQL v systému Fabric se automaticky škálují tak, aby splňovaly poptávku po celý pracovní den. Mají plnou funkčnost transakčních tabulek a flexibilitu úrovní izolace transakcí od serializovatelného až po potvrzené snímkové čtení. Databáze SQL ve Fabricu automaticky vytváří a zahodí neclusterované indexy na základě silných signálů z prováděcích plánů pozorovaných v průběhu času.
Ve scénáři Kirbyho musí být data z provozní aplikace spojena s dalšími daty ve Fabric: ve Sparku, ve skladu a z událostí v reálném čase v Eventhouse. Každá databáze Fabric obsahuje koncový bod analýzy SQL, což umožňuje přístup k datům v reálném čase ze Sparku nebo prostřednictvím dotazů Power BI s použitím režimu DirectLake. Tato řešení pro sestavy chrání primární provozní databázi před zátěží způsobenou analytickými úlohami a vyhýbají se denormalizaci. Kirby má také existující provozní data v jiných databázích SQL a potřebuje je importovat bez transformace. Pokud chcete importovat existující provozní data bez převodu datového typu, Kirby navrhne datové kanály pomocí služby Fabric Data Factory pro import dat do databáze Fabric SQL.