Den här artikeln beskriver flera sätt som små och medelstora företag (SMB) kan modernisera äldre datalager och utforska stordataverktyg och funktioner utan att överskrida aktuella budgetar och kompetensuppsättningar. Dessa omfattande datalagerlösningar integreras sömlöst med Azure Machine Learning, Azure AI-tjänster, Microsoft Power Platform, Microsoft Dynamics 365 och andra Microsoft-tekniker. De här lösningarna ger en enkel startpunkt för den fullständigt hanterade saaS-dataplattformen (programvara som en tjänst) på Microsoft Fabric som kan expandera allt eftersom dina behov växer.
SMF som använder lokal SQL Server för datalagerlösningar under 500 GB kan ha nytta av att använda det här mönstret. De använder olika verktyg för datainmatning i sin datalagerlösning, inklusive SQL Server Integration Services (SSIS), SQL Server Analysis Services (SSAS), SQL Server Reporting Services (SSRS), vanliga SQL-lagrade procedurer, extern extrahering, transformering, inläsning (ETL) och extrahering, inläsning, transformering (ELT), SQL Server Agent-jobb och SQL-ögonblicksbildreplikering. Datasynkroniseringsåtgärder är vanligtvis ögonblicksbildsbaserade, utförs en gång om dagen och har inte rapporteringskrav i realtid.
Förenklad arkitektur
Ladda ned en Visio-fil med den här arkitekturen.
En konceptuell moderniseringsmöjlighet innebär att den äldre datalagerlösningen övergår till en kombination av Azure SQL Database, Azure SQL Managed Instance och Fabric. Den här strategin säkerställer bred kompatibilitet med traditionella SQL Server- och SQL-klientverktyg som SQL Server Management Studio (SSMS). Det ger också lift-and-shift-alternativ för befintliga processer och kräver minimal kompetensutveckling för supportteamet. Den här lösningen fungerar som ett första steg mot omfattande modernisering, vilket gör det möjligt för organisationen att helt anta en lakehouse-metod när informationslagret expanderar och teamets kompetensuppsättning växer.
Arkitektur
Ladda ned en Visio-fil med den här arkitekturen.
Äldre SMB-informationslager kan innehålla flera typer av data:
Ostrukturerade data, till exempel dokument och grafik.
Halvstrukturerade data, till exempel loggar, CSV:er, JSON- och XML-filer.
Strukturerade relationsdata, inklusive databaser som använder lagrade procedurer för ETL- och ELT-aktiviteter.
Dataflöde
Följande dataflöde motsvarar föregående diagram. Den visar inmatningen av den datatyp som du väljer:
Infrastrukturdatapipelines eller Azure Data Factory-pipelines samordnar inmatningen av transaktionsdata till datalagerlösningen.
Pipelines samordnar flödet av migrerade eller delvis omstrukturerade äldre databaser och SSIS-paket till SQL Database och SQL Managed Instance. Du kan snabbt implementera den här lift-and-shift-metoden, som säkerställer en sömlös övergång från en lokal SQL-lösning till en framtida Fabric SaaS-miljö. Du kan modernisera databaser stegvis efter lift and shift.
Pipelines kan skicka ostrukturerade, halvstrukturerade och strukturerade data till Azure Data Lake Storage för centraliserad lagring och analys med andra källor. Använd den här metoden när du samlar in data ger större affärsfördelar än att formatera om data.
Använd Microsoft Dynamics 365-datakällor för att skapa centraliserade BI-instrumentpaneler (Business Intelligence) på förhöjda datamängder med hjälp av infrastrukturverktyg för serverlös analys. Du kan föra tillbaka de sammansvetsade och bearbetade data till Dynamics och använda dem för ytterligare analys i Fabric.
Realtidsdata från strömmande källor kan komma in i systemet via Azure Event Hubs eller andra strömningslösningar. För kunder med krav på instrumentpaneler i realtid kan Fabric Realtidsanalys analysera dessa data omedelbart.
Data kan matas in i den centraliserade Fabric OneLake för ytterligare analys, lagring och rapportering med hjälp av Genvägar för Data Lake Storage. Den här processen möjliggör analys på plats och underlättar nedströmsförbrukning.
Serverlösa analysverktyg, till exempel SQL Analytics-slutpunkter och Fabric Spark-funktioner, är tillgängliga på begäran i Fabric och kräver inga etablerade resurser. Serverlösa analysverktyg är idealiska för:
ETL- och ELT-aktiviteter på OneLake-data.
Hantera guldlager av medaljongarkitektur till Power BI-rapporter via DirectLake-funktionen.
Improviserade datavetenskapsutforskningar i T-SQL-format eller Python.
Tidiga prototyper för informationslagerentiteter.
Infrastrukturresurser är nära integrerade med potentiella konsumenter av dina datauppsättningar med flera källor, inklusive Power BI-klientdelsrapporter, Machine Learning, Power Apps, Azure Logic Apps, Azure Functions och Azure App Service-webbappar.
Komponenter
Fabric är en analystjänst som kombinerar datateknik, datalagerhantering, datavetenskap och realtidsdata och BI-funktioner. I den här lösningen tillhandahåller infrastrukturresurserna en samarbetsplattform för datatekniker, dataforskare, dataanalytiker och BI-proffs. Den här nyckelkomponenten drivs av serverlösa beräkningsmotorer och levererar affärsvärde genom att generera insikter som distribueras till kunder.
SQL Database och SQL Managed Instance är molnbaserade relationsdatabastjänster. SQL Database och SQL Managed Instance använder SSMS för att utveckla och underhålla äldre artefakter som lagrade procedurer. I den här lösningen är dessa tjänster värdar för företagets informationslager och utför ETL- och ELT-aktiviteter med hjälp av lagrade procedurer eller externa paket. SQL Database och SQL Managed Instance är paaS-miljöer (plattform som en tjänst) som du kan använda för att uppfylla kraven på hög tillgänglighet och haveriberedskap. Se till att välja den SKU som uppfyller dina krav. Mer information finns i Hög tillgänglighet för SQL Database och Hög tillgänglighet för SQL Managed Instance.
SSMS är en integrerad miljö för hantering av SQL-infrastruktur som du kan använda för att utveckla och underhålla äldre artefakter, till exempel lagrade procedurer.
Event Hubs är en plattform för dataströmning i realtid och en händelseinmatningstjänst. Event Hubs integreras sömlöst med Azure-datatjänster och kan mata in data var som helst.
Alternativ
Du kan använda Azure IoT Hub för att ersätta eller komplettera Event Hubs. Välj din lösning baserat på källan för dina strömmande data och om du behöver kloning och dubbelriktad kommunikation med rapporteringsenheterna.
Du kan använda Infrastrukturdatapipelines i stället för Data Factory-pipelines för dataintegrering. Ditt beslut beror på flera faktorer. Mer information finns i Komma från Azure Data Factory till Data Factory i Fabric.
Du kan använda Fabric Warehouse i stället för SQL Database eller SQL Managed Instance för att lagra företagsdata. Den här artikeln prioriterar tid till marknad för kunder som vill modernisera sina informationslager. Mer information om alternativ för datalager för Infrastruktur finns i Beslutsguide för infrastrukturresurser.
Information om scenario
När små och medelstora företag moderniserar sina lokala informationslager för molnet kan de antingen använda stordataverktyg för framtida skalbarhet eller använda traditionella SQL-baserade lösningar för kostnadseffektivitet, enkelt underhåll och en smidig övergång. En hybridmetod ger det bästa av två världar och möjliggör enkel migrering av befintliga dataegendomar samtidigt som moderna verktyg och AI-funktioner används. SMF kan hålla sina SQL-baserade datakällor igång i molnet och modernisera dem efter behov.
Den här artikeln beskriver flera strategier för små och medelstora företag för att modernisera äldre datalager och utforska verktyg och funktioner för stordata utan att tänja på aktuella budgetar och kompetensuppsättningar. Dessa omfattande azure-datalagerlösningar integreras sömlöst med Azure och Microsoft-tjänster, inklusive AI-tjänster, Microsoft Dynamics 365 och Microsoft Power Platform.
Potentiella användningsfall
Migrera ett traditionellt lokalt relationsdatalager som är mindre än 1 TB och som använder SSIS-paket för att orkestrera lagrade procedurer.
Mesh befintliga Dynamics- eller Microsoft Power Platform Dataverse-data med batchbaserade och realtidsbaserade Data Lake-källor.
Använd innovativa tekniker för att interagera med centraliserade Azure Data Lake Storage Gen2-data. Dessa tekniker omfattar serverlös analys, kunskapsutvinning, datafusion mellan domäner och utforskning av slutanvändardata, inklusive Fabric Copilot.
Konfigurera e-handelsföretag för att införa ett informationslager för att optimera sin verksamhet.
Den här lösningen rekommenderas inte för:
En grön fältdistribution av informationslager.
Migrering av lokala informationslager som är större än 1 TB eller som beräknas nå den storleken inom ett år.
Att tänka på
Dessa överväganden implementerar grundpelarna i Azure Well-Architected Framework, som är en uppsättning vägledande grundsatser som kan användas för att förbättra kvaliteten på en arbetsbelastning. Mer information finns i Microsoft Azure Well-Architected Framework.
Kostnadsoptimering
Kostnadsoptimering handlar om att titta på sätt att minska onödiga utgifter och förbättra drifteffektiviteten. Mer information finns i Checklista för designgranskning för kostnadsoptimering.
Med priskalkylatorn för Azure kan du ändra värden för att förstå hur dina specifika krav påverkar kostnaderna. Du kan se ett prisexempel för ett SMB-datalagerscenario i Priskalkylatorn för Azure.
Prissättningen för SQL Database beror på de beräknings- och tjänstnivåer som du väljer och antalet virtuella kärnor och databastransaktionsenheter. I exemplet beskrivs en enskild databas med etablerad beräkning och åtta virtuella kärnor och förutsätter att du behöver köra lagrade procedurer i SQL Database.
Prissättningen för Data Lake Storage Gen2 beror på mängden data som du lagrar och hur ofta du använder data. Exempelpriset omfattar 1 TB datalagring och andra transaktionsantaganden. 1 TB avser storleken på datasjön och inte storleken på den ursprungliga äldre databasen.
Infrastrukturpriser beror antingen på fabric F-kapacitetspriset eller premiumpriset per person. Serverlösa funktioner använder CPU och minne från din köpta dedikerade kapacitet.
Prissättningen för Event Hubs beror på vilken nivå du väljer, antalet etablerade dataflödesenheter och inkommande trafik som tas emot. Exemplet förutsätter en dataflödesenhet på standardnivån som hanterar över en miljon händelser per månad.
Deltagare
Den här artikeln underhålls av Microsoft. Det har ursprungligen skrivits av följande medarbetare.
Huvudförfattare:
- Galina Polyakova | Senior Cloud Solution Architect
Om du vill se icke-offentliga LinkedIn-profiler loggar du in på LinkedIn.
Nästa steg
- Information om utbildningsinnehåll och labb finns i Utbildningsvägar för datatekniker.
- Kom igång med Fabric.
- Bläddra bland alla kurser, utbildningsvägar och moduler.
- Skapa en enkel databas.
- Skapa en SQL Managed Instance.
- Skapa ett lagringskonto som ska användas med Data Lake Storage Gen2.
- Skapa en händelsehubb med hjälp av Azure Portal.