Deze voorbeeldworkload illustreert een greenfield-oplossing voor het maken van een schaalbaar gegevensplatform met behulp van Microsoft Fabric en het ontwerpparadigma lakehouse. Fabric is een platform dat gegevensopslag, -verwerking en -analyse integreert. Een Greenfield Lakehouse biedt een schone start voor het ontwerpen van een efficiënt, toekomstbestendig gegevensecosysteem.
Architectuur
Een Visio-bestand van deze architectuur downloaden.
Gegevensstroom
Dit ontwerp weerspiegelt de Lambda-architectuur, die gegevensverwerking in twee lagen scheidt:
- Een batchverwerkingslaag met grote volumes die periodiek wordt verwerkt voor historische analyse
- Een stroomverwerkingslaag met lage latentie en hoge doorvoer voor realtime analyse
Het stroomverwerkingspad neemt gegevens bijna in realtime op en verwerkt deze, waardoor het ideaal is voor dashboards en anomaliedetectie. Het batchverwerkingspad verwerkt de volledige gegevensset en zorgt voor gegevensconsistentie en het inschakelen van complexe historische analyses. Deze tweeledige benadering biedt realtime inzichten, terwijl u een betrouwbare record behoudt voor later onderzoek.
Koud pad: Batch-analyse
Datawarehouses, die afhankelijk zijn van relationele SQL-semantiek, zijn de conventionele benadering voor historische gegevensanalyse. Dit patroon is echter in de loop van de tijd ontwikkeld en lakehouses zijn de huidige industriestandaard voor batchgegevensanalyse. Een lakehouse is gebouwd op basis van opensource-bestandsindelingen en is, in tegenstelling tot traditionele datawarehouses, geschikt voor alle soorten gegevens: gestructureerd, semi-gestructureerd en ongestructureerd. De rekenlaag in een lakehouse is doorgaans gebouwd op basis van het Apache Spark-framework. Dit is de voorkeursengine voor het verwerken van big data vanwege de gedistribueerde computingmogelijkheden en hoge prestaties. Fabric biedt een systeemeigen lakehouse-ervaring die is gebaseerd op de open source Delta Lake-bestandsindeling en een beheerde Spark-runtime.
Een lakehouse-implementatie maakt doorgaans gebruik van de medalsight-architectuur. In deze architectuur bevat de bronslaag de onbewerkte gegevens, de zilveren laag de gevalideerde en ontdubbelde gegevens, en de gouden laag bevat zeer verfijnde gegevens die geschikt zijn voor het ondersteunen van zakelijke gebruiksvoorbeelden. Deze aanpak werkt in alle organisaties en branches. Hoewel dit de algemene benadering is, kunt u deze aanpassen aan uw vereisten. Deze architectuur laat zien hoe u een lakehouse maakt met behulp van systeemeigen Fabric-onderdelen.
Gegevensopname via Data Factory
(Zie stap 1 in het diagram.)
De Azure Data Factory-functie in Fabric biedt de mogelijkheden van de Azure Data Factory-service, een veelgebruikte service voor gegevensintegratie. Hoewel de Data Factory-service voornamelijk indelingsmogelijkheden biedt via pijplijnen, biedt de functie in Fabric zowel pijplijnen als gegevensstromen.
- Met gegevenspijplijnen kunt u out-of-the-box uitgebreide mogelijkheden voor gegevensindeling toepassen om flexibele gegevenswerkstromen op te stellen die voldoen aan de behoeften van uw bedrijf.
- Met gegevensstromen kunt u meer dan 300 transformaties gebruiken in de ontwerpfunctie voor gegevensstromen. U kunt deze transformaties gebruiken om gegevens te transformeren met behulp van een grafische interface die vergelijkbaar is met die in Power Query. Deze transformaties omvatten slimme op AI gebaseerde gegevenstransformaties. Gegevensstromen kunnen ook gegevens schrijven naar systeemeigen gegevensarchieven in Fabric, zoals lakehouse-, warehouse-, Azure SQL- en Kusto-databases.
Afhankelijk van uw vereisten kunt u een of beide van deze mogelijkheden gebruiken om een uitgebreid metagegevensgestuurd opnameframework te maken. U kunt gegevens van verschillende bronsystemen onboarden volgens een gedefinieerd schema of met behulp van gebeurtenistriggers.
Gegevenstransformaties
(Zie stap 2 in het diagram.)
Er zijn twee benaderingen voor gegevensvoorbereiding en -transformatie. Als u liever code-first gebruikt, kunt u Spark-notebooks gebruiken. Als u liever weinig code of geen code gebruikt, kunt u gegevensstromen gebruiken.
Fabric-notebooks zijn een belangrijk hulpprogramma voor het ontwikkelen van Apache Spark-taken. Ze bieden een interactief weboppervlak dat data engineers gebruiken om code te schrijven. Ze bieden ook uitgebreide visualisaties en maken het gebruik van Markdown-tekst mogelijk. Data engineers schrijven code voor gegevensopname, gegevensvoorbereiding en gegevenstransformatie. Gegevenswetenschappers gebruiken notebooks om machine learning-oplossingen te maken. Ze gebruiken ze bijvoorbeeld om experimenten en modellen te maken en modellen bij te houden en te implementeren.
Elke werkruimte in Fabric wordt geleverd met een Spark-starterspool die wordt gebruikt voor standaard Spark-taken. Met starterspools kunt u snelle initialisatie van Apache Spark-sessies verwachten, meestal binnen 5 tot 10 seconden, zonder handmatige instellingen. U krijgt ook de flexibiliteit om Apache Spark-pools aan te passen aan uw vereisten voor data engineering. U kunt de grootte van de knooppunten, automatische schaalaanpassing en dynamisch toewijzen van uitvoerders op basis van uw Spark-taakvereisten. Voor spark-runtimeaanpassingen kunt u omgevingen gebruiken. In een omgeving kunt u rekeneigenschappen configureren, verschillende runtimes selecteren en afhankelijkheden van bibliotheekpakketten instellen op basis van uw workloadvereisten.
Met gegevensstromen kunt u gegevens extraheren uit verschillende bronnen, deze transformeren met behulp van een breed scala aan bewerkingen en deze desgewenst in een bestemming laden. Traditioneel besteden data engineers veel tijd aan het extraheren, transformeren en laden van gegevens in een verbruiksbare indeling voor downstreamanalyses. Gegevensstroom Gen2 biedt een eenvoudige, herbruikbare manier om ETL-taken (extract, transform, load) uit te voeren met behulp van visuele aanwijzingen in Power Query Online. De gegevensstroom behoudt alle transformatiestappen. Als u andere taken wilt uitvoeren of gegevens na transformatie naar een andere bestemming wilt laden, maakt u een gegevenspijplijn en voegt u de Dataflow Gen2-activiteit toe aan uw pijplijnindeling.
Dynamisch pad: realtime analyse
Realtime gegevensverwerking is essentieel voor bedrijven die flexibel willen blijven, snel weloverwogen beslissingen willen nemen en profiteren van onmiddellijke inzichten om bewerkingen en klantervaringen te verbeteren. In Fabric wordt deze mogelijkheid geleverd door de Realtime Intelligence-service. Het omvat verschillende Fabric-functies die samen zijn gebundeld en toegankelijk zijn via realtime hub. Realtime-hub biedt één plaats voor het streamen van gegevens in beweging binnen uw organisatie.
Realtime intelligence in Fabric maakt analyse en gegevensvisualisatie mogelijk voor gebeurtenisgestuurde scenario's, streaminggegevens en gegevenslogboeken. Het verbindt tijdgebaseerde gegevens uit verschillende bronnen met behulp van een catalogus met connectors zonder code en biedt een end-to-end oplossing voor gegevensopname, transformatie, opslag, analyse, visualisatie, tracering, AI en realtime-acties. Hoewel de servicenaam gebruikmaakt van de woordgroep 'Realtime', hoeven uw gegevens niet te worden gestreamd met hoge tarieven en volumes. Realtime intelligence biedt gebeurtenisgestuurde oplossingen in plaats van planningsgestuurde oplossingen.
Realtime opname
(Zie stap 3 in het diagram.)
Gebeurtenisstromen is een Infrastructuurfunctie waarmee een methode zonder code kan worden gebruikt voor het opnemen van realtimegebeurtenissen uit verschillende bronnen en het verzenden ervan naar verschillende bestemmingen. Hiermee kunnen gegevens worden gefilterd, getransformeerd, samengevoegd en gerouterd op basis van inhoud. U kunt deze ook gebruiken om nieuwe streams te maken op basis van bestaande streams en deze te delen in de hele organisatie met behulp van realtime-hub. Eventstreams ondersteunen meerdere gegevensbronnen en gegevensbestemmingen. U kunt een breed scala aan connectors gebruiken voor externe bronnen, zoals Apache Kafka-clusters, database Change Data Capture-feeds, AWS-streamingbronnen (Kinesis) en Google (GCP Pub/Sub).
U maakt een eventstream, voegt gebeurtenisgegevensbronnen toe aan de stream, voegt desgewenst transformaties toe om de gebeurtenisgegevens te transformeren en routeer de gegevens vervolgens naar ondersteunde bestemmingen. Fabric Lakehouse is een van de ondersteunde bestemmingen, zodat u uw realtime gebeurtenissen kunt transformeren voordat u ze in uw lakehouse opneemt. Realtime gebeurtenissen worden geconverteerd naar Delta Lake-indeling en vervolgens opgeslagen in de aangewezen lakehouse-tabellen. Met dit patroon kunt u scenario's voor datawarehousing en historische analyse van uw snel veranderende gegevens mogelijk maken.
Realtime analyses
(Zie stap 4 in het diagram.)
Wanneer u Real-Time Intelligence in Fabric gebruikt, zijn er, afhankelijk van uw gebruiksvoorbeelden, twee typische trajecten voor streaminggegevens: Reflex-items en eventhouses.
Een reflex is een Fabric-item waarmee u kunt reageren op het optreden van een gegevensvoorwaarde zoals deze zich voordoet. Deze reactie kan een eenvoudig waarschuwingsbericht zijn via e-mail of Microsoft Teams, maar kan ook betrekking hebben op het aanroepen van een aangepaste actie door een Power Automate-stroom te activeren. U kunt ook elk Stofitem uit uw reflexen activeren. Veel waarneembaarheidsgebruiksvoorbeelden worden ondersteund door reflexen, waarvan één op streaminggegevens reageert wanneer deze binnenkomt in eventstreams.
Een eventhouse is een verzameling van een of meer KQL-databases (Kusto-querytaal). KQL-databases zijn ontworpen voor op tijd gebaseerde streaminggebeurtenissen van gestructureerde, semi-gestructureerde en ongestructureerde gegevens. Gegevens worden automatisch geïndexeerd en gepartitioneerd op basis van opnametijd, die snelle en complexe analysemogelijkheden biedt, zelfs als de gegevensstromen binnenkomen. Gegevens die zijn opgeslagen in eventhouses kunnen beschikbaar worden gesteld in OneLake voor gebruik door andere Fabric-processen. U kunt deze gegevens opvragen met behulp van verschillende code-, weinig-code- of no-code-opties in Fabric, waaronder systeemeigen KQL en T-SQL in de KQL-queryset.
Realtime dashboards zijn ontworpen om directe inzichten te bieden van gegevens die naar uw eventhouses worden gestreamd. U kunt verschillende typen visuals toevoegen aan een dashboard, zoals grafieken en grafieken, en deze aanpassen aan uw behoeften. Realtime dashboards dienen het specifieke doel om trends en afwijkingen snel te identificeren in gegevens met hoge snelheid die in een eventhouse binnenkomen. Ze verschillen van Power BI-dashboards, die geschikt zijn voor workloads voor enterprise BI-rapportage.
Gegevens die worden geleverd
(Zie stap 5 in het diagram.)
Er zijn verschillende opties met weinig code of pro-code beschikbaar voor het gebruik van gegevens uit Fabric Lakehouses en eventhouses.
SQL Analytics-eindpunt
Er wordt automatisch een SQL-analyse-eindpunt gegenereerd voor elk lakehouse in Fabric. Een SQL Analytics-eindpunt heeft het kenmerk Alleen-lezen. Als u gegevens wilt wijzigen, moet u overschakelen naar de lakehouse-modus en Spark gebruiken. U kunt het SQL Analytics-eindpunt rechtstreeks in de Fabric-portal gebruiken om gegevens op te vragen door over te schakelen van de lakehouse-modus naar de SQL-modus van het lakehouse. U kunt ook de SQL-verbindingsreeks van een lakehouse gebruiken om verbinding te maken met behulp van clienthulpprogramma's zoals Power BI, Excel en SQL Server Management Studio. Deze optie is geschikt voor gegevens- en bedrijfsanalisten in een gegevensteam.
Spark-notebooks
Notebooks zijn een populaire manier om te communiceren met lakehouse-gegevens. Fabric biedt een interactief weboppervlak dat data workers kunnen gebruiken om code te schrijven. Deze werknemers kunnen uitgebreide visualisaties en Markdown-tekst toepassen. Data engineers schrijven code voor gegevensopname, gegevensvoorbereiding en gegevenstransformatie. Gegevenswetenschappers gebruiken notebooks voor gegevensverkenning, voor het maken van machine learning-experimenten en -modellen en voor het bijhouden en implementeren van modellen. Deze optie is geschikt voor professionele data engineers en data scientists.
Power BI
Elk lakehouse in Fabric wordt geleverd met een vooraf samengesteld standaard semantisch model. Deze wordt automatisch gemaakt wanneer u een lakehouse instelt en er gegevens in laadt. Deze modellen nemen bedrijfslogica over van lakehouse, zodat u eenvoudiger Power BI-rapporten en -dashboards kunt maken vanuit de lakehouse-ervaring. U kunt ook aangepaste semantische modellen maken, op basis van specifieke zakelijke vereisten, op lakehouse-tabellen. Wanneer u Power BI-rapporten in een lakehouse maakt, kunt u de Direct Lake-modus gebruiken. Hiervoor hoeft u geen gegevens afzonderlijk te importeren. Met deze modus kunt u de prestaties van uw rapporten in het geheugen ophalen zonder uw gegevens uit het lakehouse te verplaatsen.
Aangepaste API's
Fabric biedt een uitgebreid API-oppervlak over de items. OneLake biedt open toegang tot alle Fabric-items via Azure Data Lake Storage-API's en SDK's. U hebt toegang tot uw gegevens in OneLake via elke API, SDK of elk hulpprogramma dat compatibel is met Data Lake Storage met behulp van een OneLake-URI. U kunt gegevens uploaden naar een lakehouse met behulp van Azure Storage Explorer of een deltatabel lezen via een snelkoppeling van Azure Databricks. OneLake ondersteunt ook het ABFS-stuurprogramma (Azure Blob Filesystem) voor meer compatibiliteit met Data Lake Storage en Azure Blob Storage. Als u streaminggegevens in downstream-apps wilt gebruiken, kunt u gebeurtenisstroomgegevens pushen naar een aangepast API-eindpunt. U kunt deze streaming-uitvoer van Fabric vervolgens gebruiken met behulp van Azure Event Hubs of het AMQP- of Kafka-protocol.
Power Automate
Power Automate is een toepassingsplatform met weinig code dat u kunt gebruiken om terugkerende taken te automatiseren en uw gegevens ook te manipuleren. Het reflexitem in Fabric ondersteunt Power Automate-stromen als bestemming. Deze integratie ontgrendelt veel use cases en stelt u in staat downstreamacties te activeren met behulp van een breed scala aan connectors, voor zowel Microsoft- als niet-Microsoft-systemen.
Onderdelen
De volgende onderdelen worden in deze oplossing gebruikt.
Infrastructuur: Een end-to-end cloudplatform voor gegevensanalyse dat is ontworpen voor ondernemingen. Het biedt een uniforme omgeving voor verschillende gegevenstaken, zoals gegevensopname, transformatie, analyse en visualisatie.
OneLake: de centrale hub voor al uw gegevens in Fabric. Het is ontworpen als een open data lake, wat betekent dat gegevens in de systeemeigen indeling kunnen worden opgeslagen, ongeacht de structuur.
Data Factory: een cloudgebaseerde ETL- en indelingsservice voor geautomatiseerde gegevensverplaatsing en -transformatie. Hiermee kunt u gegevensverplaatsing en transformatie op schaal automatiseren in verschillende gegevensbronnen.
Data engineering: hulpprogramma's die het verzamelen, opslaan, verwerken en analyseren van grote hoeveelheden gegevens mogelijk maken.
Datawetenschap: Hulpprogramma's waarmee u end-to-end data science-werkstromen voor gegevensverrijking kunt voltooien en zakelijke inzichten kunt verkrijgen.
Realtime intelligence: een service die mogelijkheden voor stroomopname en verwerking biedt. Hiermee kunt u inzichten verkrijgen uit voortdurend stromende gegevens om snellere besluitvorming mogelijk te maken die is gebaseerd op realtime trends en afwijkingen.
Copilot: een hulpprogramma dat u kunt gebruiken om gegevens te analyseren, inzichten te genereren en visualisaties en rapporten te maken in Fabric en Power BI met behulp van natuurlijke taal.
Power BI: een hulpprogramma voor bedrijfsinformatie voor het maken van interactieve dashboards en rapporten voor het visualiseren van gegevens en het verkrijgen van inzichten.
Alternatieven
Fabric biedt een robuuste set hulpprogramma's, maar, afhankelijk van uw specifieke behoeften, profiteert u mogelijk van verbeterde functionaliteit die wordt geboden door alternatieve services in het Azure-ecosysteem.
Azure Databricks kan de systeemeigen data engineering-mogelijkheden van Fabric vervangen of aanvullen. Azure Databricks biedt een alternatief voor grootschalige gegevensverwerking door een Apache Spark-omgeving in de cloud te bieden. Azure Databricks biedt ook algemene governance voor uw hele gegevensomgeving en -mogelijkheden om belangrijke use cases mogelijk te maken, zoals data science, data engineering, machine learning, AI en op SQL gebaseerde analyses.
Azure Machine Learning kan de systeemeigen fabric-Datawetenschap hulpprogramma's vervangen of aanvullen. Machine Learning gaat verder dan de mogelijkheden voor modelexperimentatie en -beheer in Fabric door mogelijkheden toe te voegen voor het hosten van modellen voor onlinedeductiegebruiksscenario's, het bewaken van modellen voor drift en het maken van aangepaste AI-toepassingen.
Scenariodetails
Deze architectuur is van toepassing op de volgende scenario's:
- Organisaties die nieuw starten zonder verouderde systeembeperkingen.
- Organisaties die gegevensvolumes tussen 0,5 TB en 1,5 TB verwachten.
- Organisaties die de voorkeur geven aan een eenvoudig en gestroomlijnd patroon dat rekening houdt met kosten, complexiteit en prestatieoverwegingen.
- Organisaties die behoefte hebben aan een eenvoudig, rendabel en hoogwaardig gegevensplatform dat voldoet aan rapportage-, analyse- en machine learning-vereisten.
- Organisaties die gegevens uit meerdere bronnen willen integreren voor een uniforme weergave.
Deze oplossing wordt niet aanbevolen voor:
- Teams met een SQL- of relationele databaseachtergrond met beperkte vaardigheden in Apache Spark.
- Organisaties die migreren van een verouderd systeem of datawarehouse naar een modern platform.
Overwegingen
Met deze overwegingen worden de pijlers van het Azure Well-Architected Framework geïmplementeerd. Dit is een set richtlijnen die kunnen worden gebruikt om de kwaliteit van een workload te verbeteren. Zie Microsoft Azure Well-Architected Framework voor meer informatie.
Betrouwbaarheid
Betrouwbaarheid zorgt ervoor dat uw toepassing kan voldoen aan de toezeggingen die u aan uw klanten hebt gedaan. Zie de controlelijst ontwerpbeoordeling voor betrouwbaarheid voor meer informatie.
Fabric repliceert automatisch resources in beschikbaarheidszones zonder dat er configuratie is vereist. Tijdens een storing in de hele zone hoeft u bijvoorbeeld geen actie te ondernemen om een zone te herstellen. In ondersteunde regio's kan Fabric automatisch herstellen en opnieuw verdelen om te profiteren van een gezonde zone.
Beveiliging
Beveiliging biedt garanties tegen opzettelijke aanvallen en misbruik van uw waardevolle gegevens en systemen. Zie de controlelijst ontwerpbeoordeling voor beveiliging voor meer informatie.
U kunt Fabric gebruiken om uw beveiligingsinstellingen te beheren, te beheren en te controleren op basis van uw veranderende behoeften en eisen. Belangrijke aanbevelingen voor beveiliging voor het gebruik van Fabric zijn onder andere:
Verificatie. Configureer eenmalige aanmelding (SSO) in Microsoft Entra ID om toegang te bieden vanaf verschillende apparaten en locaties.
RBAC (op rollen gebaseerd toegangsbeheer). Implementeer op werkruimte gebaseerd toegangsbeheer om te beheren wie toegang heeft tot en interactie heeft met specifieke gegevenssets.
Netwerkbeveiliging. Gebruik de binnenkomende en uitgaande infrastructuurbeveiligingsmechanismen wanneer u verbinding maakt met gegevens of services binnen of buiten uw netwerk. Belangrijke functies zijn voorwaardelijke toegang, privékoppelingen, toegang tot vertrouwde werkruimten en beheerde privé-eindpunten.
Auditlogboeken. Gebruik de gedetailleerde auditlogboeken van Fabric om gebruikersactiviteiten bij te houden en verantwoordelijkheid op het platform te garanderen.
Zie Beveiliging in Microsoft Fabric voor meer informatie.
Kostenoptimalisatie
Kostenoptimalisatie gaat over manieren om onnodige uitgaven te verminderen en operationele efficiëntie te verbeteren. Zie controlelijst ontwerpbeoordeling voor kostenoptimalisatievoor meer informatie.
Fabric biedt capaciteitsreserveringen voor een bepaald aantal capaciteitseenheden (CA's). Capaciteitsreserveringen kunnen u helpen kosten te besparen wanneer u een reservering doorvoert voor het gebruik van uw Fabric-capaciteit gedurende één jaar.
Houd rekening met de volgende aanbevelingen om het gebruik van uw Infrastructuurcapaciteit te maximaliseren:
- Rechten voor F-SKU's. Als u de juiste capaciteitsgrootte wilt bepalen, kunt u proefcapaciteiten of betalen per gebruik F-SKU's inrichten om de werkelijke capaciteitsgrootte te meten die u nodig hebt voordat u een gereserveerde F SKU-instantie koopt. We raden u aan om een scoped proof of concept uit te voeren met een representatieve workload, cu-gebruik te controleren en vervolgens extrapolatie uit te voeren om een schatting te maken van het CU-gebruik voor productie. Fabric biedt naadloze schaalaanpassing. U kunt beginnen met een conservatieve capaciteitsgrootte en omhoog schalen als u meer capaciteit nodig hebt.
- Gebruikspatronen bewaken. Houd uw gebruik regelmatig bij en analyseer deze om piek- en daluren te identificeren. Dit kan u helpen begrijpen wanneer uw resources het meest worden gebruikt, zodat u niet-kritieke taken kunt plannen tijdens daluren om pieken in cu-gebruik te voorkomen.
- Optimaliseer query's en workloads. Zorg ervoor dat uw query's en workloads zijn geoptimaliseerd om onnodig rekengebruik te verminderen. DAX-query's, Python-code en andere bewerkingen optimaliseren.
- Gebruik bursting en smoothing. Gebruik de bursting- en smoothing-functies van Fabric om CPU-intensieve activiteiten af te handelen zonder dat hiervoor een hogere SKU nodig is. Dit kan u helpen bij het beheren van kosten terwijl u nog steeds de prestaties onderhoudt. Zie Uw Fabric-capaciteit evalueren en optimaliseren voor meer informatie.
- Waarschuwingen en meldingen instellen. Configureer proactieve waarschuwingen zodat capaciteitsbeheerders hoog rekengebruik kunnen bewaken en beheren. Hierdoor kunnen ze tijdig acties ondernemen om kostenoverschrijdingen te voorkomen.
- Werkbelastingbeheer implementeren. Plan taken die in logboeken worden uitgevoerd op gefaseerde tijden op basis van resourcebeschikbaarheid en systeemvraag om het capaciteitsgebruik te optimaliseren. Zie Workloadbeheer voor meer informatie.
Houd ook rekening met deze overwegingen:
- De prijzen van Data Lake Storage zijn afhankelijk van de hoeveelheid gegevens die u opslaat en hoe vaak u de gegevens gebruikt. De voorbeeldprijzen omvatten 1 TB aan gegevens die zijn opgeslagen en andere transactionele veronderstellingen. De 1 TB verwijst naar de grootte van de data lake, niet naar de oorspronkelijke verouderde databasegrootte.
- Fabric-prijzen zijn gebaseerd op de capaciteitsprijs van Fabric F SKU of Premium Per Gebruiker. Serverloze capaciteiten verbruiken CPU en geheugen van aangeschafte toegewezen capaciteit.
- Event Hubs factureert op basis van laag, ingerichte doorvoereenheden en ontvangen inkomend verkeer. In het voorbeeld wordt ervan uitgegaan dat één doorvoereenheid in de Standard-laag gedurende een maand meer dan één miljoen gebeurtenissen bevat.
Operationele topprestaties
Operational Excellence behandelt de operationele processen die een toepassing implementeren en deze in productie houden. Zie de controlelijst ontwerpbeoordeling voor Operational Excellence voor meer informatie.
Fabric biedt veel onderdelen die u helpen bij het beheren van uw gegevensplatform. Elk van deze onderdelen biedt ondersteuning voor unieke bewerkingen die u kunt bekijken in de app Microsoft Fabric Capacity Metrics. Gebruik de app Metrische infrastructuurcapaciteit om uw capaciteitsverbruik te bewaken en weloverwogen beslissingen te nemen over het gebruik van uw capaciteitsresources.
Prestatie-efficiëntie
Prestatie-efficiëntie is de mogelijkheid van uw workload om op een efficiënte manier te voldoen aan de eisen die gebruikers eraan stellen. Zie de controlelijst ontwerpbeoordeling voor prestatie-efficiëntie voor meer informatie.
Fabric biedt verschillende functies om de prestaties van de onderdelen te optimaliseren. Deze hulpprogramma's en procedures kunnen u helpen bij het effectief beheren van rekenresources, het voorkomen van overbelasting en het nemen van weloverwogen beslissingen over het schalen en optimaliseren van workloads.
Enkele belangrijke prestatie-efficiëntiemogelijkheden in Fabric zijn:
Bursting en smoothing, om ervoor te zorgen dat CPU-intensieve activiteiten snel worden voltooid zonder dat er een hogere SKU nodig is. Plan deze activiteiten op elk moment van de dag.
Beperking, om bewerkingen te vertragen of af te wijzen wanneer de capaciteit een aanhoudende CPU-vraag ondervindt die hoger is dan de SKU-limiet.
De app Fabric Capacity Metrics om het capaciteitsgebruik te visualiseren, de prestaties van artefacten te optimaliseren en items met hoge rekenkracht te optimaliseren. De app maakt onderscheid tussen interactieve bewerkingen (zoals DAX-query's) en achtergrondbewerkingen (zoals semantische modelvernieuwingen) voor gerichte optimalisaties.
Medewerkers
Dit artikel wordt onderhouden door Microsoft. De tekst is oorspronkelijk geschreven door de volgende Inzenders.
Belangrijkste auteurs:
- Amit Chandra | Cloud Solution Architect
- Nicholas Moore | Cloud Solution Architect
Als u niet-openbare LinkedIn-profielen wilt zien, meldt u zich aan bij LinkedIn.
Volgende stappen
- Wat is OneLake?
- Wat is Data Factory?
- Wat is data engineering?
- Wat is Data Science?
- Wat is Realtime Intelligence?
- Wat is Power BI?
- Inleiding tot Copilot in Fabric