Del via


Microsoft Fabric-terminologi

Få mere at vide om definitioner af begreber, der bruges i Microsoft Fabric, herunder begreber, der er specifikke for Fabric Data Warehouse, Fabric Data Engineering, Fabric Data Science, Real-Time Intelligence, Data Factory og Power BI.

Generelle ord

  • Kapacitet: Kapacitet er et dedikeret sæt ressourcer, der er tilgængelige på et givet tidspunkt, og som skal bruges. Kapacitet definerer en ressources mulighed for at udføre en aktivitet eller producere output. Forskellige elementer bruger forskellig kapacitet på et bestemt tidspunkt. Fabric tilbyder kapacitet via Fabric SKU og Trials. Du kan få flere oplysninger under Hvad er kapacitet?

  • oplevelse: En samling af funktioner, der er målrettet til en bestemt funktionalitet. Fabric-oplevelserne omfatter Fabric Data Warehouse, Fabric Data Engineering, Fabric Data Science, Real-Time Intelligence, Data Factory og Power BI.

  • element: Et element et sæt funktioner i en oplevelse. Brugerne kan oprette, redigere og slette dem. Hver elementtype indeholder forskellige funktioner. Data Engineering-oplevelsen omfatter f.eks. lakehouse-, notesbog- og Spark-jobdefinitionselementer.

  • lejer: En lejer er en enkelt forekomst af Fabric for en organisation og er justeret med et Microsoft Entra-id.

  • arbejdsområde: Et arbejdsområde er en samling elementer, der samler forskellige funktioner i et enkelt miljø, der er udviklet til samarbejde. Den fungerer som en objektbeholder, der bruger kapacitet til det arbejde, der udføres, og indeholder kontrolelementer til, hvem der har adgang til elementerne i den. I et arbejdsområde opretter brugerne f.eks. rapporter, notesbøger, semantiske modeller osv. Du kan få flere oplysninger i artiklen Arbejdsområder.

Fabric Data Engineering

  • Lakehouse: En lakehouse er en samling filer, mapper og tabeller, der repræsenterer en database over en datasø, der bruges af Apache Spark-programmet og SQL-programmet til big data-behandling. Et lakehouse indeholder forbedrede funktioner til ACID-transaktioner, når du bruger Delta-formaterede tabeller med åben kildekode. Lakehouse-elementet hostes i en entydig arbejdsområdemappe i Microsoft OneLake. Den indeholder filer i forskellige formater (struktureret og ustruktureret), der er organiseret i mapper og undermapper. Du kan få flere oplysninger under Hvad er et lakehouse?

  • notesbog: En Fabric-notesbog er et interaktivt programmeringsværktøj til flere sprog med omfattende funktioner. Hvilket omfatter oprettelse af kode og markdown, kørsel og overvågning af et Spark-job, visning og visualisering af resultatet og samarbejde med teamet. Det hjælper datateknikere og dataforskere med at udforske og behandle data og bygge eksperimenter med maskinel indlæring med både kode- og lavkodeoplevelse. Det kan nemt transformeres til en pipelineaktivitet til orkestrering.

  • Spark-program: Et Apache Spark-program er et program, der er skrevet af en bruger ved hjælp af et af Sparks API-sprog (Scala, Python, Spark SQL eller Java) eller Microsoft-tilføjede sprog (.NET med C# eller F#). Når et program kører, er det opdelt i et eller flere Spark-job, der kører parallelt for at behandle dataene hurtigere. Du kan få flere oplysninger under overvågning af Spark-program.

  • Apache Spark-job: Et Spark-job er en del af et Spark-program, der køres parallelt med andre job i programmet. Et job består af flere opgaver. Du kan få flere oplysninger under overvågning af Spark-job.

  • Apache Spark-jobdefinition: En Spark-jobdefinition er et sæt parametre, der er angivet af brugeren, og som angiver, hvordan et Spark-program skal køres. Det giver dig mulighed for at sende batch- eller streamingjob til Spark-klyngen. Du kan få flere oplysninger under Hvad er en Apache Spark-jobdefinition?

  • V-order: En skriveoptimering til parquetfilformatet, der muliggør hurtig læsning og giver omkostningseffektivitet og bedre ydeevne. Alle Fabric-programmer skriver som standard v-sorterede parketfiler.

Data Factory

  • Connector: Data Factory tilbyder et omfattende sæt connectors, der giver dig mulighed for at oprette forbindelse til forskellige typer datalagre. Når du har oprettet forbindelse, kan du transformere dataene. Du kan få flere oplysninger under connectors.

  • Datapipeline: I Data Factory bruges en datapipeline til orkestrering af dataflytning og -transformation. Disse pipelines er forskellige fra udrulningspipelines i Fabric. Du kan få flere oplysninger under Pipelines i oversigten over datafabrikker.

  • Dataflow Gen2: Dataflow giver en grænseflade med lav kode til hentning af data fra hundredvis af datakilder og transformering af dine data. Dataflow i Fabric kaldes Dataflow Gen2. Dataflow Gen1 findes i Power BI. Dataflow Gen2 tilbyder ekstra funktioner sammenlignet med dataflow i Azure Data Factory eller Power BI. Du kan ikke opgradere fra Gen1 til Gen2. Du kan få flere oplysninger under dataflow i oversigten over datafabrikker.

  • udløser: En automatiseringsfunktionalitet i Data Factory, der starter pipelines baseret på specifikke betingelser, f.eks. tidsplaner eller datatilgængelighed.

Fabric Data Science

  • Data Wrangler: Data Wrangler er et notesbogbaseret værktøj, der giver brugerne en fordybende oplevelse til at udføre udforskende dataanalyser. Funktionen kombinerer en gitterlignende datavisning med dynamisk oversigtsstatistik og et sæt almindelige datarensningshandlinger, der alle er tilgængelige med nogle få valgte ikoner. Hver handling genererer kode, der kan gemmes tilbage i notesbogen som et script, der kan genbruges.

  • Eksperiment: Et maskinel indlæringseksperiment er den primære enhed for organisation og kontrol for alle relaterede machine learning-kørsler. Du kan få flere oplysninger under Eksperimenter med maskinel indlæring i Microsoft Fabric.

  • model: En model til maskinel indlæring er en fil, der er oplært til at genkende visse typer mønstre. Du oplærer en model over et sæt data, og du giver den en algoritme, som den bruger til at begrunde og lære af dette datasæt. Du kan få flere oplysninger under Model til maskinel indlæring.

  • kørsel: En kørsel svarer til en enkelt udførelse af modelkoden. I MLflow-er sporing baseret på eksperimenter og kørsler.

Fabric Data Warehouse

  • SQL Analytics-slutpunkt: Hver Lakehouse har et SQL-analyseslutpunkt, der gør det muligt for en bruger at forespørge deltatabeldata med TSQL via TDS. Du kan finde flere oplysninger under SQL Analytics-slutpunkt.

  • Fabric Data Warehouse: Fabric Data Warehouse fungerer som et traditionelt data warehouse og understøtter alle de T-SQL-transaktionsfunktioner, du ville forvente fra et virksomhedsdata warehouse. Du kan få flere oplysninger under Fabric Data Warehouse.

Real-Time Intelligence

  • Activator: Activator er et værktøj uden kode, der giver dig mulighed for at oprette beskeder, udløsere og handlinger på dine data. Activator bruges til at oprette beskeder på dine datastrømme. Du kan få flere oplysninger under Activator.

  • Eventhouse: Eventhouses leverer en løsning til håndtering og analyse af store mængder data, især i scenarier, der kræver analyse og udforskning i realtid. De er designet til at håndtere datastrømme i realtid effektivt, hvilket gør det muligt for organisationer at indtage, behandle og analysere data i næsten realtid. Et enkelt arbejdsområde kan indeholde flere Eventhouses, et eventhouse kan indeholde flere KQL-databaser, og hver database kan indeholde flere tabeller. Du kan få flere oplysninger under oversigt over Eventhouse.

  • Eventstream: Funktionen Microsoft Fabric eventstreams giver et centralt sted på Fabric-platformen til at registrere, transformere og dirigere begivenheder i realtid til destinationer uden kode. En hændelsesstream består af forskellige streamingdatakilder, indtagelsesdestinationer og en hændelsesprocessor, når transformationen er nødvendig. Du kan få flere oplysninger under Microsoft Fabric-eventstreams.

  • KQL-database: KQL-databasen indeholder data i et format, som du kan udføre KQL-forespørgsler mod. KQL-databaser er elementer under et Eventhouse. Du kan få flere oplysninger i KQL-database.

  • KQL-forespørgselssæt: KQL-forespørgselssættet er det element, der bruges til at køre forespørgsler, få vist resultater og manipulere forespørgselsresultater på data fra din Data Explorer-database. Forespørgselssættet indeholder databaserne og tabellerne, forespørgslerne og resultaterne. Med KQL-forespørgselssættet kan du gemme forespørgsler til fremtidig brug eller eksportere og dele forespørgsler med andre. Du kan få flere oplysninger under Forespørgselsdata i KQL-forespørgselssæt

Real-Time hub

  • Real-Time hub: Real-Time hub er det eneste sted for alle data i bevægelse på tværs af hele organisationen. Alle Microsoft Fabric-lejere klargøres automatisk med hubben. Du kan få flere oplysninger under oversigt over Real-Time hub.

OneLake

  • genvej: Genveje er integrerede referencer i OneLake, der peger på andre fillagerplaceringer. De gør det muligt at oprette forbindelse til eksisterende data uden at skulle kopiere dem direkte. Du kan få flere oplysninger under OneLake-genveje.