Kapasitetsplanlegging i innebygd analyse med Power BI
Det kan være komplisert å beregne hvilken type kapasitet du trenger for en innebygd analysedistribusjon for Power BI. Kapasiteten du trenger, avhenger av flere parametere, hvorav noen er vanskelige å forutsi.
Noe av det du bør vurdere når du planlegger kapasiteten, er:
- Datamodellene du bruker.
- Antallet og kompleksiteten til nødvendige spørringer.
- Distribusjonen av programbruken per time.
- Dataoppdateringsfrekvenser.
- Andre bruksmønstre som er vanskelige å forutsi.
Merk
Denne artikkelen forklarer hvordan du planlegger hvilken kapasitet du trenger og hvordan du utfører en belastningstestvurdering for A-SKU-er for innebygd analyse for Power BI.
Når du planlegger kapasiteten, gjør du følgende:
- Optimaliser ytelsen og ressursforbruket.
- Bestem minimum SKU.
- Vurder kapasitetsbelastningen.
- Konfigurer autoskalaen for kapasitet.
Optimaliser ytelsen og ressursforbruket
Før du starter en vurdering av kapasitetsplanlegging eller belastningstesting, optimaliserer du ytelsen og ressursforbruket (spesielt minneavtrykket) til rapportene og semantiske modeller.
Følg retningslinjene i følgende ressurser for å optimalisere ytelsen:
- Optimaliseringsveiledning for Power BI
- Anbefalte fremgangsmåter for raskere ytelse i innebygd analyse med Power BI
Hvis du vil ha en detaljert opplæring om optimalisering av ytelsen, kan du se Optimaliser en modell for ytelse i opplæringsmodulen for Power BI .
Bestem minimum SKU
Tabellen nedenfor oppsummerer alle begrensningene som er avhengige av kapasitetsstørrelsen. Hvis du vil finne minimum SKU for kapasiteten, merker du av for Maksimalt minne (GB) under toppteksten for semantisk modell . Husk også de gjeldende begrensningene.
Lagerføringsenhet | Kapasitetsenheter (CU) | Power BI SKU | Power BI-v-kjerner |
---|---|---|---|
F2 | 2 | Ikke tilgjengelig | Ikke tilgjengelig |
F4 | 4 | Ikke tilgjengelig | Ikke tilgjengelig |
F8 | 8 | EM1/A1 | 1 |
F16 | 16 | EM2/A2 | 2 |
F32 | 32 | EM3/A3 | 4 |
F64 | 64 | P1/A4 | 8 |
F128 | 128 | P2/A5 | 16 |
F256 | 256 | P3/A6 | 32 |
F5121 | 512 | P4/A7 | 64 |
F10241 | 1,024 | P5/A8 | 128 |
F20481 | 2,048 | Ikke tilgjengelig | Ikke tilgjengelig |
1 Disse SKU-ene er ikke tilgjengelige i alle områder. Hvis du vil be om bruk av disse SKU-ene i områder der de ikke er tilgjengelige, kontakter du Microsoft-kontoansvarlig.
Vurder kapasitetsbelastningen
Slik tester eller vurderer du kapasitetsbelastningen:
Opprett en Premium Power BI Embedded-kapasitet i Azure for testingen. Bruk et abonnement som er knyttet til den samme Microsoft Entra-leieren som Power BI-leieren og en brukerkonto som er logget på den samme leieren.
Tilordne arbeidsområdet (eller arbeidsområdene) du skal bruke til å teste til Premium-kapasiteten du opprettet. Du kan tilordne et arbeidsområde på én av følgende måter:
- Programmatisk med API-en for Groups AssignToCapacity. Kontroller tildelingsstatusen med API-en for Groups CapacityAssignmentStatus eller via et PowerShell-skript . Hvis du vil ha eksempelkode, kan du se
AssignWorkspacesToCapacity
funksjonen i eksemplet på null-nedetid-kapasitetsskala på GitHub. - Manuelt som administrator for arbeidsområdet eller via administrasjonsportalen som kapasitetsadministrator. Hvis du vil ha mer informasjon, kan du se Tilordne et arbeidsområde til en kapasitet ved hjelp av en hovedbruker.
- Programmatisk med API-en for Groups AssignToCapacity. Kontroller tildelingsstatusen med API-en for Groups CapacityAssignmentStatus eller via et PowerShell-skript . Hvis du vil ha eksempelkode, kan du se
Installer Microsoft Fabric Capacity Metrics-appen som kapasitetsadministrator. Angi kapasitets-ID og tid (i dager) for å overvåke, og oppdater deretter dataene.
Bruk verktøyet for kapasitetsbelastningsvurdering for Power BI til å vurdere kapasitetsbehovene dine. Dette GitHub-repositoriet inkluderer også en videogjennomgang. Bruk dette verktøyet nøye: Test med opptil et par dusin samtidige simulerte brukere og ekstrapolere for høyere samtidige belastninger (hundrevis eller tusenvis, avhengig av dine behov.) Hvis du vil ha mer informasjon, kan du se Vurdere kapasitetsbelastningen. Alternativt kan du bruke andre verktøy for belastningstesting, men behandle iFrame som en svart boks og simulere brukeraktivitet via JavaScript-kode.
Bruk Microsoft Fabric Capacity Metrics-appen som du installerte i trinn 3 for å overvåke kapasitetsutnyttelsen som påløper via belastningstestverktøyet. Du kan også overvåke kapasiteten ved å kontrollere Premium-måledataene ved hjelp av varsler i Azure Monitor.
Vurder å bruke en større SKU for kapasiteten hvis den faktiske CPU-en som påløp på kapasiteten ved belastningstestingen nærmer seg kapasitetsgrensen.
Konfigurere autoskala
Du kan bruke følgende autoskaleringsteknikk til å endre størrelsen på A-SKU-kapasiteten for å håndtere gjeldende minne og CPU-behov.
Bruk API-en for kapasitetsoppdatering til å skalere SKU-en for kapasiteten opp eller ned. Hvis du vil se hvordan du bruker API-en til å opprette dine egne skript for opp- og nedskalering, kan du se et eksempel på oppskalering av powershell-skriptkapasitet i runbook.
Bruk skjermvarsler til å spore følgende kapasitetsmåledata for Power BI Embedded:
- Overbelastning (1 hvis kapasitetens CPU har overgått 100 prosent og er i en overbelastet tilstand, ellers 0)
- CPU (prosentdel av CPU-utnyttelse)
- CPU per arbeidsbelastning hvis bestemte arbeidsbelastninger (for eksempel paginerte rapporter) brukes
Konfigurer skjermvarslingene slik at når disse måledataene treffer de angitte verdiene, utløses en skriptkjøring som skalerer kapasiteten opp eller ned.
Du kan for eksempel opprette en regel som aktiverer oppskaleringskapasitetskjøringsboken for å oppdatere kapasiteten til en høyere SKU hvis overbelastningen er 1, eller hvis CPU-verdien er 95 prosent. Du kan også opprette en regel som aktiverer et runbook-skript for nedskaleringskapasitet for å oppdatere kapasiteten til en lavere SKU hvis CPU-verdien faller under 45 eller 50 prosent.
Du kan også aktivere oppskalering og nedskalering av runbooks programmatisk ved behov før og etter at en semantisk modell er oppdatert. Denne fremgangsmåten sikrer at kapasiteten har nok RAM (GB) for store semantiske modeller som bruker denne kapasiteten.