Planlegging av Power BI-implementering: Valider innhold
Merk
Denne artikkelen er en del av planleggingsserien for power BI-implementering av artikler. Denne serien fokuserer hovedsakelig på Power BI-opplevelsen i Microsoft Fabric. Hvis du vil ha en innføring i serien, kan du se Planlegging av Power BI-implementering.
Denne artikkelen hjelper deg med å validere innhold som en del av administrasjonen av innholdslivssyklusen. Det er primært rettet mot:
- Center of Excellence (COE) og BI-team: Teamene som er ansvarlige for å overvåke Power BI i organisasjonen. Disse teamene inkluderer beslutningstakere som bestemmer hvordan de skal administrere livssyklusen til Power BI-innhold. Disse teamene kan også inkludere utgivelsesledere, som håndterer livssyklusen til innholdsutgivelser, og teknikere som oppretter og administrerer komponentene som trengs for å effektivt bruke og støtte livssyklusadministrasjon.
- innholdsopprettere og innholdseiere: Brukere som oppretter innhold som de vil publisere til Fabric-portalen for å dele med andre. Disse personene er ansvarlige for å administrere livssyklusen til Power BI-innholdet de oppretter.
Livssyklusbehandling består av prosessene og praksisene du bruker til å håndtere innhold fra opprettingen til eventuell pensjonering. I den andre fasen av livssyklusbehandling utvikler du innhold og administrerer endringer, som involverer viktige beslutninger om hvordan du utvikler innhold og konfigurerer arbeidsområder og versjonskontroll. I tredje fase validerer du innhold for å teste om det er klart for distribusjon.
Merk
Du går vanligvis gjennom trinn to og tre i etterfølgende utviklings- og valideringssykluser.
Validering av innhold er avgjørende for å sikre kvaliteten og troverdigheten til løsningene dine. Derfor er det viktig at du tester innholdsendringer før du distribuerer dem til produksjon.
Bildet nedenfor viser livssyklusen til Power BI-innhold, som uthever trinn tre, der du validerer innhold.
Merk
Hvis du vil ha en oversikt over behandling av innholdslivssyklus, kan du se den første artikkelen i denne serien.
Denne artikkelen fokuserer på viktige hensyn og beslutninger for validering av innhold gjennom hele livssyklusen. Hvis du vil ha mer veiledning om hvordan du validerer innhold, kan du se:
- Overføre til Power BI: Valider innhold: Denne artikkelen beskriver viktige hensyn og beslutninger for validering når du overfører til Power BI fra andre teknologier.
- løsningsplanlegging for BI: Valider innhold: Denne artikkelen beskriver hvordan du planlegger iterative utviklings- og valideringssykluser når du planlegger Power BI- eller Fabric-løsningen.
Validering av innhold innebærer å ta bestemte beslutninger eller handlinger for å sikre at innholdet utføres som forventet.
Når du validerer innhold, vurderer du ulike aspekter ved løsningen.
- Funksjonalitet: Om elementene og funksjonene som utgjør løsningen, fungerer. Et eksempel på testfunksjonalitet er om en semantisk modell kan fullføre en planlagt oppdatering.
- datanøyaktighet: Om tallene og resultatene som vises, er fullstendige og samsvarer med forretningsforventningene. Et eksempel på testing av datanøyaktighet er om en verdi i en rapport justeres til en kjent opprinnelig plan.
- Ytelse: Om spørringer gir minimal innvirkning på tilgjengelige brukerressurser eller brukerventetider. Et eksempel på testytelse er om en dataflyt oppdateres på en pålitelig måte uten å nå tidsavbrudd eller opplever lange oppdateringsvarigheter.
- Security: Om uautoriserte personer er begrenset fra å vise eller få tilgang til informasjon, eller hele løsningen. Et eksempel på testing av sikkerhet er representasjonen av en bruker eller rolle når du validerer sikkerhet på radnivå (RLS).)
- Effektivitet: Om løsningen løser det relevante forretningsproblemet eller prosessen, og støtter tilstrekkelig forretningsmål som tiltenkt. Et eksempel på testing av effektiviteten er innsamling av tilbakemeldinger fra brukere når du utfører testing av brukergodkjenning (UAT).
- Tilgjengelighet: Om løsningen oppfyller kjente tilgjengelighetsstandarder slik at den kan brukes av så mange som mulig. Et eksempel på tilgjengelighetstesting er å kontrollere at rapporten oppfyller sjekklisten for tilgjengelighet i Microsoft-rapporten.
Du validerer innhold ved å utføre ulike typer tester. De følgende avsnittene beskriver viktige hensyn for beslutninger om hvordan innholdsopprettere og innholdsforbrukere utfører testing.
Merk
Mange team bruker testmetoder som stammer fra programvareutvikling, for eksempel enhetstester, integreringstester og røyktester. Det finnes mange like gyldige tilnærminger til innholdstesting og validering. Det viktigste er at du tester innhold ved hjelp av en fremgangsmåte som passer best for dine behov og måten teamet fungerer på.
Bestem hvordan opprettere skal validere innhold
Innholdsopprettere bør validere sine egne endringer i innhold for å sikre kvaliteten og funksjonaliteten til endringene. Tester skjer vanligvis i utviklingsarbeidsområdet, som inneholder den nyeste arbeidsversjonen av en løsning. Innholdsopprettere tester sine egne endringer før innhold distribueres til et testarbeidsområde for brukervalidering.
Merk
Det er viktig at innholdsopprettere validerer sitt eget innhold før det gjøres tilgjengelig for brukere. Hvis en løsning er gitt for å teste brukere med åpenbare problemer, eroderer det tillit til løsningen. Selv når de tester, forventer brukerne å se en rimelig representasjon av det endelige produktet. I tillegg kan en funksjonell løsning gjøre det mulig for brukere å fokusere på å identifisere problemer relatert til forretningsområdet.
Det finnes to måter innholdsopprettere kan validere innhold på.
-
Manuell testing: Manuelle tester involverer noen som manuelt validerer innholdet, enten gjennom subjektiv vurdering eller ved å sammenligne med noen objektive testkriterier. Manuelle tester er enkle å utføre, men de er utsatt for menneskelige feil eller skjevheter. I tillegg, når innholdet når en bestemt skala, kan manuelle tester bli arbeidskrevende å utføre på riktig måte. Du kan utføre manuell testing på to måter.
- Uavhengig gjennomgang, som innebærer at du tester ditt eget innhold, for eksempel semantiske modeller og rapporter.
- Fagfellevurdering, som innebærer en subjektiv vurdering av innholdet for å kritisk vurdere løsningen og gi forslag til å forbedre den.
- Automatisert testing: Automatiserte tester innebærer en forhåndsforberedt test som evalueres automatisk uten menneskelig inngripen. Automatiserte tester kontrollerer vanligvis deler av løsningskoden mot bestemte benchmarks eller grunnlinjer. Automatisert testing er vanskeligere å utføre og tar tid og krefter på å konfigurere. Automatisert testing er imidlertid viktig i virksomhetsscenarioer for å sikre kvaliteten og troverdigheten til større implementeringer og forretningskritiske løsninger.
Avsnittene nedenfor beskriver ulike måter innholdsopprettere kan utføre manuell testing, automatisert testing og fagfellevurdering på.
Utføre manuell testing
Du bør utføre dine egne manuelle tester på innholdet du oppretter. Disse testene bør sikre at endringene fungerer som forventet og oppnår ønskede kvalitetsstandarder. Manuell testing innebærer vanligvis bruk og subjektiv vurdering av innholdet eller spesifikke innholdsendringer, og å beskrive og dokumentere resultatene.
Her er noen vurderinger når du tester ditt eget innhold.
- Bestem og dokumenter på forhånd testbetingelsene og suksesskriteriene.
- Vær grundig med testing og med å dokumentere testresultatene. Sørg imidlertid for at du unngår overflødig testing, slik at testpraksisen ikke reduserer utviklingen.
- Opprett et standard sett med tester for hver elementtype for å forbedre repeterbarheten.
- Dokumenttestresultater og konklusjoner.
- Test flere ganger for å sikre at testresultatene best gjenspeiler virkeligheten og ikke tilfeldig sjanse.
- Bruk testbetingelser som er representative for produksjonsmiljøet.
Avsnittene nedenfor beskriver andre viktige hensyn for manuell testing.
Test semantiske modeller manuelt
Semantiske modeller er en viktig del av en løsning i Fabric og Power BI fordi de er en oppstrømskilde for rapporter, instrumentbord og andre klientverktøy og Stoff-arbeidsbelastninger. Derfor er det viktig å validere semantiske modeller før distribusjon.
Svar på spørsmål, for eksempel følgende, for å hjelpe deg med å validere den semantiske modellen.
- Inneholder tabeller uventede manglende, dupliserte eller uriktige verdier?
- Returnerer DAX-mål de forventede resultatene uten lange spørringstider?
- Fullføres en planlagt oppdatering uten lange oppdateringstider?
- Ser du (tomme) resultater i visualobjekter, filtre eller spørringsresultater forårsaket av brudd på referanseintegritet?
- Hindrer datasikkerhet, for eksempel RLS eller sikkerhet på objektnivå (OLS), uautoriserte personer i å få tilgang til modellen eller dataene?
- Er modellobjekter (for eksempel DAX-mål eller tabellkolonner) organisert i visningsmapper?
Du kan bruke ulike verktøy og fremgangsmåter for å hjelpe deg med å validere semantiske modeller.
-
Power BI Desktop-: Med Power BI Desktop kan du validere ulike aspekter ved semantiske modeller ved hjelp av ulike funksjoner. Eksempler på Power BI Desktop-funksjoner som forenkler testing av semantiske modeller inkluderer:
- visualobjektlerret: Test modellfunksjonalitet og nøyaktighet med dra-og-slipp-visualobjekter.
- DAX-spørringsvisning: Test modellnøyaktighet og DAX-kode med DAX-spørringer som du kan lagre og bruke på nytt senere.
- spørringsdiagnose: Test oppdateringsytelsen ved å få diagnosedata om hvordan spørringer evalueres i Power Query.
-
Fabric: Funksjoner og elementer i Stoff-portalen lar deg validere aspekter av semantisk modell når den er distribuert til et arbeidsområde.
- Security: Test modellsikkerhet ved å representere sikkerhetsroller eller brukere.
- notatblokker: Test modellfunksjonalitet og nøyaktighet ved hjelp av semantisk kobling.
- Overvåkingshub: Test og overvåk dataoppdatering av semantiske modeller og andre Fabric-dataelementer.
-
tredjepartsverktøy: Tredjepartsverktøy lar deg validere andre aspekter ved semantisk modell, enten ved å gi flere detaljer eller andre funksjoner som forenkler validering. Eksempler på tredjepartsverktøy som forenkler testing av semantiske modeller inkluderer:
- DAX Studio-: Test og optimaliser ytelsen til DAX-kode ved å motta detaljerte nedbrytinger av tidsberegninger for DAX-spørringer og spørringsplaner.
- Tabellredigeringsprogram: Test og feilsøk nøyaktighet av DAX-kode ved å motta detaljerte nedbrytinger av hvordan DAX-spørringer evalueres og hvilken evalueringskontekst som er aktiv.
Tips
Du kan bruke spørringsdiagnose til å validere og optimalisere ytelsen til Power Query manuelt fra andre elementer som bruker den, for eksempel dataflyter.
I tillegg kan du bruke DAX-spørringsvisning og tredjepartsverktøy som DAX Studio til å validere og optimalisere DAX-spørringer for paginerte rapporter og målstyringer.
Test rapporter manuelt
Rapporter er en vanlig måte for brukere å samhandle med dataene dine på. Mange brukere er avhengige av rapporter for å ta avgjørelser og iverksette tiltak for å gjøre fremskritt mot forretningsmålene sine. Derfor er det viktig å validere rapportene før distribusjon.
Svar på spørsmål, for eksempel følgende, for å hjelpe deg med å validere rapportene.
- Oppfyller rapporter de dokumenterte forretningskravene?
- Brukes de riktige visualobjekttypene til å løse det riktige spørsmålet?
- Er rapportsidene klare og konsise uten overveldende farger eller for mange visualobjekter?
- Fungerer rapporten som forventet når du filtrerer til et smalt delsett med data?
- Tillater rapporten eksport til Excel, og tillater den i så fall å hente summerte data eller de underliggende dataene?
- Kan rapporten brukes til ekstrahering på tvers av rapporter eller tilpassing av visualobjekter?
Du kan bruke ulike verktøy og fremgangsmåter for å hjelpe deg med å validere rapportene.
-
Power BI Desktop-: Power BI Desktop lar deg validere ulike aspekter av rapportene ved hjelp av ulike funksjoner. Eksempler på Power BI Desktop-funksjoner som forenkler testing av rapporter inkluderer:
- visualobjektlerret: Test rapportfunksjonalitet ved hjelp av slicere, filtre og andre interaktive elementer.
- ytelsesanalyse: Test rapportytelsen ved å måle visuelle gjengivelses- og DAX-spørringstider. Du kan kopiere visuelle DAX-spørringer fra ytelsesanalysen til bruk i andre verktøy og lagre ytelsesresultater for dokumentasjon.
- spørringsgrensesimuleringer: Test rapportytelsen ved å simulere minnegrensene i kapasiteten der den skal distribueres.
-
Fabric: Funksjoner og elementer i Stoff-portalen lar deg validere aspekter av rapporten når den er distribuert til et arbeidsområde.
- Oppdater app: Test rapportfunksjonalitet og sikkerhet når du distribuerer rapporter i Power BI-apper og angir forskjellige appmålgrupper for å finne ut hvem som kan vise hvilket innhold. Når du bruker app-målgrupper, kan du forhåndsvise hvilke rapporter de har tilgang til, og teste appopplevelsen selv.
- lesevisning i arbeidsområdet eller appen: Test rapportfunksjonalitet og nøyaktighet ved å bruke den i samme miljø som en bruker.
Merk
Du kan bare utvikle og validere instrumentbord i Stoff-portalen.
Viktig
Det er viktig å teste rapportene i både Power BI Desktop og etter distribusjon i Fabric-portalen. Visuell gjengivelse kan fungere annerledes på den lokale maskinen sammenlignet med rapporter i et stoffarbeidsområde. Vær i tillegg oppmerksom på at brukeropplevelsen av å bruke en rapport fra et arbeidsområde eller en app er forskjellig fra å bruke en rapport i Power BI Desktop.
Test manuelt ved å utføre en fagfellevurdering
En annen måte å validere innhold manuelt på, er ved å utføre en nodevurdering. I en fagfellevurdering gir innholdsoppretteren løsningen eller en del av løsningen til en kollega for å evaluere. Formålet med en fagfellevurdering er å forbedre en løsning ved å bruke den kollektive opplevelsen og ekspertisen til flere innholdsopprettere. Du kan utføre fagfellevurdering både under og etter manuell og automatisert testing.
Merk
Fagfellevurdering er en standard tilnærming som brukes i mange bransjer. Denne fremgangsmåten er kjent for å forbedre kvaliteten på innhold, produkter og prosesser.
Tips
Hvis du er den eneste innholdsoppretteren for en løsning, kan du vurdere å finne en annen innholdsoppretter i et annet team for å se gjennom løsningen, og tilby å gjøre det samme for dem.
Det finnes forskjellige måter du kan foreta en fagfellevurdering på.
- Funksjonell gjennomgang: En funksjonell gjennomgang fokuserer på funksjoner, prosesser eller forretningskrav som løsningen skal oppfylle. I en funksjonell gjennomgang bruker anmelderne løsningen som om de var en sluttbruker. De dokumenterer eventuelle defekter eller problemer de finner, sammen med eventuell subjektiv kritikk for å forbedre implementeringen.
- Teknisk gjennomgang: En teknisk gjennomgang fokuserer på tekniske aspekter ved løsningen, for eksempel datamodellering, kode eller utforming. I en teknisk gjennomgang vurderer korrekturlesere hvordan bestemte funksjoner eller endringer ble implementert, og foreslår alternative tilnærminger eller fremhever potensielle feil eller risikoer for den nåværende tilnærmingen.
- Pull-forespørsel: Når du utfører kildekontroll, oppretter du en pull-forespørsel (PR) for å slå sammen endringene i den nyeste versjonen av en løsning. En teknisk eier ser gjennom de foreslåtte endringene og evaluerer kildekoden. Denne typen gjennomgang er nyttig for å sikre at koden overholder standardkonvensjoner, for eksempel formatering av DAX- eller M-kode, eller identifisering av antimønstre eller potensielt problematisk kode.
Tips
Vi anbefaler at du utfører en slags formell fagfellevurdering og godkjenning før innholdsendringer kan gå over til testing av brukergodkjenning. Det er fordi innhold av dårlig kvalitet kan skade tilliten til dataløsningene dine, selv under testing. Videre kan fagfellevurdering også gi fordeler ved samarbeid og kunnskapsdeling blant gruppemedlemmer.
Når du har fullført en fagfellevurderingssyklus, bør du dokumentere og innlemme eventuelle anbefalte endringer. Hvis det er nødvendig, bør du sende inn endringene for godkjenning på nytt før du går videre til brukertesting. Vanligvis er det bare nødvendig med flere gjentakelser av fagfellevurdering når det er mange endringer eller noen få komplekse endringer å teste.
Automatiser testing
Innholdsopprettere kan automatisere testingen slik at testene utføres automatisk før distribusjon. Automatiserte tester involverer vanligvis forhåndsforberedte testforhold som kjøres og organiseres programmatisk som svar på visse handlinger, for eksempel lagring av innhold eller sending av en pull-forespørsel (PR). Resultatene av automatiserte tester lagres automatisk for senere referanse og dokumentasjon.
Formålet med en automatisert test er å redusere tiden og innsatsen for å validere innholdsendringer, samtidig som de forbedrer konsistensen av testene og påliteligheten til resultatene. Når innhold mislykkes i en automatisert test, forhindres det vanligvis fra å bli distribuert til problemer løses av innholdsoppretteren.
Effektiv automatisert testing er en viktig del av implementeringen av DataOps. Med DataOps kan team automatisere og skalere prosesser ved å ta i bruk praksiser som forbedrer og akselererer levering av data og analyser.
Viktig
Hvis du vil automatisere testingen effektivt, bør du opprette velutformede tester. Oppretting av slike tester kan ta betydelig tid og krefter. Hvis testforholdene og forventningene er dårlig definert, kan ikke de automatiserte testene validere de riktige aspektene ved innholdet, og du får liten fordel av å automatisere disse testene.
Tips
Automatisert testing er mest fordelaktig når den integreres med løsningsdistribusjonen i bedriftsinnholdspubliseringsscenarioer. Du kan for eksempel automatisere testing ved hjelp av Azure Pipelines som en del av et valideringssamlebånd, som sikrer at innholdet er klart til å distribueres. Hvis du vil ha mer informasjon, kan du se Trinn 4: Distribuere innhold.
De følgende avsnittene beskriver viktige hensyn for å teste semantiske modeller og rapporter for Power BI automatisk.
Automatiser testing av semantiske modeller
Automatisert testing av semantiske modeller er mulig, selv om det vanligvis krever egendefinert oppsett med tredjepartsverktøy og rammeverk.
Du kan bruke ulike verktøy og fremgangsmåter for å automatisere testing av semantiske modeller.
- BPA (Best Practice Analyzer): Best Practice Analyzer lar deg angi regler som du kan bruke til å evaluere en semantisk modell. Du kan kjøre BPA ved hjelp av Tabellredigering, som identifiserer eventuelle regelbrudd i en semantisk modell. Du kan automatisere kontroller for brudd på BPA-regler ved hjelp av kommandolinjegrensesnittet (CLI) (Tabular Editor) sammen med Azure DevOps, eller som en del av en annen planlagt prosess.
- Fabric notebooks and semantic link: Notebooks in Fabric lar deg bruke semantisk kobling til programmatisk samhandle med semantiske modeller. Du kan bruke notatblokker til å kjøre rammeverk som Store forventninger (GX) for å validere data. I tillegg kan du evaluere mål og DAX-spørringer, og deretter teste resultatene mot kjente opprinnelige planer.
- Power Automate-: Power Automate- lar deg kjøre spørringer mot semantiske modeller og eksportere rapporter ved hjelp av REST-API-er for Power BI. Du kan kontrollere spørringsresultatene mot kjente opprinnelige planer, og deretter utføre nedstrømshandlinger som utløser varsler til innholdseiere.
Tips
Vurder å kombinere automatisert testing og orkestrering av semantiske modeller. Du kan for eksempel utføre automatiserte tester på en datakilde og semantisk modell før en oppdatering ved hjelp av notatblokker eller Power Automate. Hvis testene mislykkes, kan du forhindre oppdatering, som også kan forhindre oppdateringsfeil eller feil data fra å komme inn i forretningsrapporter.
Automatiser testing av rapporter
Det finnes begrensede alternativer for å automatisere testing av rapporter. Disse alternativene er avhengige av eksterne verktøy eller fellesskapsløsninger for å validere visualobjekter eller rapportegenskaper automatisk, for eksempel validering av rapportmetadata eller simulere brukersamhandlinger med rapporter.
Du kan bruke ulike verktøy og fremgangsmåter for å automatisere testing av rapporter.
- Analyser for anbefalte fremgangsmåter for rapporter: Det finnes ulike tredjepartsverktøy som støtter funksjonalitet som analyserer anbefalte fremgangsmåter for å automatisere gjenkjenning av problemer i rapporter ved å undersøke rapportdefinisjonen. To verktøy som støtter denne funksjonaliteten, er PBI Explorer og PBI Inspector.
- Power Automate Desktop: Automatiseringsverktøy for brukergrensesnitt, for eksempel Selenium for Python eller Power Automate Desktop lar deg simulere brukermusinteraksjoner med rapporter. Ved å definere en brukerflyt kan du teste navigasjon og samhandlinger. Disse testene består når de kan fullføre flyten og mislykkes når de oppdager bestemte ord eller bilder på skjermen (for eksempel en feilmelding eller et tomt visualobjekt).
Bestem hvordan brukere skal validere innhold
Når innholdet består manuell testing, automatisert testing og fagfellevurdering, kan det gå videre til brukertesting. Når brukere tester innhold, gir de subjektive tilbakemeldinger om hvorvidt innholdet oppfyller forretningskravene og oppfyller forventningene deres, inkludert å returnere nøyaktige resultater.
Brukervalidering skjer vanligvis i et testarbeidsområde. Når du konfigurerer et testarbeidsområde, må du ta hensyn til følgende vurderinger.
- Opprette en testapp: Hvis du har tenkt å distribuere innhold ved hjelp av en Power BI-app, konfigurerer du en testapp for testbrukere for å validere innhold. Testappen skal være identisk med appen du skal konfigurere i produksjon. Vurder å inkludere koblinger til dokumentasjon, opplæring og tilbakemeldingsskjemaer i navigasjonen i testappen.
- Klargjør tilgang: Identifiser et delsett av brukere fra fellesskapet som skal validere løsningen. Kontakt disse brukerne, og lag en avtale om når og hvorfor de skal validere innholdet. Deretter må du sørge for at du gir dem tilgang til innholdet, og legge dem til i de aktuelle sikkerhetsrollene. Del koblinger til innholdet eller testappen med brukerne, slik at de kan komme i gang med testingen.
- Konfigurere planlagt oppdatering: Brukervalidering strekker seg vanligvis over en lengre periode. Det er verdt å konfigurere en planlagt oppdatering av dataelementer i testarbeidsområdet, slik at brukerne tester med de nyeste dataene.
Viktig
Når du distribuerer innhold til et testarbeidsområde, må du oppdatere appen manuelt før endringer i rapporter og instrumentbord er synlige for brukere.
Merk
Du kan ikke distribuere eller kopiere apper fra ett arbeidsområde til et annet. Eventuelle endringer i en app må gjøres manuelt i konfigurasjonen for arbeidsområdet.
Før du starter brukervalidering, bør du utføre de nødvendige forberedelsene.
- Planlegg når brukervalidering skal skje.
- Angi om brukervalidering er begrenset til en bestemt periode eller en del av en gjentakelsesprosess.
- Opprett en metode for å samle inn tilbakemeldinger, for eksempel ved hjelp av Microsoft Forms.
- Kommuniser til brukere som er involvert i valideringen av planleggingen og forventningene.
- Organiser en kick-off for brukervalidering for å veilede brukere og administrere forventninger.
- Gjennomføre opplæring for brukere for å demonstrere validerings- og tilbakemeldingsprosessen.
Her er noen forskjellige måter å forenkle brukervalidering av innhold på.
- observatoriumtesting: Observatoriumtester er korte økter der innholdsopprettere ser én eller flere brukere bruke innholdet uten veiledning eller instruksjoner. I disse øktene bruker innholdsopprettere sine observasjoner til å identifisere potensielle feil, problemer eller forbedringer i løsningen. Disse testene kan være verdifulle fordi de krever lite tid og krefter på å organisere, og kan begrenses til bestemte funksjoner eller deler av en løsning. Observatoriumtester er mest fordelaktige for å få tidlig tilbakemelding om en utforming eller tilnærming, for eksempel med et konseptbevis (POC).
- Fokusgruppetesting: Fokusgruppetester er begrensede økter organisert med en liten gruppe brukere som går gjennom innholdet sammen. Disse fokusgruppene er kuratert for å velge viktige interessenter og fageksperter som kan gi den beste tilbakemeldingen om bestemte funksjoner eller funksjoner. Fokusgruppetester kan forekomme over flere interaktive økter. Fokusgruppetesting krever mer tid og krefter enn observatoriumtesting, men kan gi mer detaljert tilbakemelding om en løsning.
- Testing av brukergodkjenning: UAT(User Acceptance Testing) er en formell prosess der en større gruppe personer fra brukerfellesskapet validerer og gir asynkron tilbakemelding om en løsning. UAT krever mest tid og krefter for å organisere, men det er den mest grundige måten å gjennomføre brukertesting på. Når testbrukere godtar løsningen og tilbakemeldingsproblemene er løst, kan innholdet distribueres til produksjonsarbeidsområdet.
Når du bestemmer deg for hvordan du validerer innhold, kan du planlegge hvordan du distribuerer det til og mellom arbeidsområder.
Sjekkliste – Når du planlegger hvordan du validerer innhold, omfatter viktige beslutninger og handlinger:
- utformings- og dokumenttestbetingelser: Beskriv testene du utfører, hva de tester og hvordan du skal utføre dem.
- Bestem deg for en prosess for nodegjennomgang: Beskriv hvem andre som validerer innholdet bortsett fra deg selv.
- Bestem deg for en tilnærming til manuell testing: Bestem hvilke verktøy og funksjoner du vil bruke til å validere innholdet du oppretter.
- Bestem om du vil bruke automatisert testing: Identifiser om omfanget og omfanget av innholdet rettferdiggjør at du konfigurerer automatiserte tester. I så fall må du sørge for at du planlegger nødvendig tid og ressurser for å utforme og implementere disse testene, slik at de validerer det du forventer.
- Distribuer innhold fra utviklingsarbeidsområdet til testarbeidsområdet: Distribuer endringer fra utviklingsarbeidsområdet til testarbeidsområdet, slik at endringene er synlige for brukerne. Sørg for at du har utført de nødvendige aktivitetene etter distribusjon i testarbeidsområdet, for eksempel konfigurasjon og oppdatering av en testapp.
- Bestem deg for en tilnærming tilfor brukertesting: Bestem hvordan brukere skal validere innhold.
- Identifiser testbrukere: Identifiser hvem som er i brukerfelleskapet, og valider innholdet. Kom til enighet med disse personene om omfanget av deres engasjement og forventninger.
- Samle inn tilbakemeldinger: Konfigurere verktøy og prosesser for automatisk å samle inn tilbakemeldinger. Du kan for eksempel bruke Oppgaver og Planner i Microsoft Teams eller Microsoft Forms.
- : Dokumenter resultatene av all innholdsvalidering, og eventuelle endringer som er gjort som et resultat av testresultatene. Kontroller at denne dokumentasjonen er enkel å finne.
- Planlegge distribusjonen til produksjon: Når brukertestingen er avsluttet, klargjør du distribusjon av innhold fra testarbeidsområdet til produksjonsarbeidsområdet.
Relatert innhold
I den neste artikkelen i denne serien kan du lære hvordan du distribuerer innhold som en del av administrasjonen av innholdslivssyklusen.