Del via


Planlægning af Power BI-implementering: Valider indhold

Bemærk

Denne artikel er en del af power BI-implementeringsplanlægningsserierne. I denne serie fokuseres der primært på Power BI-oplevelsen i Microsoft Fabric. Du kan få en introduktion til serien under Planlægning af implementering af Power BI.

Denne artikel hjælper dig med at validere indhold som en del af administrationen af indholdslivscyklussen. Det er primært rettet mod:

  • COE(Center of Excellence) og BI-teams: De teams, der er ansvarlige for at holde tilsyn med Power BI i organisationen. Disse teams omfatter beslutningstagere, der bestemmer, hvordan de skal administrere livscyklussen for Power BI-indhold. Disse teams kan også omfatte udgivelseschefer, der håndterer livscyklussen for indholdsudgivelser, og teknikere, der opretter og administrerer de komponenter, der er nødvendige for effektivt at bruge og understøtte livscyklusstyring.
  • Indholdsoprettere og indholdsejere: Brugere, der opretter indhold, som de vil publicere på Fabric-portalen for at dele med andre. Disse personer er ansvarlige for at administrere livscyklussen for det Power BI-indhold, de opretter.

Livscyklusstyring består af de processer og fremgangsmåder, du bruger til at håndtere indhold fra oprettelsen til dens ophør. I anden fase af livscyklusstyringen udvikler du indhold og administrerer ændringer, hvilket omfatter vigtige beslutninger om, hvordan du udvikler indhold og konfigurerer arbejdsområder og versionsstyring. I tredje fase validerer du indhold for at teste, om det er klar til udrulning.

Bemærk

Du gentager typisk gennem fase to og tre i efterfølgende udviklings- og valideringscyklusser.

Validering af indhold er afgørende for at sikre kvaliteten og troværdigheden af dine løsninger. Derfor er det vigtigt, at du tester indholdsændringer, før du udruller dem til produktion.

På følgende billede vises livscyklussen for Power BI-indhold med fremhævningsfase tre, hvor du validerer indhold.

Diagram, der viser Power BI-indholdslivscyklussen. Fase 3, som handler om indholdsvalidering, fremhæves.

Bemærk

Du kan finde en oversigt over administration af indholdslivscyklus i den første artikel i denne serie.

I denne artikel fokuseres der på vigtige overvejelser og beslutninger om validering af indhold i hele dens livscyklus. Du kan finde flere oplysninger om, hvordan du validerer indhold, under:

Validering af indhold omfatter at træffe specifikke beslutninger eller handlinger for at sikre, at indholdet fungerer som forventet.

Når du validerer indhold, vurderer du forskellige aspekter af løsningen.

  • Funktionalitet: Om de elementer og funktioner, der udgør løsningen, er funktionelle. Et eksempel på testfunktionalitet er, om en semantisk model kan fuldføre en planlagt opdatering.
  • Datanøjagtighed: Om de viste tal og resultater er fuldstændige og svarer til virksomhedens forventninger. Et eksempel på test af datanøjagtighed er, om en værdi i en rapport er i overensstemmelse med en kendt oprindelig plan.
  • Ydeevne: Om forespørgsler har minimal indvirkning på tilgængelige brugerressourcer eller brugerventetider. Et eksempel på test af ydeevnen er, om et dataflow opdateres pålideligt uden at nå timeout eller har lange opdateringsvarigheder.
  • Security: Om uautoriserede personer er begrænset til at få vist eller få adgang til oplysninger eller hele løsningen. Et eksempel på test af sikkerhed er repræsentationen af en bruger eller rolle, når sikkerhed på rækkeniveau valideres.
  • Effektivitet: Om løsningen løser det relevante forretningsproblem eller den relevante proces og i tilstrækkelig grad understøtter forretningsmålene efter hensigten. Et eksempel på testeffektivitet er indsamling af brugerfeedback, når du udfører test af brugeraccept (UAT).
  • tilgængelighed: Om løsningen opfylder kendte standarder for tilgængelighed, så den kan bruges af så mange personer som muligt. Et eksempel på tilgængelighedstest er at kontrollere, at din rapport opfylder tjeklisten til tilgængelighed af Microsoft-rapporter.

Du validerer indhold ved at udføre forskellige typer test. I følgende afsnit beskrives vigtige overvejelser i forbindelse med beslutninger om, hvordan indholdsoprettere og indholdsforbrugere udfører test.

Bemærk

Mange teams bruger testmetoder, der stammer fra softwareudvikling, f.eks. enhedstests, integrationstest og røgtest. Der er mange lige så gyldige tilgange til indholdstest og validering. Det vigtigste er, at du tester indhold ved hjælp af en tilgang, der passer bedst til dine behov og den måde, dit team fungerer på.

Beslut, hvordan oprettere skal validere indhold

Indholdsforfattere skal validere deres egne ændringer af indhold for at sikre kvaliteten og funktionaliteten af ændringerne. Der udføres typisk test i udviklingsarbejdsområdet, som indeholder den nyeste arbejdsversion af en løsning. Indholdsforfattere tester deres egne ændringer, før indhold installeres i et testarbejdsområde til brugervalidering.

Bemærk

Det er vigtigt, at indholdsforfattere validerer deres eget indhold, før det gøres tilgængeligt for brugerne. Hvis der leveres en løsning til at teste brugere med åbenlyse problemer, udhuler den tilliden til løsningen. Selv når brugerne tester, forventer de at se en rimelig repræsentation af det endelige produkt. Derudover giver en funktionel løsning brugerne mulighed for at fokusere på at identificere problemer, der er relateret til deres forretningsområde.

Indholdsoprettere kan validere indhold på to måder.

  • manuel test: Manuelle test involverer en person, der manuelt validerer indholdet, enten via subjektiv vurdering eller ved at sammenligne med nogle objektive testkriterier. Manuelle test er nemme at udføre, men de er underlagt menneskelige fejl eller fordomme. Når indholdet når en bestemt skala, kan manuelle test desuden blive besværlige at udføre korrekt. Du kan udføre manuel test på to måder.
    • Uafhængig gennemgang, som involverer test af dit eget indhold, f.eks. semantiske modeller og rapporter.
    • Peer review, som omfatter en subjektiv vurdering af indholdet for kritisk at vurdere løsningen og komme med forslag til at forbedre den.
  • Automatiseret test: Automatiserede test omfatter en forudberedt test, der evalueres automatisk uden menneskelig indgriben. Automatiserede test kontrollerer typisk dele af løsningskoden i forhold til specifikke benchmarks eller baselines. Automatiseret test er sværere at udføre og tager tid og kræfter at konfigurere. Automatiseret test er dog afgørende i virksomhedsscenarier for at sikre kvaliteten og troværdigheden af større implementeringer og forretningskritiske løsninger.

I følgende afsnit beskrives de forskellige måder, som indholdsoprettere kan udføre manuel test, automatiseret test og peer review på.

Udfør manuel test

Du bør udføre dine egne manuelle test af det indhold, du opretter. Disse test skal sikre, at dine ændringer fungerer som forventet og opnår de ønskede kvalitetsstandarder. Manuel test omfatter typisk brug og subjektiv vurdering af indholdet eller specifikke indholdsændringer samt beskrivelse og dokumentation af resultaterne.

Her er nogle overvejelser, når du tester dit eget indhold.

  • Beslut og dokumenter testbetingelserne og succeskriterierne på forhånd.
  • Vær grundig med test og med at dokumentere testresultaterne. Sørg dog for, at du undgår overflødig test, så dine testpraksis ikke sinker udviklingen.
  • Opret et standardsæt af test for hver elementtype for at forbedre repeterbarheden.
  • Dokumenter testresultater og konklusioner.
  • Test flere gange for at sikre, at dine testresultater bedst afspejler virkeligheden og ikke tilfældige chancer.
  • Brug testbetingelser, der er repræsentative for dit produktionsmiljø.

I følgende afsnit beskrives andre vigtige overvejelser i forbindelse med manuel test.

Test semantiske modeller manuelt

Semantiske modeller er en vigtig del af en løsning i Fabric og Power BI, fordi de er en upstream-kilde til rapporter, dashboards og andre klientværktøjer og Fabric-arbejdsbelastninger. Det er derfor vigtigt at validere dine semantiske modeller før udrulningen.

Besvar spørgsmål som følgende for at hjælpe dig med at validere din semantiske model.

  • Indeholder tabeller uventede manglende, dublerede eller forkerte værdier?
  • Returnerer DAX-målinger de forventede resultater uden lange forespørgselstider?
  • Fuldføres en planlagt opdatering uden lange opdateringstider?
  • Kan du se (Blank) resultater i visualiseringer, filtre eller forespørgselsresultater, der skyldes overtrædelser af referentiel integritet?
  • Forhindrer datasikkerhed, f.eks. sikkerhed på objektniveau eller sikkerhed på objektniveau, i tilstrækkelig grad uautoriserede personer i at få adgang til modellen eller dens data?
  • Er modelobjekter (f.eks. DAX-målinger eller tabelkolonner) organiseret i visningsmapper?

Du kan bruge forskellige værktøjer og metoder til at hjælpe dig med at validere dine semantiske modeller.

  • Power BI Desktop-: Med Power BI Desktop kan du validere forskellige aspekter af dine semantiske modeller ved hjælp af forskellige funktioner. Eksempler på funktioner i Power BI Desktop, der faciliterer test af semantiske modeller, omfatter:
    • visuallærred: Test modelfunktionalitet og nøjagtighed med træk og slip-visualiseringer.
    • DAX-forespørgselsvisning: Test modelnøjagtighed og DAX-kode med DAX-forespørgsler, som du kan gemme og genbruge senere.
    • diagnosticering af forespørgsler: Test ydeevnen af opdatering ved at hente diagnosticeringsoplysninger om, hvordan forespørgsler evalueres i Power Query.
  • Fabric: Funktioner og elementer på Fabric-portalen giver dig mulighed for at validere aspekter af din semantiske model, når den er udrullet i et arbejdsområde.
  • tredjepartsværktøjer: Tredjepartsværktøjer giver dig mulighed for at validere andre aspekter af din semantiske model ved enten at angive flere detaljer eller andre funktioner, der facilitere validering. Eksempler på tredjepartsværktøjer, der faciliterer test af semantiske modeller, omfatter:
    • DAX Studio: Test og optimer ydeevnen af DAX-kode ved at modtage detaljerede opdelinger af TIDsindstillinger for DAX-forespørgsler og forespørgselsplaner.
    • Tabular Editor: Test og foretag fejlfinding af nøjagtigheden af DAX-koden ved at modtage detaljerede opdelinger af, hvordan DAX-forespørgsler evalueres, og hvilken evalueringskontekst der er aktiv.

Tip

Du kan bruge forespørgselsdiagnosticering til manuelt at validere og optimere ydeevnen af Power Query fra andre elementer, der bruger den, f.eks. dataflow.

Derudover kan du bruge DAX-forespørgselsvisningen og tredjepartsværktøjer som DAX Studio til at validere og optimere DAX-forespørgsler til sideinddelte rapporter og scorecards.

Test rapporter manuelt

Rapporter er en almindelig måde for brugerne at interagere med dine data på. Mange brugere er afhængige af rapporter for at træffe beslutninger og udføre handlinger for at opnå fremskridt i forhold til deres forretningsmål. Det er derfor vigtigt at validere dine rapporter før udrulningen.

Besvar spørgsmål som følgende for at hjælpe dig med at validere dine rapporter.

  • Opfylder rapporter de dokumenterede forretningsmæssige krav?
  • Bruges de rette visualiseringstyper til at håndtere det rigtige spørgsmål?
  • Er rapportsider tydelige og præcise uden overvældende farver eller for mange visualiseringer?
  • Fungerer rapporten som forventet, når der filtreres efter et smalt undersæt af data?
  • Tillader rapporten eksport til Excel, og tillader den i bekræftende fald hentning af opsummerede data eller de underliggende data?
  • Kan rapporten bruges til detaljeadgang på tværs af rapporter eller tilpasning af visualiseringer?

Du kan bruge forskellige værktøjer og metoder til at hjælpe dig med at validere dine rapporter.

  • Power BI Desktop-: Med Power BI Desktop kan du validere forskellige aspekter af dine rapporter ved hjælp af forskellige funktioner. Eksempler på funktioner i Power BI Desktop, der faciliterer testrapporter, omfatter:
  • Fabric: Funktioner og elementer på Fabric-portalen giver dig mulighed for at validere aspekter af din rapport, når den er udrullet i et arbejdsområde.
    • Opdater app: Test rapportfunktionalitet og sikkerhed, når du distribuerer rapporter i Power BI-apps, og angiv forskellige appmålgrupper for at bestemme, hvem der kan få vist hvilket indhold. Når du bruger appmålgrupper, kan du selv få forhåndsvist, hvilke rapporter de har adgang til, og teste appoplevelsen.
    • Læsevisning i arbejdsområdet eller appen: Test rapportens funktionalitet og nøjagtighed ved at bruge den i det samme miljø som en bruger.

Bemærk

Du kan kun udvikle og validere dashboards på Fabric-portalen.

Vigtigt

Det er vigtigt at teste dine rapporter i både Power BI Desktop og efter udrulning på Fabric-portalen. Gengivelse af visualiseringer kan fungere anderledes på din lokale computer sammenlignet med rapporter i et Fabric-arbejdsområde. Vær desuden opmærksom på, at brugeroplevelsen ved at bruge en rapport fra et arbejdsområde eller en app adskiller sig væsentligt fra brugen af en rapport i Power BI Desktop.

Test manuelt ved at udføre en peer review

En anden måde at validere indhold manuelt på er ved at udføre en peer review. I en peer review leverer indholdsforfatteren løsningen eller en del af løsningen til en kollega, der skal evalueres. Formålet med en peer review er at forbedre en løsning ved hjælp af den kollektive erfaring og ekspertise hos flere indholdsoprettere. Du kan udføre peer review både under og efter manuel og automatiseret test.

Bemærk

Peer review er en standardtilgang, der bruges i mange brancher. Denne fremgangsmåde er almindeligt kendt for at forbedre kvaliteten af indhold, produkter og processer.

Tip

Hvis du er den eneste indholdsopretter for en løsning, kan du overveje at finde en anden indholdsforfatter på et andet team for at gennemse din løsning og tilbyde at gøre det samme for dem.

Du kan udføre en peer review på forskellige måder.

  • Funktionel gennemgang: En funktionel gennemgang fokuserer på funktioner, processer eller forretningsmæssige krav, som løsningen skal opfylde. I en funktionel gennemgang bruger korrekturlæserne løsningen, som om de var slutbruger. De dokumenterer eventuelle defekter eller problemer, de finder, sammen med enhver subjektiv kritik for at forbedre implementeringen.
  • Teknisk gennemgang: En teknisk gennemgang fokuserer på tekniske aspekter af løsningen, f.eks. datamodellering, kode eller design. I en teknisk gennemgang vurderer korrekturlæsere, hvordan visse funktioner eller ændringer blev implementeret, og foreslår alternative metoder eller fremhæver potentielle fejl eller risici i forbindelse med den aktuelle tilgang.
  • Pull-anmodning: Når du udfører versionsstyring, opretter du en pullanmodning pullanmodning for at flette dine ændringer til den nyeste version af en løsning. En teknisk ejer gennemgår de foreslåede ændringer og evaluerer kildekoden. Denne type gennemgang er nyttig til at sikre, at koden overholder standardkonventionerne, f.eks. formatering af DAX- eller M-kode eller identificering af antimønstre eller potentielt problematisk kode.

Tip

Vi anbefaler, at du udfører en form for formel peer review og godkendelse, før indholdsændringer kan flyttes til test af brugeraccept. Det skyldes, at indhold af dårlig kvalitet kan skade tilliden til dine dataløsninger, selv under test. Peer review kan også give fordele ved samarbejde og vidensdeling blandt teammedlemmer.

Når du har fuldført en peer review-cyklus, skal du dokumentere og inkorporere eventuelle anbefalede ændringer. Hvis det er nødvendigt, skal du sende ændringerne til godkendelse igen, før du går videre til brugertest. Typisk er flere gentagelser af peer review kun nødvendige, når der er mange ændringer eller nogle få komplekse ændringer, der skal testes.

Automatiser test

Indholdsoprettere kan automatisere test, så test udføres automatisk før udrulningen. Automatiserede test omfatter typisk forudforberedte testbetingelser, der køres og organiseres programmatisk som svar på visse handlinger, f.eks. lagring af indhold eller indsendelse af en pullanmodning. Resultaterne af automatiserede test gemmes automatisk til senere reference og dokumentation.

Formålet med en automatiseret test er at reducere tiden og kræfterne til at validere indholdsændringer, samtidig med at konsekvensen af testene og pålideligheden af deres resultater forbedres. Når indhold mislykkes en automatiseret test, forhindres det typisk i at blive udrullet, indtil problemer er løst af indholdsforfatteren.

Effektiv automatiseret test er en vigtig del af implementering af DataOps. DataOps gør det muligt for teams at automatisere og skalere processer ved at anvende fremgangsmåder, der forbedrer og fremskynder leveringen af data og analyser.

Vigtigt

Hvis du vil automatisere test effektivt, skal du oprette veldesignede test. Det kan tage lang tid og kræfter at oprette sådanne test. Hvis dine testbetingelser og forventninger er dårligt defineret, kan dine automatiserede test ikke validere de rigtige aspekter af dit indhold, og du får kun lidt fordel af at automatisere disse test.

Tip

Automatiseret test er mest nyttigt, når den integreres med din løsningsinstallation i scenarier til udgivelse af virksomhedsindhold. Du kan f.eks. automatisere test ved hjælp af Azure Pipelines som en del af en valideringspipeline, hvilket sikrer, at indhold er klar til at blive udrullet. Du kan finde flere oplysninger under Fase 4: Udrul indhold.

I følgende afsnit beskrives de vigtigste overvejelser for automatisk at teste semantiske Modeller og rapporter i Power BI.

Automatiser test af semantiske modeller

Automatiseret test af semantiske modeller er mulig, selvom det typisk kræver brugerdefineret konfiguration med tredjepartsværktøjer og -strukturer.

Du kan bruge forskellige værktøjer og metoder til at automatisere test af semantiske modeller.

  • BPA-(Best Practice Analyzer): giver dig mulighed for at angive regler, som du kan bruge til at evaluere en semantisk model. Du kan køre BPA ved hjælp af Tabeleditor, som identificerer eventuelle regelovertrædelser i en semantisk model. Du kan automatisere kontroller for BPA-regelovertrædelser ved hjælp af kommandolinjegrænsefladen i Tabular Editor sammen med Azure DevOps eller som en del af en anden planlagt proces.
  • Fabric-notesbøger og semantisk link: Notesbøger i Fabric- giver dig mulighed for at bruge semantiske link til programmeringsmæssigt at interagere med semantiske modeller. Du kan bruge notesbøger til at køre strukturer som Store forventninger (GX) til at validere data. Derudover kan du evaluere målinger og DAX-forespørgsler og derefter teste resultaterne i forhold til kendte oprindelige planer.
  • Power Automate-: Power Automate- giver dig mulighed for at køre forespørgsler mod semantiske modeller og eksportere rapporter ved hjælp af REST API'er til Power BI. Du kan kontrollere forespørgselsresultaterne i forhold til kendte oprindelige planer og derefter udføre downstream-handlinger, f.eks. udløse beskeder til indholdsejere.

Tip

Overvej at kombinere automatiseret test og orkestrering af dine semantiske modeller. Du kan f.eks. udføre automatiserede test på en datakilde og en semantisk model før en opdatering ved hjælp af notesbøger eller Power Automate. Hvis testene mislykkes, kan du forhindre opdateringen, hvilket også kan forhindre opdateringsfejl eller forkerte data i at blive ankommer i forretningsrapporter.

Automatiser test af rapporter

Der er begrænsede muligheder for at automatisere test af rapporter. Disse indstillinger er afhængige af eksterne værktøjer eller communityløsninger til automatisk validering af visualiseringer eller rapportegenskaber, f.eks. validering af rapportmetadata eller simulering af brugerinteraktioner med rapporter.

Du kan bruge forskellige værktøjer og metoder til at automatisere test af rapporter.

  • Analyse af bedste praksis for rapporter: Der er forskellige tredjepartsværktøjer, der understøtter funktionalitet som analyse af bedste praksis for at automatisere registreringen af problemer i rapporter ved at undersøge rapportdefinitionen. To værktøjer, der understøtter denne funktionalitet, er PBI Explorer og PBI Inspector.
  • Power Automate Desktop-: Værktøjer til automatisering af brugergrænsefladen, f.eks. Selenium til Python- eller Power Automate Desktop, giver dig mulighed for at simulere brugermusinteraktioner med rapporter. Ved at definere et brugerflow kan du teste navigation og interaktioner. Disse test består, når de kan fuldføre flowet og mislykkes, når de registrerer bestemte ord eller billeder på skærmen (f.eks. en fejlmeddelelse eller en tom visualisering).

Beslut, hvordan brugerne skal validere indhold

Når indholdet består manuel test, automatiseret test og peer review, kan det gå videre til brugertest. Når brugerne tester indhold, giver de subjektiv feedback om, hvorvidt dette indhold opfylder forretningsmæssige krav og opfylder deres forventninger, herunder returnering af nøjagtige resultater.

Brugervalidering sker typisk i et testarbejdsområde. Når du konfigurerer et testarbejdsområde, skal du tage hensyn til følgende overvejelser.

  • Opret en testapp: Hvis du vil distribuere indhold ved hjælp af en Power BI-app, skal du konfigurere en testapp til testbrugere for at validere indhold. Testappen skal være identisk med den app, du konfigurerer i produktionen. I navigationen i testappen kan du overveje at inkludere links til dokumentations-, oplærings- og feedbackformularer.
  • Klargør adgang: Identificer et undersæt af brugere fra community'et, der skal validere løsningen. Kontakt disse brugere, og opret en aftale om, hvornår og hvorfor de skal validere dette indhold. Sørg derefter for, at du giver dem adgang til indholdet, og føj dem til de relevante sikkerhedsroller. Del links til indholdet eller testappen med brugerne, så de kan komme i gang med testen.
  • Konfigurer planlagt opdatering: Brugervalidering strækker sig typisk over en længere periode. Det er værd at konfigurere en planlagt opdatering af dataelementer i testarbejdsområdet, så brugerne tester med de nyeste data.

Vigtigt

Når du udruller indhold til et testarbejdsområde, skal du manuelt opdatere appen, før ændringer af rapporter og dashboards er synlige for brugerne.

Bemærk

Du kan ikke installere eller kopiere apps fra ét arbejdsområde til et andet. Eventuelle ændringer af en app skal foretages manuelt i konfigurationen for det pågældende arbejdsområde.

Før du påbegynder brugervalidering, skal du udføre de nødvendige forberedelser.

  • Planlæg, hvornår brugervalideringen skal finde sted.
  • Angiv, om brugervalidering er begrænset til en bestemt periode eller en del af en iterativ proces.
  • Opret en metode til indsamling af feedback, f.eks. ved hjælp af Microsoft Forms.
  • Kommuniker til brugere, der er involveret i valideringen af planlægningen og forventningerne.
  • Organiser et kick-off for brugervalidering for at vejlede brugerne og administrere forventninger.
  • Udfør oplæring for brugerne for at demonstrere validerings- og feedbackprocessen.

Her er nogle forskellige måder at lette brugervalideringen af indhold på.

  • Observatorium-test: Observatoriets test er korte sessioner, hvor indholdsforfattere ser en eller flere brugere bruge indholdet uden vejledning eller instruktion. I disse sessioner bruger indholdsoprettere deres observationer til at identificere potentielle fejl, problemer eller forbedringer af løsningen. Disse test kan være værdifulde, da de kræver lidt tid og kræfter til at organisere og kan begrænses til bestemte funktioner eller dele af en løsning. Observatorietest er mest nyttige til at få tidlig feedback om et design eller en tilgang, f.eks. med et blåstemplingsbevis.
  • fokusgruppetest: Fokusgruppetest er begrænsede sessioner, der er organiseret med en lille gruppe brugere, der gennemgår indholdet sammen. Disse fokusgrupper er organiseret for at vælge vigtige interessenter og eksperter inden for emnet, som kan give den bedste feedback om visse funktioner eller funktioner. Fokusgruppetest kan udføres via flere interaktive sessioner. Test af fokusgrupper kræver mere tid og kræfter end test af observatori, men kan give mere detaljeret feedback om en løsning.
  • test af brugeraccept: UAT- test (User Acceptance Testing) er en formel proces, hvor en større gruppe personer fra brugergruppen validerer og giver asynkron feedback om en løsning. UAT kræver mest tid og kræfter at organisere, men det er den mest grundige måde at udføre brugertest på. Når testbrugerne accepterer løsningen, og feedbackproblemerne er løst, kan indholdet udrulles i produktionsarbejdsområdet.

Når du har besluttet, hvordan du validerer indhold, kan du planlægge, hvordan du udruller det til og mellem arbejdsområder.

Tjekliste – Når du planlægger at validere indhold, omfatter vigtige beslutninger og handlinger:

  • betingelser for design og dokumenttest: Beskriv de test, du skal udføre, hvad de tester, og hvordan du udfører dem.
  • Beslut en peer review-proces: Beskriv, hvem der ellers validerer indholdet bortset fra dig selv.
  • Beslut, hvordan du skal udføre manuel test: Beslut, hvilke værktøjer og funktioner du vil bruge til at validere det indhold, du opretter.
  • Beslut, om du vil bruge automatiseret test: Identificer, om skaleringen og omfanget af dit indhold berettiger til, at du konfigurerer automatiserede test. Hvis det er tilfældet, skal du sørge for, at du planlægger den nødvendige tid og de nødvendige ressourcer til at designe og implementere disse test, så de validerer, hvad du forventer.
  • Udrul indhold fra udviklingsarbejdsområdet til testarbejdsområdet: Udrul ændringer fra udviklingsarbejdsområdet til testarbejdsområdet, så ændringer er synlige for brugerne. Sørg for, at du har udført de nødvendige aktiviteter efter udrulningen i testarbejdsområdet, f.eks. konfiguration og opdatering af en testapp.
  • Beslut en metode til brugertest: Beslut, hvordan brugerne vil validere indhold.
  • Identificer testbrugere: Identificer, hvem blandt bruger-community'et der validerer indholdet. Nå til enighed med disse personer om omfanget af deres engagement og forventninger.
  • Indsaml brugerfeedback: Konfigurer værktøjer og processer for automatisk at indsamle feedback. Du kan f.eks. bruge Opgaver og Planner i Microsoft Teams eller Microsoft Forms.
  • Testresultater for dokument: Dokumenter resultaterne af al indholdsvalidering og eventuelle ændringer, der er foretaget som følge af testresultaterne. Sørg for, at denne dokumentation er nem at finde.
  • Planlæg udrulningen til produktions: Når brugertesten er afsluttet, skal du forberede udrulningen af indhold fra testarbejdsområdet til produktionsarbejdsområdet.

I den næste artikel i denne serie kan du få mere at vide om, hvordan du udruller indhold som en del af administrationen af indholdslivscyklussen.