Delen via


Power BI-implementatieplanning: inhoud valideren

Notitie

Dit artikel maakt deel uit van de reeks artikelen over de implementatieplanning van Power BI. Deze reeks richt zich voornamelijk op de Power BI-ervaring in Microsoft Fabric. Zie de planning van de Power BI-implementatie voor een inleiding tot de reeks.

Dit artikel helpt u bij het valideren van inhoud als onderdeel van het beheren van de levenscyclus van inhoud. Het is voornamelijk gericht op:

  • COE- en BI-teams (Center of Excellence): de teams die verantwoordelijk zijn voor het beheer van Power BI in de organisatie. Deze teams omvatten besluitvormers die bepalen hoe de levenscyclus van Power BI-inhoud moet worden beheerd. Deze teams kunnen ook releasemanagers bevatten, die de levenscyclus van inhoudsreleases verwerken en technici die de onderdelen maken en beheren die nodig zijn om effectief levenscyclusbeheer te gebruiken en te ondersteunen.
  • makers en eigenaren van inhoud: gebruikers die inhoud maken die ze willen publiceren in de Fabric-portal om met anderen te delen. Deze personen zijn verantwoordelijk voor het beheren van de levenscyclus van de Power BI-inhoud die ze maken.

Levenscyclusbeheer bestaat uit de processen en procedures die u gebruikt om inhoud van het maken ervan tot de uiteindelijke buitengebruikstelling af te handelen. In de tweede fase van levenscyclusbeheer ontwikkelt u inhoud en beheert u wijzigingen, waarbij belangrijke beslissingen worden genomen over de ontwikkeling van inhoud en het instellen van werkruimten en versiebeheer. In de derde fase valideert u inhoud om te testen of deze gereed is voor implementatie.

Notitie

Normaal gesproken doorloopt u fase twee en drie in opeenvolgende ontwikkelings- en validatiecycli.

Het valideren van inhoud is essentieel om de kwaliteit en betrouwbaarheid van uw oplossingen te waarborgen. Daarom is het essentieel dat u inhoudswijzigingen test voordat u ze in productie implementeert.

In de volgende afbeelding ziet u de levenscyclus van Power BI-inhoud, waarbij fase drie wordt gemarkeerd, waar u inhoud valideert.

Diagram toont de levenscyclus van Power BI-inhoud. Fase 3, dat betrekking heeft op inhoudsvalidatie, is gemarkeerd.

Notitie

Zie het eerste artikel in deze reeks voor een overzicht van het beheer van de levenscyclus van inhoud.

Dit artikel is gericht op belangrijke overwegingen en beslissingen voor het valideren van inhoud gedurende de gehele levenscyclus. Zie voor meer informatie over het valideren van inhoud:

Het valideren van inhoud omvat het nemen van specifieke beslissingen of acties om ervoor te zorgen dat de inhoud naar verwachting wordt uitgevoerd.

Wanneer u inhoud valideert, beoordeelt u verschillende aspecten van de oplossing.

  • Functionaliteit: of de items en functies waaruit de oplossing bestaat functioneel zijn. Een voorbeeld van testfunctionaliteit is of een semantisch model een geplande vernieuwing kan voltooien.
  • gegevensnauwkeurigheid: of de weergegeven cijfers en resultaten volledig zijn en zijn afgestemd op de verwachtingen van het bedrijf. Een voorbeeld van het testen van gegevensnauwkeurigheid is of een waarde in een rapport overeenkomt met een bekende basislijn.
  • Prestaties: of query's minimale invloed hebben op beschikbare gebruikersbronnen of wachttijden van gebruikers. Een voorbeeld van het testen van prestaties is of een gegevensstroom betrouwbaar wordt vernieuwd zonder time-out te bereiken of lange vernieuwingsduur te ervaren.
  • Beveiliging: of onbevoegde personen geen toegang hebben tot gegevens of de hele oplossing. Een voorbeeld van het testen van beveiliging is de imitatie van een gebruiker of rol bij het valideren van beveiliging op rijniveau (RLS).
  • Effectiviteit: of de oplossing het relevante bedrijfsprobleem of -proces aanpakt en voldoende bedrijfsdoelstellingen ondersteunt zoals bedoeld. Een voorbeeld van testeffectiviteit is het verzamelen van feedback van gebruikers wanneer u gebruikersacceptatietests (UAT) uitvoert.
  • Toegankelijkheid: of de oplossing voldoet aan bekende toegankelijkheidsstandaarden, zodat deze door zoveel mogelijk mensen kan worden gebruikt. Een voorbeeld van toegankelijkheidstests is controleren of uw rapport voldoet aan de controlelijst voor toegankelijkheid van Microsoft-rapporten.

U valideert inhoud door verschillende soorten tests uit te voeren. In de volgende secties worden belangrijke overwegingen beschreven voor beslissingen over hoe makers van inhoud en consumenten van inhoud testen.

Notitie

Veel teams gebruiken testmethodologieën die afkomstig zijn van softwareontwikkeling, zoals eenheidstests, integratietests en betrouwbaarheidstests. Er zijn veel even geldige benaderingen voor het testen en valideren van inhoud. Het belangrijkste is dat u inhoud test met behulp van een benadering die het beste werkt voor uw behoeften en de manier waarop uw team werkt.

Bepalen hoe makers inhoud moeten valideren

Makers van inhoud moeten hun eigen wijzigingen in inhoud valideren om de kwaliteit en functionaliteit van de wijzigingen te waarborgen. Tests vinden doorgaans plaats in de ontwikkelwerkruimte, die de nieuwste werkende versie van een oplossing bevat. Makers van inhoud testen hun eigen wijzigingen voordat inhoud wordt geïmplementeerd in een testwerkruimte voor gebruikersvalidatie.

Notitie

Het is essentieel dat makers van inhoud hun eigen inhoud valideren voordat deze beschikbaar wordt gesteld aan gebruikers. Als er een oplossing wordt geboden om gebruikers met voor de hand liggende problemen te testen, wordt het vertrouwen in de oplossing erodeert. Zelfs bij het testen verwachten gebruikers een redelijke weergave van het eindproduct te zien. Daarnaast kunnen gebruikers met een functionele oplossing zich richten op het identificeren van problemen met betrekking tot hun bedrijfsgebied.

Er zijn twee manieren waarop makers van inhoud inhoud kunnen valideren.

  • Handmatig testen: handmatige tests hebben betrekking op iemand die de inhoud handmatig valideert, hetzij via subjectieve evaluatie of door te vergelijken met een aantal objectieve testcriteria. Handmatige tests zijn eenvoudig uit te voeren, maar ze zijn onderhevig aan menselijke fouten of vooroordelen. Bovendien kunnen handmatige tests, wanneer de inhoud een bepaalde schaal bereikt, arbeidsintensief worden om goed uit te voeren. U kunt op twee manieren handmatig testen.
    • Onafhankelijke beoordeling, waarbij u uw eigen inhoud test, zoals semantische modellen en rapporten.
    • Peer review, die een subjectieve evaluatie van de inhoud omvat om de oplossing kritisch te beoordelen en suggesties te geven om deze te verbeteren.
  • Geautomatiseerd testen: Geautomatiseerde tests omvatten een vooraf voorbereide test die automatisch wordt geëvalueerd zonder menselijke tussenkomst. Normaal gesproken controleren geautomatiseerde tests delen van de oplossingscode op basis van specifieke benchmarks of basislijnen. Geautomatiseerd testen is moeilijker uit te voeren en kost tijd en moeite om in te stellen. Geautomatiseerde tests zijn echter essentieel in bedrijfsscenario's om de kwaliteit en betrouwbaarheid van grotere implementaties en bedrijfskritieke oplossingen te garanderen.

In de volgende secties worden verschillende manieren beschreven waarop makers van inhoud handmatige tests, geautomatiseerde tests en peer review kunnen uitvoeren.

Handmatige tests uitvoeren

U moet uw eigen handmatige tests uitvoeren op de inhoud die u maakt. Deze tests moeten ervoor zorgen dat uw wijzigingen naar verwachting werken en de gewenste kwaliteitsnormen behalen. Handmatig testen omvat doorgaans het gebruik en de subjectieve evaluatie van de inhoud of specifieke inhoudswijzigingen, en het beschrijven en documenteren van de resultaten.

Hier volgen enkele overwegingen bij het testen van uw eigen inhoud.

  • Bepaal en documenteer vooraf de testvoorwaarden en succescriteria.
  • Wees grondig met testen en documenteer de testresultaten. Zorg er echter voor dat u overbodige tests vermijdt, zodat uw testprocedures de ontwikkeling niet vertragen.
  • Maak een standaardset tests voor elk itemtype om de herhaalbaarheid te verbeteren.
  • Testresultaten en conclusies documenteren.
  • Test meerdere keren om ervoor te zorgen dat uw testresultaten de realiteit het beste weerspiegelen en geen willekeurige kans.
  • Testvoorwaarden gebruiken die representatief zijn voor uw productieomgeving.

In de volgende secties worden andere belangrijke overwegingen voor het handmatig testen beschreven.

Semantische modellen handmatig testen

Semantische modellen vormen een belangrijk onderdeel van een oplossing in Fabric en Power BI, omdat ze een upstream-bron zijn voor rapporten, dashboards en andere clienthulpprogramma's en Fabric-workloads. Daarom is het belangrijk om uw semantische modellen vóór de implementatie te valideren.

Beantwoord vragen zoals het volgende om u te helpen uw semantische model te valideren.

  • Bevatten tabellen onverwachte ontbrekende, dubbele of onjuiste waarden?
  • Retourneren DAX-metingen de verwachte resultaten zonder lange querytijden?
  • Wordt een geplande vernieuwing voltooid zonder lange vernieuwingstijden?
  • Ziet u (lege) resultaten in visuals, filters of queryresultaten die worden veroorzaakt door schendingen van referentiële integriteit?
  • Heeft gegevensbeveiliging, zoals beveiliging op rijniveau of beveiliging op objectniveau( OLS), voldoende voorkomen dat onbevoegde personen toegang hebben tot het model of de bijbehorende gegevens?
  • Zijn modelobjecten (zoals DAX-metingen of tabelkolommen) ingedeeld in weergavemappen?

U kunt verschillende hulpprogramma's en benaderingen gebruiken om uw semantische modellen te valideren.

  • Power BI Desktop: Met Power BI Desktop kunt u verschillende aspecten van uw semantische modellen valideren met behulp van verschillende functies. Voorbeelden van Power BI Desktop-functies waarmee u semantische modellen kunt testen, zijn onder andere:
    • visualcanvas: de functionaliteit en nauwkeurigheid van het model testen met visuals met slepen en neerzetten.
    • DAX-queryweergave: Test de modelnauwkeurigheid en DAX-code met DAX-query's die u later kunt opslaan en hergebruiken.
    • querydiagnose: de vernieuwingsprestaties testen door diagnostische gegevens op te halen over hoe query's worden geëvalueerd in Power Query.
  • Fabric: Met functies en items in de Fabric-portal kunt u aspecten van uw semantische model valideren zodra het is geïmplementeerd in een werkruimte.
  • hulpprogramma's van derden: met hulpprogramma's van derden kunt u andere aspecten van uw semantische model valideren door meer details of andere functies te bieden die validatie mogelijk maken. Voorbeelden van hulpprogramma's van derden die het testen van semantische modellen vergemakkelijken, zijn:
    • DAX Studio-: test en optimaliseer de prestaties van DAX-code door gedetailleerde uitsplitsingen van DAX-querytijdsinstellingen en queryplannen te ontvangen.
    • Tabular Editor: De nauwkeurigheid van DAX-code testen en fouten opsporen door gedetailleerde uitsplitsingen te ontvangen over hoe DAX-query's worden geëvalueerd en welke evaluatiecontext actief is.

Tip

U kunt querydiagnose gebruiken om de prestaties van Power Query handmatig te valideren en te optimaliseren van andere items die deze gebruiken, zoals gegevensstromen.

Daarnaast kunt u de DAX-queryweergave en hulpprogramma's van derden, zoals DAX Studio, gebruiken om DAX-query's voor gepagineerde rapporten en scorecards te valideren en te optimaliseren.

Rapporten handmatig testen

Rapporten zijn een veelgebruikte manier voor gebruikers om met uw gegevens te communiceren. Veel gebruikers zijn afhankelijk van rapporten om beslissingen te nemen en acties te ondernemen om vooruitgang te boeken bij hun bedrijfsdoelstellingen. Daarom is het belangrijk om uw rapporten vóór de implementatie te valideren.

Beantwoord vragen zoals het volgende om uw rapporten te valideren.

  • Voldoen rapporten aan de gedocumenteerde bedrijfsvereisten?
  • Worden de juiste visuele typen gebruikt om de juiste vraag aan te pakken?
  • Zijn rapportpagina's helder en beknopt zonder overweldigende kleuren of te veel visuals?
  • Werkt het rapport zoals verwacht bij het filteren op een beperkte subset met gegevens?
  • Staat het rapport exporteren naar Excel toe en als dat het geval is, kunnen samengevatte gegevens of de onderliggende gegevens worden opgehaald?
  • Kan het rapport worden gebruikt voor drillthrough voor verschillende rapporten of voor het personaliseren van visuals?

U kunt verschillende hulpprogramma's en benaderingen gebruiken om uw rapporten te valideren.

  • Power BI Desktop-: Met Power BI Desktop kunt u verschillende aspecten van uw rapporten valideren met behulp van verschillende functies. Voorbeelden van Power BI Desktop-functies die het testen van rapporten vergemakkelijken, zijn:
    • Visuele canvas: Rapportfunctionaliteit testen door gebruik te maken van slicers, filters en andere interactieve elementen.
    • Performance Analyzer-: test de rapportprestaties door het weergeven van visuals en DAX-querytijden te meten. U kunt visuele DAX-query's van de Performance Analyzer kopiëren om te gebruiken in andere hulpprogramma's en prestatieresultaten opslaan voor documentatie.
    • Querylimietsimulaties: Test de rapportprestaties door de geheugenlimieten te simuleren in de capaciteit waarin het wordt ingezet.
  • Fabric-: met functies en items in de Fabric-portal kunt u aspecten van uw rapport valideren zodra het is geïmplementeerd in een werkruimte.
    • App-bijwerken: test de functionaliteit en beveiliging van rapporten bij het distribueren van rapporten in Power BI-apps en het instellen van verschillende app-doelgroepen om te bepalen wie welke inhoud kan bekijken. Wanneer u app-doelgroepen gebruikt, kunt u zelf een voorbeeld bekijken van de rapporten waartoe ze toegang hebben en de app-ervaring testen.
    • Leesweergave in de werkruimte of app: test de functionaliteit en de nauwkeurigheid van het rapport door dit te testen in dezelfde omgeving als een gebruiker.

Notitie

U kunt alleen dashboards ontwikkelen en valideren in de Fabric-portal.

Belangrijk

Het is essentieel om uw rapporten te testen in zowel Power BI Desktop als na implementatie in de Fabric-portal. Visuele rendering werkt mogelijk anders op uw lokale computer in vergelijking met rapporten in een Infrastructuurwerkruimte. Houd er bovendien rekening mee dat de gebruikerservaring van het gebruik van een rapport uit een werkruimte of app aanzienlijk verschilt van het gebruik van een rapport in Power BI Desktop.

Handmatig testen door een peerbeoordeling uit te voeren

Een andere manier om inhoud handmatig te valideren, is door een peer review uit te voeren. In een peer review biedt de maker van inhoud de oplossing of een deel van de oplossing aan een collega die moet evalueren. Het doel van een peer review is het verbeteren van een oplossing door gebruik te maken van de collectieve ervaring en expertise van meerdere makers van inhoud. U kunt peer review zowel tijdens als na handmatige en geautomatiseerde tests uitvoeren.

Notitie

Peer review is een standaardbenadering die in veel branches wordt gebruikt. Deze benadering is algemeen bekend om de kwaliteit van inhoud, producten en processen te verbeteren.

Tip

Als u de enige maker van inhoud voor een oplossing bent, kunt u overwegen om een andere maker van inhoud te zoeken in een ander team om uw oplossing te controleren en om hetzelfde voor hen te doen.

Er zijn verschillende manieren waarop u een peer review kunt uitvoeren.

  • Functionele beoordeling: Een functionele beoordeling is gericht op functies, processen of zakelijke vereisten waaraan de oplossing moet voldoen. In een functionele beoordeling gebruiken de revisoren de oplossing alsof ze een eindgebruiker zijn. Ze documenteren eventuele defecten of problemen die ze vinden, samen met subjectieve kritiek om de implementatie te verbeteren.
  • Technische beoordeling: Een technische beoordeling is gericht op technische aspecten van de oplossing, zoals gegevensmodellering, code of ontwerp. In een technische beoordeling beoordelen revisoren hoe bepaalde functies of wijzigingen zijn geïmplementeerd en stellen ze alternatieve benaderingen voor of markeren ze mogelijke fouten of risico's voor de huidige benadering.
  • pull-aanvraag: wanneer u broncodebeheer uitvoert, maakt u een pull-aanvraag (PR) om uw wijzigingen samen te voegen in de nieuwste versie van een oplossing. Een technische eigenaar beoordeelt de voorgestelde wijzigingen en evalueert de broncode. Dit soort beoordeling is handig om ervoor te zorgen dat code voldoet aan standaardconventies, zoals HET opmaken van DAX- of M-code, of het identificeren van antipatronen of mogelijk problematische code.

Tip

Het is raadzaam om een soort formele peerbeoordeling en goedkeuring uit te voeren voordat inhoudswijzigingen kunnen worden verplaatst naar acceptatietests van gebruikers. Dat komt doordat inhoud van slechte kwaliteit schade kan toebrengen aan uw gegevensoplossingen, zelfs tijdens het testen. Daarnaast kan peer review ook voordelen opleveren voor samenwerking en kennisdeling tussen teamleden.

Zodra u een beoordelingscyclus voor peers hebt voltooid, moet u alle aanbevolen wijzigingen documenteren en opnemen. Indien nodig moet u de wijzigingen opnieuw indienen voor goedkeuring voordat u verdergaat met het testen van gebruikers. Normaal gesproken zijn meerdere iteraties van peerbeoordeling alleen nodig wanneer er veel wijzigingen zijn of een paar complexe wijzigingen die moeten worden getest.

Testen automatiseren

Makers van inhoud kunnen testen automatiseren, zodat tests automatisch worden uitgevoerd voorafgaand aan de implementatie. Geautomatiseerde tests omvatten doorgaans vooraf voorbereide testvoorwaarden die programmatisch worden uitgevoerd en georganiseerd als reactie op bepaalde acties, zoals het opslaan van inhoud of het indienen van een pull-aanvraag (PR). De resultaten van geautomatiseerde tests worden automatisch opgeslagen voor latere naslaginformatie en documentatie.

Het doel van een geautomatiseerde test is het verminderen van de tijd en moeite om inhoudswijzigingen te valideren, terwijl de consistentie van de tests en betrouwbaarheid van hun resultaten wordt verbeterd. Wanneer inhoud een geautomatiseerde test mislukt, wordt deze doorgaans niet geïmplementeerd totdat problemen worden opgelost door de maker van de inhoud.

Effectief geautomatiseerd testen is een belangrijk onderdeel van het implementeren van DataOps. Met DataOps kunnen teams processen automatiseren en schalen door procedures te gebruiken die de levering van gegevens en analyses verbeteren en versnellen.

Belangrijk

Als u het testen effectief wilt automatiseren, moet u goed ontworpen tests maken. Het maken van dergelijke tests kan veel tijd en moeite kosten. Als uw testvoorwaarden en verwachtingen slecht zijn gedefinieerd, kunnen uw geautomatiseerde tests niet de juiste aspecten van uw inhoud valideren en ontvangt u weinig voordeel bij het automatiseren van deze tests.

Tip

Geautomatiseerd testen is het nuttigst wanneer deze is geïntegreerd met uw oplossingsimplementatie in scenario's voor het publiceren van bedrijfsinhoud. U kunt bijvoorbeeld testen automatiseren met behulp van Azure Pipelines als onderdeel van een validatiepijplijn, zodat inhoud gereed is om te worden geïmplementeerd. Zie Fase 4: Inhoud implementeren voor meer informatie.

In de volgende secties worden belangrijke overwegingen beschreven voor het automatisch testen van semantische Power BI-modellen en -rapporten.

Testen van semantische modellen automatiseren

Geautomatiseerd testen van semantische modellen is mogelijk, hoewel hiervoor doorgaans aangepaste instellingen met hulpprogramma's en frameworks van derden zijn vereist.

U kunt verschillende hulpprogramma's en benaderingen gebruiken om het testen van semantische modellen te automatiseren.

  • Best Practice Analyzer (BPA): met de Best Practice Analyzer- kunt u regels opgeven die u kunt gebruiken om een semantisch model te evalueren. U kunt de BPA uitvoeren met behulp van Tabular Editor, waarmee eventuele regelschendingen in een semantisch model worden geïdentificeerd. U kunt controles op schendingen van BPA-regels automatiseren met behulp van de opdrachtregelinterface van tabular editor (CLI) samen met Azure DevOps of als onderdeel van een ander gepland proces.
  • Fabric-notitieblokken en semantische koppeling: met Notebooks in Fabric kunt u semantische koppeling gebruiken om programmatisch te communiceren met semantische modellen. U kunt notebooks gebruiken om frameworks zoals Great Expectations (GX) uit te voeren om gegevens te valideren. Daarnaast kunt u metingen en DAX-query's evalueren en vervolgens de resultaten testen op basis van bekende basislijnen.
  • Power Automate-: met Power Automate- kunt u query's uitvoeren op semantische modellen en rapporten exporteren met behulp van de Power BI REST API's. U kunt de queryresultaten controleren op basis van bekende basislijnen en vervolgens downstreamacties uitvoeren, zoals het activeren van waarschuwingen voor eigenaren van inhoud.

Tip

Overweeg om geautomatiseerde tests en de indeling van uw semantische modellen te combineren. U kunt bijvoorbeeld geautomatiseerde tests uitvoeren op een gegevensbron en semantisch model voordat u een vernieuwing uitvoert met behulp van notebooks of Power Automate. Als de tests mislukken, kunt u voorkomen dat de vernieuwing wordt vernieuwd, waardoor er ook geen vernieuwingsfouten of onjuiste gegevens in bedrijfsrapporten binnenkomen.

Testen van rapporten automatiseren

Er zijn beperkte opties beschikbaar om het testen van rapporten te automatiseren. Deze opties zijn afhankelijk van externe hulpprogramma's of communityoplossingen voor het automatisch valideren van visuals of rapporteigenschappen, zoals het valideren van metagegevens van rapporten of het simuleren van gebruikersinteracties met rapporten.

U kunt verschillende hulpprogramma's en benaderingen gebruiken om het testen van rapporten te automatiseren.

  • Best practice-analyzers rapporteren: er zijn verschillende hulpmiddelen van derden die Best Practice Analyzer-functies ondersteunen om problemen in rapporten te detecteren door de rapportdefinities te onderzoeken. Twee hulpprogramma's die deze functionaliteit ondersteunen, zijn PBI Explorer en PBI Inspector.
  • Power Automate Desktop-: UI-automatiseringstools, zoals Selenium voor Python of Power Automate Desktop, stellen u in staat gebruikersmuisinteracties met rapporten te simuleren. Door een gebruikersstroom te definiëren, kunt u navigatie en interacties testen. Deze tests worden doorgegeven wanneer ze de stroom kunnen voltooien en mislukken wanneer ze specifieke woorden of afbeeldingen op het scherm detecteren (zoals een foutbericht of een lege visual).

Bepalen hoe gebruikers inhoud moeten valideren

Zodra inhoud is geslaagd voor handmatig testen, geautomatiseerd testen en peer review, kan deze doorgaan met het testen van gebruikers. Wanneer gebruikers inhoud testen, geven ze subjectieve feedback over of die inhoud voldoet aan zakelijke vereisten en presteert aan hun verwachtingen, inclusief het retourneren van nauwkeurige resultaten.

Gebruikersvalidatie vindt meestal plaats in een testwerkruimte. Houd bij het instellen van een testwerkruimte rekening met de volgende overwegingen.

  • Een test-app maken: als u inhoud wilt distribueren met behulp van een Power BI-app, stelt u een test-app in voor testgebruikers om inhoud te valideren. De test-app moet identiek zijn aan de app die u in productie gaat instellen. Overweeg in de navigatie van de test-app koppelingen naar documentatie, training en feedbackformulieren op te nemen.
  • Toegang inrichten: identificeer een subset van gebruikers uit de community die de oplossing valideert. Neem contact op met deze gebruikers en vorm een overeenkomst over wanneer en waarom ze deze inhoud moeten valideren. Zorg er vervolgens voor dat u hen toegang geeft tot de inhoud en voeg ze toe aan de juiste beveiligingsrollen. Deel koppelingen naar de inhoud of test-app met de gebruikers, zodat ze aan de slag kunnen met testen.
  • Geplande vernieuwing instellen: gebruikersvalidatie omvat doorgaans een langere periode. Het is de moeite waard om een geplande vernieuwing van gegevensitems in de testwerkruimte in te stellen, zodat gebruikers met de meest recente gegevens testen.

Belangrijk

Wanneer u inhoud implementeert in een testwerkruimte, moet u de app handmatig bijwerken voordat wijzigingen in rapporten en dashboards zichtbaar zijn voor gebruikers.

Notitie

U kunt geen apps van de ene werkruimte naar een andere implementeren of kopiëren. Wijzigingen in een app moeten handmatig worden aangebracht in de configuratie voor die werkruimte.

Voordat u met de gebruikersvalidatie begint, moet u de benodigde voorbereidingen treffen.

  • Plan wanneer de gebruikersvalidatie moet plaatsvinden.
  • Geef aan of gebruikersvalidatie is beperkt tot een specifieke periode of een deel van een iteratief proces.
  • Maak een methode om feedback te verzamelen, zoals met behulp van Microsoft Forms.
  • Communiceer met gebruikers die betrokken zijn bij de validatie van de planning en verwachtingen.
  • Organiseer een introductie voor gebruikersvalidatie om gebruikers te begeleiden en verwachtingen te beheren.
  • Voer training uit voor gebruikers om het validatie- en feedbackproces te demonstreren.

Hier volgen enkele verschillende manieren om gebruikersvalidatie van inhoud te vergemakkelijken.

  • Observatoriatesten: Observatoriatesten zijn korte sessies waarbij makers van inhoud zien hoe een of meer gebruikers de inhoud gebruiken zonder richtlijnen of instructies. In deze sessies gebruiken makers van inhoud hun waarnemingen om potentiële fouten, problemen of verbeteringen in de oplossing te identificeren. Deze tests kunnen waardevol zijn omdat ze weinig tijd en moeite nodig hebben om te organiseren en kunnen worden beperkt tot specifieke functies of onderdelen van een oplossing. Waarnemingstests zijn het nuttigst om vroege feedback te krijgen over een ontwerp of benadering, zoals met een proof of concept (POC).
  • focusgroep testen: focusgroeptests zijn beperkte sessies georganiseerd met een kleine groep gebruikers die de inhoud samen doorlopen. Deze focusgroepen zijn samengesteld om belangrijke belanghebbenden en deskundigen te selecteren die de beste feedback kunnen geven over bepaalde functies of functionaliteiten. Tests voor focusgroepen kunnen plaatsvinden via meerdere interactieve sessies. Voor het testen van focusgroepen is meer tijd en moeite nodig dan waarnemingstests, maar kan meer gedetailleerde feedback over een oplossing worden geboden.
  • gebruikersacceptatietests: UAT- (User Acceptance Testing) is een formeel proces waarbij een grotere groep personen uit de gebruikerscommunity de oplossing valideert en asynchrone feedback geeft. UAT vereist de meeste tijd en moeite om te organiseren, maar het is de meest grondige manier om gebruikerstests uit te voeren. Zodra testgebruikers de oplossing accepteren en feedbackproblemen zijn opgelost, kan de inhoud worden geïmplementeerd in de productiewerkruimte.

Zodra u besluit hoe u inhoud valideert, kunt u plannen hoe u deze implementeert in en tussen werkruimten.

Controlelijst : bij het plannen van het valideren van inhoud zijn belangrijke beslissingen en acties:

  • Testvoorwaarden ontwerpen en documenteren: Beschrijf de tests die u gaat uitvoeren, wat ze testen en hoe u ze uitvoert.
  • beslissen over een proces voor peerbeoordeling: beschrijf wie de inhoud naast uzelf valideert.
  • Besluit over een methode voor handmatig testen: bepaal welke hulpprogramma's en functies u gebruikt om de inhoud te valideren die u maakt.
  • Bepaal of u geautomatiseerde testsgebruikt: bepaal of de schaal en het bereik van uw inhoud rechtvaardigt dat u geautomatiseerde tests instelt. Zo ja, zorg er dan voor dat u de benodigde tijd en resources plant om deze tests te ontwerpen en te implementeren, zodat ze valideren wat u verwacht.
  • Inhoud implementeren vanuit de ontwikkelwerkruimte naar de testwerkruimte: Wijzigingen van de ontwikkelwerkruimte implementeren in de testwerkruimte, zodat wijzigingen zichtbaar zijn voor gebruikers. Zorg ervoor dat u de benodigde activiteiten na de implementatie in de testwerkruimte hebt uitgevoerd, zoals het instellen en bijwerken van een test-app.
  • beslissen over een benadering van het testen van gebruikers: Bepaal hoe gebruikers inhoud valideren.
  • Testgebruikers identificeren: bepaal wie de inhoud van de gebruikerscommunity zal valideren. Neem contact op met die personen over de mate van betrokkenheid en verwachtingen.
  • Feedback van gebruikers verzamelen: stel hulpprogramma's en processen in om automatisch feedback te verzamelen. U kunt bijvoorbeeld Taken en Planner gebruiken in Microsoft Teams of Microsoft Forms.
  • documenttestresultaten: documenteer de resultaten van alle inhoudsvalidatie en eventuele wijzigingen die zijn aangebracht als gevolg van de testresultaten. Zorg ervoor dat deze documentatie gemakkelijk te vinden is.
  • Uw implementatie plannen voor productie: Zodra het testen van gebruikers is afgerond, bereidt u zich voor om inhoud van de testwerkruimte naar de productiewerkruimte te implementeren.

In het volgende artikel in deze reeks leert u hoe u inhoud implementeert als onderdeel van het beheren van de levenscyclus van inhoud.