Planification de l’implémentation de Power BI : valider du contenu
Remarque
Cet article fait partie de la série d’articles sur la planification de l’implémentation de Power BI. Cette série se concentre principalement sur l’expérience Power BI au sein de Microsoft Fabric. Pour une introduction à la série, consultez Planification de la mise en œuvre de Power BI.
Cet article vous aide à valider du contenu dans le cadre de la gestion de cycle de vie du contenu. Il est principalement destiné à :
- Centre d’excellence (COE) et équipes BI: Les équipes responsables de la supervision de Power BI au sein de l'organisation. Ces équipes comprennent des décideurs qui déterminent la manière de gérer le cycle de vie du contenu Power BI. Ces équipes peuvent également inclure des gestionnaires de mise en production qui gèrent le cycle de vie des versions du contenu et des ingénieurs qui créent et gèrent les composants nécessaires pour utiliser et prendre en charge efficacement la gestion de cycle de vie.
- créateurs de contenu et propriétaires de contenu: utilisateurs qui créent du contenu qu’ils souhaitent publier sur le portail Fabric pour partager avec d’autres personnes. Ces personnes sont responsables de la gestion de cycle de vie du contenu Power BI qu’elles créent.
La gestion de cycle de vie est constituée de l’ensemble des processus et des pratiques que vous utilisez pour gérer le contenu depuis sa création jusqu’à sa mise hors service. Dans la deuxième phase de la gestion de cycle de vie, vous développez du contenu et gérez les modifications qui impliquent les décisions clés sur la façon dont vous allez développer du contenu et configurer le contrôle de version et les espaces de travail. Dans la troisième phase, vous validez du contenu pour vérifier s’il est prêt pour le déploiement.
Remarque
Vous itérez généralement via les étapes deux et trois dans les cycles de développement et de validation successifs.
La validation de contenu est critique pour veiller à la qualité et à la fiabilité de vos solutions. C’est la raison pour laquelle il est essentiel de tester les modifications de contenu avant de les déployer en production.
L’image suivante illustre le cycle de vie du contenu Power BI et met en évidence la troisième phase au cours de laquelle vous validez le contenu.
Remarque
Pour obtenir une vue d’ensemble de la gestion de cycle de vie du contenu, consultez le premier article de cette série.
Cet article se concentre sur les considérations et décisions clés de la validation du contenu via son cycle de vie. Pour obtenir plus de conseils sur la façon de valider du contenu, consultez :
- Migrer vers Power BI : Valider le contenu: cet article décrit les principales considérations et décisions relatives à la validation lorsque vous migrez vers Power BI à partir d’autres technologies.
- planification de la solution BI : Valider le contenu: cet article explique comment planifier des cycles de développement et de validation itératives lors de la planification de votre solution Power BI ou Fabric.
La validation de contenu implique la prise d’actions ou de mesures spécifiques pour veiller à ce que le contenu s’exécute comme prévu.
Lorsque vous validez du contenu, vous évaluez différents aspects de la solution.
- Fonctionnalité: indique si les éléments et fonctionnalités qui composent la solution sont fonctionnels. Un exemple de test de la fonctionnalité est de savoir si un modèle sémantique peut effectuer une actualisation planifiée.
- précision des données: indique si les chiffres et les résultats indiqués sont complets et alignés sur les attentes de l’entreprise. Un exemple de test de l’exactitude des données est de savoir si une valeur de rapport s’aligne sur une base de référence connue.
- Performances: indique si les requêtes produisent un impact minimal sur les ressources utilisateur disponibles ou les temps d’attente des utilisateurs. Un exemple de test du niveau de performance consiste à savoir si un flux de données actualise de manière fiable sans atteindre un délai d’attente ou rencontrer des durées d’actualisation longues.
- sécurité: que les personnes non autorisées ne soient pas autorisées à consulter ou à accéder aux informations, ou à la solution dans son intégralité. Un exemple de test de la sécurité est l’emprunt d’identité d’un utilisateur ou d’un rôle lors de la validation de la Sécurité au niveau des lignes (RLS).
- Efficacité: indique si la solution répond au problème ou au processus d’entreprise pertinent et prend suffisamment en charge les objectifs métier prévus. Un exemple de test d’efficacité est la collecte des commentaires des utilisateurs lorsque vous effectuez un test d’acceptation des utilisateurs (UAT).
- d’accessibilité : indique si la solution répond aux normes d’accessibilité connues afin qu’elle soit utilisable par autant de personnes que possible. Un exemple de test d’accessibilité est de vérifier que votre rapport respecte la liste de vérification de l’accessibilité des rapports Microsoft.
Vous validez du contenu en effectuant plusieurs types de tests. Les sections suivantes présentent les principales considérations à prendre en compte concernant les décisions sur la façon dont les créateurs et les consommateurs de contenu effectuent des tests.
Remarque
De nombreuses équipes utilisent des méthodologies de test qui proviennent du développement logiciel, telles que les tests unitaires, les tests d’intégration et les tests de détection de fumée. Il existe plusieurs approches également valables pour les tests et la validation de contenu. L’élément le plus important est que vous testiez du contenu en utilisant une approche qui convient à vos besoins et aux méthodes de travail de votre équipe.
Décider de la façon dont les créateurs valident du contenu
Les créateurs de contenu doivent valider leurs propres modifications apportées au contenu pour veiller à leur qualité et fonctionnalité. Les tests se produisent généralement dans l’espace de travail de développement qui contient la dernière version opérationnelle d’une solution. Les créateurs de contenu testent leurs modifications avant le déploiement du contenu dans un espace de travail de test afin que l’utilisateur les valide.
Remarque
Il est indispensable que les créateurs de contenu valident leur contenu avant de le mettre à la disposition des utilisateurs. Si une solution ayant des problèmes évidents est fournie à des utilisateurs de test, la confiance vis-à-vis de la solution se détériore. Les utilisateurs s’attendent à voir une représentation acceptable du produit final, même lors des tests. En outre, une solution fonctionnelle permet aux utilisateurs de se concentrer sur l’identification des problèmes liés à leur domaine d’activé.
Les créateurs de contenu disposent de deux moyens de valider du contenu.
- tests manuels: les tests manuels impliquent une personne qui valide manuellement le contenu, soit par évaluation subjective, soit par comparaison avec certains critères de test objectifs. Les tests manuels sont faciles à effectuer, mais ils peuvent faire l’objet de partialités ou d’erreurs humaines. De plus, l’exécution correcte de tests manuels peut devenir fastidieuse lorsque du contenu atteint une certaine échelle. Vous pouvez effectuer des tests manuels de deux manières.
- L’évaluation indépendante qui implique le test de votre contenu, tel que des modèles sémantiques et des rapports.
- L’évaluation par un confrère qui implique une évaluation subjective du contenu afin de mesurer la solution de manière critique et offrir des suggestions pour l’améliorer.
- Tests automatisés: Les tests automatisés impliquent un test prédéfini qui est évalué automatiquement sans intervention humaine. Les tests automatisés vérifient généralement des parties du code de la solution par rapport à des points de référence ou à des bases de références spécifiques. Les tests automatisés sont plus difficiles à effectuer et leur configuration exige du temps et des efforts. Cependant, les tests automatisés sont essentiels dans des scénarios d’entreprise afin de veiller à la qualité et à la fiabilité d’implémentations plus importantes et de solutions vitales pour l'entreprise.
Les sections suivantes présentent différentes manières permettant aux créateurs de contenu d’effectuer des tests manuels, des tests automatisés et des évaluations par des confrères.
Effectuer des tests manuels
Vous devez effectuer vos propres tests manuels sur le contenu que vous créez. Ces tests doivent veiller à ce que vos modifications fonctionnent comme prévu et respectent les normes de qualité souhaitées. Les tests manuels nécessitent généralement l’utilisation d’une évaluation subjective du contenu ou de modifications spécifiques apportées au contenu, ainsi qu’une description et une documentation des résultats.
Voici quelques considérations à prendre en compte lorsque vous testez votre contenu.
- Décidez et documentez à l’avance les conditions du test et les critères de réussite.
- Faites preuve de minutie en ce qui concerne le test et la documentation des résultats de test. Veillez toutefois à éviter les tests superflus afin que vos pratiques de test ne ralentissent pas le développement.
- Créez un ensemble de tests standard pour chaque type d’élément à améliorer de façon répétée.
- Documentez les résultats de test et les conclusions.
- Testez plusieurs fois afin de veiller à ce que vos résultats de test reflètent au mieux la réalité, et non le hasard.
- Utilisez des conditions de test représentant votre environnement de production.
Les sections suivantes présentent d’autres considérations importantes pour les tests manuels.
Tester manuellement des modèles sémantiques
Les modèles sémantiques constituent une partie importante de solution dans Fabric et Power BI, car ils sont une source en amont pour des rapports, tableaux de bord et d’autres outils clients et charges de travail Fabric. C’est pourquoi il est important de valider vos modèles sémantiques avant un déploiement.
Répondez à des questions telles que celles qui suivent pour vous permettre de valider votre modèle sémantique.
- Les tables contiennent-elles des valeurs manquantes, en double ou incorrectes inattendues ?
- Les mesures DAX renvoient-elles les résultats attendus sans temps de requête prolongé ?
- L’exécution d’une actualisation planifiée s’effectue-t-elle correctement sans temps d’actualisation prolongé ?
- Observez-vous des résultats (Vides) dans des visuels, filtres ou résultats de requête entraînés par des violations d’intégrité référentielle ?
- La sécurité des données, telle que la sécurité au niveau des lignes (RLS) ou la sécurité au niveau des objets (OLS) empêche-t-elle suffisamment des individus non autorisés d’accéder au modèle ou à ses données ?
- Les objets de modèle (comme des colonnes de table ou des mesures DAX) sont-ils organisés dans les dossiers d’affichage ?
Vous pouvez utiliser divers outils et approches pour vous aider à valider vos modèles sémantiques.
- Power BI Desktop: Power BI Desktop vous permet de valider différents aspects de vos modèles sémantiques à l’aide de différentes fonctionnalités. Des exemples de fonctionnalités Power BI Desktop facilitant les tests de modèles sémantiques incluent :
- Toile visuelle: Tester la fonctionnalité et la précision du modèle avec des visuels à glisser-déposer.
- Affichage des requêtes DAX : tester l’exactitude d’un modèle et du code DAX avec des requêtes DAX que vous pouvez enregistrer et réutiliser plus tard.
- Diagnostics de requête : testez le niveau de performance des actualisations en obtenant des informations de diagnostic sur la manière dont les requêtes sont évaluées dans Power Query.
- Fabric: les fonctionnalités et les éléments du portail Fabric vous permettent de valider les aspects de votre modèle sémantique une fois qu’il est déployé sur un espace de travail.
- Sécurité : testez la sécurité du modèle en empruntant l’identité des utilisateurs ou des rôles de sécurité.
- Notebooks : testez l’exactitude et la fonctionnalité du modèle en utilisant un lien sémantique.
- Hub de surveillance : testez et surveillez l’actualisation des données de modèles sémantiques et d’autres éléments de données Fabric.
- outils tiers: les outils tiers vous permettent de valider d’autres aspects de votre modèle sémantique, soit en fournissant plus de détails ou d’autres fonctionnalités qui facilitent la validation. Des exemples d’outils tiers facilitant les tests de modèles sémantiques incluent :
- DAX Studio: Testez et optimisez les performances du code DAX en recevant des répartitions détaillées des temps d'exécution et des plans de requête DAX.
- Éditeur tabulaire: testez et déboguez la précision du code DAX en recevant des répartitions détaillées de la façon dont les requêtes DAX sont évaluées et quel contexte d’évaluation est actif.
Conseil
Vous pouvez utiliser des diagnostics de requête pour valider et optimiser manuellement le niveau de performance de Power Query à partir d’autres éléments qui l’utilisent, tels que les flux de données.
En outre, vous pouvez utiliser l’affichage de requête DAX et des outils tiers tels que DAX Studio pour valider et optimiser des requêtes DAX pour des rapports paginés et des cartes de performance.
Tester manuellement des rapports
Les rapports constituent un moyen courant permettant aux utilisateurs d’interagir avec vos données. De nombreux utilisateurs dépendent des rapports pour prendre des mesures et effectuer des actions afin de progresser dans la réussite de leurs objectifs professionnels. C’est pourquoi il est important de valider vos rapports avant un déploiement.
Répondez à des questions telles que celles qui suivent pour vous permettre de valider vos rapports.
- Les rapports répondent-ils aux exigences métier documentées ?
- Est-ce que les types de visuel appropriés sont utilisés pour répondre à la bonne question ?
- Les pages de rapport sont-elles claires et concises sans aucune couleur écrasante ou un trop grand nombre de visuels ?
- Le rapport fonctionne-t-il comme prévu lors du filtrage d’un sous-ensemble restreint de données ?
- Le rapport permet-il d’exporter vers Excel et, dans l’affirmative, est-ce qu’il permet de récupérer des données résumées ou les données sous-jacentes ?
- Le rapport peut-il être utilisé pour l’extraction de rapports croisés ou la personnalisation de visuels ?
Vous pouvez utiliser divers outils et approches pour vous aider à valider vos rapports.
- Power BI Desktop: Power BI Desktop vous permet de valider différents aspects de vos rapports à l’aide de différentes fonctionnalités. Des exemples de fonctionnalités Power BI Desktop facilitant les tests de rapports incluent :
- Canevas visuel : tester les fonctionnalités de rapport à l’aide de segments, de filtres et d’autres éléments interactifs.
- Analyseur de performances : testez le niveau de performance du rapport en mesurant le rendu du visuel et les heures de requête DAX. Vous pouvez copier des requêtes DAX de visuel à partir de l’analyseur du niveau de performance pour les utiliser dans d’autres outils et enregistrer les résultats du niveau de performance pour la documentation.
- Interroger des simulations de limites : testez le niveau de performance du rapport en simulant les limites de mémoire de la capacité où il va être déployé.
- Fabric: les fonctionnalités et les éléments du portail Fabric vous permettent de valider les aspects de votre rapport une fois qu’il est déployé sur un espace de travail.
- Mettre à jour l’application: testez les fonctionnalités et la sécurité des rapports lors de la distribution de rapports dans des applications Power BI et définissez différents publics d’applications pour déterminer qui peut afficher le contenu. Quand vous utilisez des audiences d’application, vous pouvez prévisualiser les rapports auxquels elles ont accès et tester vous-même l’expérience d’application.
- Mode Lecture dans l’espace de travail ou l’application : testez l’exactitude et la fonctionnalité du rapport en l’utilisant dans le même environnement qu’un utilisateur.
Remarque
Vous pouvez également développer et valider des tableaux de bord dans le portail Fabric.
Important
Il est indispensable de tester vos rapports dans Power BI Desktop et, après de déploiement, dans le portail Fabric. Le rendu du visuel peut se comporter différemment sur votre ordinateur local par rapport à des rapports dans un espace de travail Fabric. De plus, notez que l’expérience utilisateur lors de l’utilisation d’un rapport à partir d’un espace de travail ou d’une application diffère considérablement par rapport à l’utilisation d’un rapport dans Power BI Desktop.
Tests manuels via l’exécution d’une évaluation par un confrère
L’exécution d’une évaluation par un confrère consiste une autre façon de valider du contenu manuellement. Lors d’une évaluation par un confrère, le créateur de contenu fournit la solution ou une partie de la solution à un collègue pour qu’il l’évalue. L’objectif d’une évaluation par un confrère consiste à améliorer une solution en utilisant l’expérience collective et les connaissances de plusieurs créateurs de contenu. Vous pouvez effectuer une évaluation par un confrère pendant ou après des tests manuels et automatisés.
Remarque
L’évaluation par un confrère est une approche classique utilisée dans plusieurs secteurs d’activité. Cette approche est bien connue pour améliorer la qualité du contenu, des produits et des processus.
Conseil
Si vous êtes le seul créateur de contenu d’une solution, envisagez de trouver un autre créateur de contenu dans une équipe différente pour l’évaluation de votre solution et proposez-lui de faire la même chose.
Il existe plusieurs façons d’effectuer une évaluation par un confrère.
- examen fonctionnel: une révision fonctionnelle se concentre sur les fonctionnalités, les processus ou les exigences métier que la solution doit remplir. Dans une évaluation fonctionnelle, les évaluateurs utilisent la solution comme s’ils étaient des utilisateurs finaux. Ils documentent tous les défauts et problèmes rencontrés, ainsi qu’une critique subjective pour améliorer l’implémentation.
- révision technique: une révision technique se concentre sur les aspects techniques de la solution, tels que la modélisation des données, le code ou la conception. Lors d’une évaluation technique, les évaluateurs analysent comment certaines fonctionnalités ou modifications sont implémentées, et suggère d’autres approches ou met l’accent sur les risques ou défauts éventuels de l’approche actuelle.
- Demande de tirage (pull request) : quand vous effectuez un contrôle de code source, vous créez une demande de tirage (pull request) afin de fusionner vos modifications avec la dernière version d’une solution. Un propriétaire technique évalue les modifications proposées et évalue le code source. Ce type d’évaluation est utile pour veiller à ce que le code respecte les conventions standard, telles que la mise en forme de code M ou DAX, ou l’identification de code éventuellement problématique ou d’anti-modèles.
Conseil
Nous vous recommandons d’effectuer un type d’évaluation formelle par un confrère et une approbation avant que les modifications apportées au contenu puisse passer aux tests d’acceptation utilisateur. La raison est simple : un contenu de qualité médiocre peut nuire à la confiance placée dans vos solutions de données, même pendant les tests. De plus, l’évaluation par un confrère présente également des avantages en termes de collaboration et de partage de connaissances entres les membres de l’équipe.
Après l’exécution d’un cycle d’évaluation par un confrère, vous devez documenter et incorporer toutes les modifications recommandées. Le cas échéant, vous devez soumettre à nouveau les modifications pour approbation avant de passer au test utilisateur. En général, plusieurs itérations d’évaluation par un confrère sont uniquement nécessaires lorsqu’il existe de nombreuses modifications ou quelques modifications complexes à tester.
Automatiser les tests
Les créateurs de contenu peuvent automatiser les tests afin qu’ils soient effectués automatiquement avant le déploiement. Les tests automatisés impliquent généralement des conditions de test préparées d’avance et orchestrées de manière programmatique pour répondre à certaines actions, telles que l’enregistrement de contenu et la nouvelle soumission d’une demande de tirage (pull request). Les résultats de tests automatisés sont automatiquement stockés à des fins de référence ultérieure et de documentation.
L’objectif d’un test automatisé consiste à réduire le temps et les efforts nécessaires pour valider des modifications de contenu, tout en améliorant la cohérence des tests et la fiabilité de leurs résultats. Lorsqu’un contenu ne réussit pas un test automatisé, son déploiement est généralement empêché jusqu’à la résolution des problèmes par le créateur du contenu.
Un test automatisé efficace est un élément clé de l’implémentation de DataOps. DataOps permet aux équipes d’automatiser et de mettre à l’échelle les processus en adoptant des pratiques qui améliorent et accélèrent la livraison des données et des analyses.
Important
Pour effectuer des tests automatisés de manière efficace, vous devez créer des tests bien conçus. La création de ces tests peut demander beaucoup de temps et d’efforts. Si vous définissez les conditions et attentes de vos tests de manière incorrecte, vos tests automatisés ne pourront pas valider les aspects appropriés de votre contenu et vous tirerez peu d’avantages à automatiser ces tests.
Conseil
Les tests automatisés sont plus avantageux lorsque vous les intégrez à votre déploiement de solution dans des scénarios de publication de contenu d’entreprise. Par exemple, vous pouvez automatiser des tests en utilisant Azure Pipelines dans le cadre d’un pipeline de validation, ce qui veille à ce que le contenu soit prêt pour le déploiement. Pour obtenir plus d’informations, voir Étape 4 : Déployer le contenu.
Les sections suivantes présentent des considérations importantes pour tester automatiquement des rapports et modèles sémantiques Power BI.
Tests automatisés des modèles sémantiques
Les tests automatisés de modèles sémantiques sont possibles, bien qu’ils nécessitent généralement une installation personnalisée avec des infrastructures et des outils tiers.
Vous pouvez utiliser divers outils et approches pour automatiser les tests de modèles sémantiques.
- Analyseur de Bonnes Pratiques (BPA): L'Analyseur de Bonnes Pratiques vous permet de spécifier des règles que vous pouvez utiliser pour évaluer un modèle sémantique. Vous pouvez exécuter le BPA en utilisant l’Éditeur tabulaire qui identifie toutes les violations de règle dans un modèle sémantique. Vous pouvez automatiser les vérifications pour les violations de règle du BPA en tirant parti de l’interface de ligne de commande (CLI) de l’Éditeur tabulaire avec Azure DevOps, ou dans le cadre d’un autre processus planifié.
- Lien sémantique et notebooks Fabric : les notebooks dans Fabric vous permettent d’utiliser un lien sémantique pour interagir de manière programmatique avec des modèles sémantiques. Vous pouvez utiliser des notebooks afin d’exécuter des infrastructures telles que Great Expectations (GX) pour valider des données. Vous pouvez en outre évaluer des mesures et des requêtes DAX, puis tester les résultats par rapport à des bases de références connues.
Power Automate :Power Automate vous permet d’exécuter des requêtes sur des modèles sémantiques et d’exporter des rapports à l’aide des API RESTPower BI. Vous pouvez vérifier les résultats de la requête par rapport à des bases de référence connues, puis effectuer des actions en aval, comme le déclenchement d’alertes aux propriétaires de contenu.
Conseil
Envisagez de combiner les tests automatisés et l’orchestration de vos modèles sémantiques. Par exemple, vous pouvez exécuter des tests automatisés sur une source de données et un modèle sémantique avant une actualisation en tirant parti de notebooks et de Power Automate. Si les tests échouent, vous pouvez empêcher l’actualisation, ce qui peut également éviter l’arrivée d’erreurs d’actualisation ou de données incorrectes dans des rapports d’activité.
Tests automatisés des rapports
Il existe des options limitées disponibles pour automatiser les tests de rapports. Ces options s’appuient sur des outils externes ou des solutions de la communauté pour valider automatiquement les propriétés des visuels ou des rapports, telles que la validation des métadonnées de rapport ou la simulation des interactions des utilisateurs avec des rapports.
Vous pouvez utiliser divers outils et approches pour automatiser les tests de rapports.
- Les analyseurs de bonnes pratiques de rapport: il existe différents outils tiers qui prennent en charge les fonctionnalités similaires à Best Practice Analyzer pour automatiser la détection des problèmes dans les rapports en examinant la définition du rapport. Deux outils prenant en charge cette fonctionnalité sont PBI Explorer et PBI Inspector.
- Power Automate Desktop: des outils d’automatisation de l’interface utilisateur tels que Selenium pour Python ou Power Automate Desktop vous permettent de simuler des interactions utilisateur avec des rapports. La définition d’un flux utilisateur vous permet de tester la navigation et les interactions. Ces tests réussissent lorsqu’ils peuvent terminer le flux et échouent quand ils détectent des images ou des mots spécifiques à l’écran (comme un message d’erreur ou un visuel vide).
Décider de la façon dont les utilisateurs valident du contenu
Une fois qu’un contenu réussit un test manuel, un test automatisé et une évaluation par un confrère, il peut passer au test utilisateur. Lorsque des utilisateurs testent du contenu, ils fournissent des commentaires subjectifs sur le respect des besoins métier par ce contenu et sur le fait que son fonctionnement répond à leurs attentes, notamment en termes de renvoi de résultats exacts.
La validation de l’utilisateur se produit généralement dans un espace de travail de test. Lorsque vous configurez un espace de travail de test, prenez en compte les considérations suivantes.
- Créer une application de test: si vous envisagez de distribuer du contenu à l’aide d’une application Power BI, configurez une application de test pour que les utilisateurs de test valident le contenu. L’application test doit être identique à l’application que vous configurez en production. Dans la navigation de l’application test, envisagez d’inclure des liens pour la documentation, la formation et les formulaires de commentaires.
- Provisionner l’accès: identifiez un sous-ensemble d’utilisateurs de la communauté qui valideront la solution. Contactez ces utilisateurs et établissez un accord sur le moment et la raison pour laquelle ils doivent valider ce contenu. Veillez ensuite à leur fournir l’accès au contenu et ajoutez-les aux rôles de sécurité appropriés. Partagez des liens vers le contenu ou l’application test avec les utilisateurs afin qu’ils puissent commencer les tests.
- Configurer l’actualisation planifiée: la validation utilisateur s’étend généralement sur une période plus longue. Il est utile de configurer une actualisation planifiée des éléments de données dans l’espace de travail de test afin que les utilisateurs effectuent des tests avec les données les plus récentes.
Important
Quand vous déployez du contenu dans un espace de travail de test, vous devez mettre à jour manuellement l’application avant que les utilisateurs puissent afficher les modifications apportées aux rapports et tableaux de bord.
Remarque
Vous ne pouvez pas déployer ou copier des applications d’un espace de travail dans un autre. Vous devez apporter manuellement des modifications à l’application dans la configuration de cet espace de travail.
Avant de commencer la validation utilisateur, vous devez effectuer les préparations nécessaires.
- Planifiez le moment où la validation utilisateur doit se produire.
- Spécifiez si la validation utilisateur se limite à une période spécifique ou fait partie d’un processus itératif.
- Créez une méthode pour recueillir des commentaires, par exemple en tirant parti de Microsoft Forms.
- Communiquez la planification et les attentes aux utilisateurs impliqués dans la validation.
- Organisez un lancement de la validation utilisateur afin de guider les utilisateurs et gérer les attentes.
- Animez une formation des utilisateurs pour expliquer la validation et le processus des commentaires.
Il existe différentes façons d’encourager la validation utilisateur du contenu.
- Tests d'observatoire: Les tests d’observatoire sont des sessions courtes où les créateurs de contenu observent un ou plusieurs utilisateurs utiliser le contenu sans conseils ni instructions. Lors de ces sessions, les créateurs de contenu utilisent leurs observations pour identifier des défauts, problèmes éventuels ou des améliorations à apporter à la solution. Ces tests peuvent être de grande valeur, car leur organisation nécessite peu de temps et d’efforts et ils sont limités à des fonctionnalités spécifiques ou à des éléments d’une solution. Les tests observatoires sont plus avantageux pour obtenir des commentaires anticipés sur une conception ou une approche, comme avec une preuve de concept (POC).
- tests en groupe de discussion: Les tests en groupe de discussion sont des sessions restreintes organisées avec un petit groupe d'utilisateurs qui parcourent le contenu ensemble. Ces groupes de discussion sont organisés de manière à sélectionner des parties prenantes clés et des experts techniques qui peuvent fournir les meilleurs commentaires sur certaines caractéristiques ou fonctionnalités. Les tests de groupes de discussion peuvent se produire au cours de plusieurs sessions interactives. Les tests de groupes de discussion nécessitent davantage de temps et d’efforts que les tests observatoires, mails ils fournissent des commentaires plus détaillés sur une solution.
- test d’acceptation des utilisateurs: test d’acceptation des utilisateurs (UAT) est un processus formel où un plus grand groupe d’individus de la communauté des utilisateurs valident et fournissent des commentaires asynchrones sur une solution. L’organisation des UAT exige le plus de temps et d’efforts, mais il s’agit de la façon la plus approfondie d’effectuer un test utilisateur. Une fois que les utilisateurs test acceptent la solution et que les problèmes liés aux commentaires sont résolus, le contenu peut être déployé dans l’espace de travail de production.
Après avoir pris votre décision sur la procédure de validation du contenu, vous pouvez planifier la façon de le déployer sur et entre les espaces de travail.
Liste de vérification : voici les décisions et actions clés pour planifier la validation de contenu :
- Conditions de test de conception et de document: décrivez les tests que vous allez effectuer, ce qu’ils testent et comment vous les effectuerez.
- Décider d’un processus d’examen par les pairs: décrivez qui d’autre validera le contenu en dehors de vous-même.
- Décider d’une approche du test manuel: déterminez les outils et fonctionnalités que vous utiliserez pour valider le contenu que vous créez.
- Décider si vous utiliserez des tests automatisés: identifiez si l’échelle et l’étendue de votre contenu justifient que vous configurez des tests automatisés. Dans l’affirmative, veillez à planifier le temps et les ressources nécessaires pour concevoir et implémenter ces tests afin qu’ils valident ce que vous prévoyez.
- Déployer du contenu à partir de l’espace de travail de développement vers l’espace de travail de test: déployez les modifications de l’espace de travail de développement vers l’espace de travail de test afin que les modifications soient visibles pour les utilisateurs. Vérifiez que vous avez effectué les activités postérieures au déploiement nécessaires dans l’espace de travail de test, telles que la configuration et la mise à jour d’une application test.
- Décider d’une approche du test des utilisateurs: décider de la façon dont les utilisateurs valideront le contenu.
- Identifier les utilisateurs de test: identifiez qui parmi la communauté des utilisateurs valide le contenu. Parvenez à un accord avec ces individus sur l’étendue de leurs attentes et de leur participation.
- Collecter les commentaires des utilisateurs: configurez des outils et des processus pour collecter automatiquement des commentaires. Par exemple, vous pouvez utiliser Tâches et Planificateur dans Microsoft Teams ou Microsoft Forms.
- Documentez les résultats des tests: documentez les résultats de la validation de contenu et toutes les modifications apportées à la suite des résultats des tests. Veillez à ce que cette documentation soit facile à trouver.
- Planifier votre déploiement en production: une fois le test utilisateur terminé, préparez-vous à déployer du contenu à partir de l’espace de travail de test vers l’espace de travail de production.
Contenu connexe
Dans l’article suivant de cette série, découvrez comment déployer du contenu dans le cadre de la gestion de cycle de vie du contenu.