Partager via


Tests A/B dans Dynamics 365 Customer Insights - Journeys

Customer Insights - Journeys utilise de puissants tests A/B pour examiner vos parcours client basés sur des déclencheurs, ce qui vous permet d’obtenir des informations sur la meilleure façon de contacter vos clients.

À l’aide des tests A/B, vous pouvez mesurer le canal ou la stratégie de messagerie de contenu qui conduit à un succès plus élevé. Chaque test compare un groupe témoin d’utilisateurs (version A) à une variante (version B). Le groupe de contrôle reçoit une expérience par défaut. Le groupe de variantes reçoit une expérience ou un message différent. En comparant les résultats des groupes, vous pouvez déterminer lequel est le plus efficace.

Les tests A/B nécessitent une audience de taille significative pour être efficaces. L’exécution de tests sur des audiences inférieures à 1 000 personnes peut produire des résultats inattendus, tels que des distributions inégales dans les variantes. L’exécution de tests sur des groupes extrêmement petits produit presque toujours des distributions disproportionnées. Par exemple, si votre public ne compte que dix membres, il est possible que l’un d’entre eux aille à la variante A tandis que neuf vont à la variante B. Il s’agit d’un comportement attendu lorsque la taille de l’audience est si petite que le modèle statistique ne dispose pas de suffisamment de données pour atteindre la distribution requise.

Exemple 1 : Créer un test A/B pour des parcours basés sur des déclencheurs

Imaginons que vous souhaitiez tester deux e-mails différents dans le cadre d’un parcours basé sur un déclencheur qui s’active lorsqu’un utilisateur effectue un achat.

  1. Créez votre contenu initial dans l’éditeur d’e-mail, comme d’habitude. Perfectionnez le contenu et vérifiez qu’il n’y a pas d’erreurs pour vous assurer qu’il peut être mis en ligne.
  2. Lorsque votre contenu est prêt, accédez à Customer Insights - Journeys>Engagement>Parcours et sélectionnez un parcours existant ou créez-en un nouveau.
  3. Après avoir sélectionné un parcours, sélectionnez le signe plus (+) pour ajouter un élément, puis procédez comme suit :
    • Tester la variation la plus efficace.
  • Sélectionnez les canaux que vous souhaitez tester. Dans cet exemple, vous souhaitez tester deux courriers électroniques : sélectionnez-en un pour la version A et un pour la version B, puis sélectionnez Créer un test.
  1. Lorsque vous sélectionnez la vignette de test A/B, le volet latéral s’ouvre.

    Panneau latéral de test A/B.

    Le volet JSON contient les paramètres suivants :

  • Nom complet : pour identifier votre test, entrez un nom pour celui-ci. Ce nom s’affiche dans le panneau de test A/B et dans l’analyse du parcours du client lorsque vous regardez quels tests sont en cours d’exécution.
  • Versions : choisissez le contenu pour le canal que vous avez préparé à la première étape (dans ce cas, les deux e-mails que vous souhaitez tester). Vous pouvez le faire via une liste déroulante en sélectionnant les vignettes enfants dans le générateur de parcours ou en effectuant une sélection dans le panneau latéral.
  • Audience initiale : il s’agit du groupe d’audience que vous souhaitez retenir des tests A/B avant d’obtenir les résultats. Cette option n’est disponible que pour les parcours basés sur des segments, car vous disposez déjà d’un nombre total de clients pour vous aider à décider du nombre de clients que vous souhaitez retenir. Les parcours basés sur des déclencheurs n’ont pas cette option car les clients entrent lorsqu’ils effectuent une action. En tant que tel, le nombre total de clients qui entrent dans le parcours est inconnu.
  • Distribution de l’expérience : choisissez la distribution de l’audience que vous souhaitez. Le curseur est automatiquement sur 50-50, mais vous pouvez régler le curseur sur la distribution souhaitée. Le minimum qu’une version peut recevoir est de 10 % et le maximum est de 90 %. N’oubliez pas que, traditionnellement, la version A est votre groupe de contrôle et la version B est votre variante.
  • Mesure gagnante : définissez la condition gagnante pour votre test en choisissant une mesure gagnante : la version avec le plus grand nombre d’événements d’objectif de parcours atteints, le plus grand nombre de clics ou le plus grand nombre d’ouvertures. Dans ce cas, vous souhaitez augmenter vos taux d’ouverture, vous choisirez donc l’option de taux d’ouverture.
  • Ce test se termine : choisissez de terminer le test automatiquement ou à une date et une heure spécifiques. Le test détermine automatiquement un gagnant lorsque les résultats atteignent la signification statistique. Cela signifie qu’une fois qu’un gagnant clair est déterminé, le système envoie la version gagnante au reste de votre public. La version perdante est rejetée. Si vous choisissez la signification statistique comme option pour mettre fin au test A/B mais qu’il n’y a pas de gagnant clair après 30 jours, le système envoie automatiquement la version par défaut. Si vous mettez fin au test plus tôt, cela peut prendre jusqu’à quatre heures pour libérer le groupe témoin.
  • Version par défaut : enfin, choisissez une version par défaut, si le test ne se termine pas correctement. Si un gagnant n’est pas déterminé avant la date limite spécifiée dans la date et l’heure, la version par défaut est automatiquement envoyée.
  1. Le test A/B doit ressembler à ceci lorsque vous configurez tout et que vous êtes prêt à publier le parcours :

    Le panneau latéral de test A/B est configuré et prêt pour la création de parcours

Exemple 2 : Créer un test A/B pour des parcours basés sur des segments

Imaginez que vous souhaitiez créer un parcours pour accueillir les nouveaux membres qui ont rejoint votre programme de fidélité ce mois-ci. Vous souhaitez augmenter votre taux d’ouverture en testant deux lignes d’objet différentes.

Vous effectuerez les étapes 1 à 3 décrites dans le premier exemple, mais vous remarquerez que le volet latéral est différent. En effet, avec les parcours basés sur des segments, vous avez un nombre total de clients pour commencer ; cela vous permet de créer deux types de tests A/B.

  1. Test A/B sans groupe de contrôle : ce test A/B se comporte de la même manière que les parcours basés sur des déclencheurs où les clients effectuent le test au fur et à mesure de leur arrivée jusqu’à ce qu’un gagnant soit déterminé.

    Test A/B sans groupe de contrôle

  2. Test A/B avec un groupe de contrôle : cette option vous permet d’indiquer au système le nombre exact de clients que vous souhaitez tester. Par exemple, si votre segment compte 100 membres de fidélité, vous pouvez d’abord tester sur 20 % ou 20 membres où chaque version reçoit 10 membres. Après le test A/B, les 80 membres restants reçoivent la version gagnante. Vous pouvez toujours ajuster le audience initial et la distribution à votre guise.

    Test A/B avec groupe de contrôle

Pour cet exemple, nous utilisons un test A/B avec un groupe témoin. Tous les autres paramètres sont les mêmes que dans le premier exemple.

Surveillez le cycle de vie de vos tests A/B

Après avoir publié votre parcours, vous pouvez l’ouvrir pour suivre le cycle de vie de vos tests.

  • Brouillon : ces tests n’ont pas encore été exécutés, vous pouvez donc toujours modifier les paramètres.
  • En cours : voici des tests en cours d’exécution. Les paramètres sont verrouillés et vous ne pouvez pas apporter de modifications importantes.
  • Arrêté : ces tests sont arrêtés et le spécialiste en marketing peut choisir la version à envoyer.
  • Terminé : ce sont des tests qui ont été effectués en trouvant un gagnant statistiquement significatif ou en expirant lorsqu’il est prévu de se terminer à une date et une heure définies. Les tests terminés ne peuvent pas être réutilisés.

Comprenez vos résultats

Capture d’écran d’analyse d’objectif.

Il existe trois résultats de test A/B possibles :

  • Test conclu avec un gagnant clair : le test a conclu qu’une version fonctionnait mieux que l’autre. La version gagnante a un badge « gagnant » et est distribuée à tous les nouveaux clients qui traversent le parcours.
  • Le test n’a pas été concluant : le test a conclu que les destinataires sont aussi susceptibles de s’engager avec la version A qu’avec la version B. Dans ce cas, la version par défaut est envoyée à tous les nouveaux clients qui traversent le parcours.
  • Le test a été arrêté : cela signifie que vous ou l’un de vos collègues avez arrêté le test avant qu’il ne puisse se terminer. Dans ce cas, la version spécifiée par vous ou votre collègue est envoyée à tous les nouveaux clients qui traversent le parcours.

FAQ

  1. Puis-je avoir un test A/B avec plus de deux versions ?
    • Non, pas pour le moment.
  2. Pourquoi l’option de groupe de contrôle pour les trajets basés sur des segments ne s’affiche-t-elle pas ?
    • Si vous placez une branche d’attribut ou une vignette qui modifie le nombre total du segment, l’option de groupe de contrôle disparaît, car le système ne sait pas combien de clients retenir jusqu’à ce que le test soit terminé.
  3. Pourquoi mon test se termine-t-il de manière inattendue ?
    • Si vous choisissez de terminer le test avec une signification statistique, le système essaie d’obtenir un gagnant dans les 30 jours suivant la publication du parcours. Si aucune version n’est déclarée gagnante, le test se termine et la version par défaut est envoyée au audience restant.