Tests par répartition

Testez différentes stratégies publicitaires sur des audiences qui s’excluent mutuellement pour découvrir ce qui fonctionne. L’API automatise la répartition de l’audience, garantit l’absence de chevauchement entre les groupes et vous permet de tester différentes variables. Testez l’impact, notamment, de types d’audiences, de techniques d’optimisation de la diffusion, de placements publicitaires, de contenus publicitaires et de budgets différents. Vous ou votre partenaire marketing pouvez créer et lancer un test, puis afficher les résultats sur une seule et même interface. Consultez la section Étude publicitaire, Référence.

Règles

  • Définissez les KPI avec votre partenaire marketing ou votre équipe interne avant de créer un test.
  • Niveau de confiance : définissez-le avant de créer un test. Les tests avec une portée plus large, des calendriers plus longs ou des budgets plus élevés ont tendance à fournir des résultats plus significatifs d’un point de vue statistique.
  • Sélectionnez une seule variable par test. Cela permet de déterminer la cause la plus probable à l’origine des différences dans les performances.
  • Tailles de test comparables : lorsque vous testez des indicateurs de volume, par exemple le nombre de conversions, vous devez équilibrer les résultats et les tailles d’audience pour que les deux tailles de test soient comparables.

Restrictions de test

  • Nombre maximal d’études simultanées par annonceur : 100
  • Nombre maximal de cellules par étude : 150
  • Nombre maximal d’entités publicitaires par cellule : 100

Test des variables

Même si vous pouvez tester de nombreux types de variables différents, nous vous recommandons de ne tester qu’une seule variable à la fois. Cela garantira l’intégrité scientifique de votre test et vous permettra d’identifier quelle différence spécifique produit les meilleurs résultats.

Prenons pour exemple un test par répartition avec un ensemble de publicités A et un ensemble de publicités B. Si A utilise les conversions comme méthode d’optimisation de la diffusion et les placements automatiques, tandis que B utilise les clics sur un lien et les placements personnalisés, vous ne pourrez pas déterminer si les meilleurs résultats générés sont dus à une méthode différente d’optimisation de la diffusion ou à des placements différents.

Dans cet exemple, si les deux ensembles de publicités utilisaient les conversions comme méthode d’optimisation de la diffusion, mais avaient des placements différents, vous pourriez savoir quelle stratégie de placement est à l’origine des différences de performance.

Pour configurer ce test au niveau de l’ensemble de publicités :

curl \
-F 'name="new study"' \
-F 'description="test creative"' \ 
-F 'start_time=1478387569' \
-F 'end_time=1479597169' \
-F 'type=SPLIT_TEST' \
-F 'cells=[{name:"Group A",treatment_percentage:50,adsets:[<AD_SET_ID>]},{name:"Group B",treatment_percentage:50,adsets:[<AD_SET_ID>]}]' \
-F 'access_token=<ACCESS_TOKEN>' \ https://graph.facebook.com/<API_VERSION>/<BUSINESS_ID>/ad_studies

Stratégies de test

Vous pouvez tester deux stratégies ou plus pour les comparer les unes aux autres. Par exemple, les publicités avec un objectif de conversion ont-elles un impact plus important sur votre marketing direct que l’objectif de visite de site web ? Pour configurer ce test au niveau de la campagne :

curl \
-F 'name="new study"' \
-F 'description="test creative"' \ 
-F 'start_time=1478387569' \
-F 'end_time=1479597169' \
-F 'type=SPLIT_TEST' \
-F 'cells=[{name:"Group A",treatment_percentage:50,campaigns:[<CAMPAIGN_ID>]},{name:"Group B",treatment_percentage:50,campaigns:[<CAMPAIGN_ID>]}]' \
-F 'access_token=<ACCESS_TOKEN>' \ https://graph.facebook.com/<API_VERSION>/<BUSINESS_ID>/ad_studies

Tests d’évaluation

Pour déterminer quel test obtient les meilleures performances, choisissez une stratégie ou une variable qui a atteint l’indicateur d’efficacité le plus élevé selon votre objectif de campagne. Par exemple, pour tester l’objectif de conversion, l’ensemble de publicités qui obtient le coût par action (CPA) le plus faible obtient les meilleures performances.

Évitez les tests d’évaluation avec des tailles de groupes de test hétérogènes ou des tailles d’audiences sensiblement différentes. Dans ce cas, vous devez augmenter la taille et les résultats d’un groupe de répartition pour qu’il soit comparable à vos autres tests. Si votre budget n’est pas proportionnel à la taille du groupe de test, vous devez prendre en considération le volume des résultats en plus de l’efficacité.

Avant de lancer un test par répartition, vous devez également convenir d’un modèle d’attribution pertinent pour votre entreprise. Si votre modèle d’attribution actuel doit être réévalué, contactez votre représentant Facebook pour effectuer une étude de croissance. Cela peut mettre en évidence l’impact réel de votre stratégie de conversion et de marketing de marque.

Budget

Vous pouvez utiliser des budgets personnalisés pour vos tests par répartition et choisir de tester différents budgets pour les comparer les uns aux autres. Toutefois, le budget a une incidence directe sur la portée de vos groupes de test. Si vos groupes de test entraînent des différences importantes au niveau de la portée ou de la taille de l’audience, vous devez augmenter votre budget pour améliorer vos résultats et rendre votre test comparable.