Split-Tests

Teste unterschiedliche Werbestrategien mit gegensätzlichen Zielgruppen, um herauszufinden, was besser ankommt. Die API automatisiert die Zielgruppenaufteilung, stellt sicher, dass sich die Gruppen nicht überschneiden, und hilft dir beim Testen verschiedener Variablen. Teste die Auswirkungen verschiedener Zielgruppentypen, Techniken zur Auslieferungsoptimierung, Platzierungen von Werbeanzeigen, Anzeigengestaltungen, Budgets usw. Tests können an einer zentralen Stelle von dir oder deinem Marketingpartner erstellt und gestartet werden. Dort könnt ihr auch die Testergebnisse ansehen. Siehe Werbestudie, Referenz.

Richtlinien

  • Definiere KPIs mit deinem Marketingpartner oder dem internen Team, bevor du einen Test erstellst.
  • Zuverlässigkeitsstufe Lege diesen Wert fest, bevor du einen Test erstellst. Tests mit größerer Reichweite, längeren Laufzeiten oder höheren Budgets liefern meist strategisch signifikantere Ergebnisse.
  • Wähle pro Test nur eine Variable aus. So kannst du die wahrscheinlichste Ursache für Unterschiede in der Performance besser bestimmen.
  • Vergleichbare Testgrößen Wenn du Kennzahlen für Mengen testest, also beispielsweise die Zahl der Conversions, musst du die Ergebnisse und die Zielgruppengrößen skalieren, damit sich die beiden Testgrößen miteinander vergleichen lassen.

Testeinschränkungen

  • Höchstzahl an gleichzeitigen Studien pro Werbetreibendem: 100
  • Höchstzahl an Zellen pro Studie: 150
  • Höchstzahl an Werbeanzeigen pro Zelle: 100

Variablentests

Du kannst zwar verschiedene Arten von Variablen gleichzeitig testen, aber wir empfehlen beim Testen eine Beschränkung auf eine Variable. So bleibt die wissenschaftliche Integrität deines Tests erhalten. Außerdem kannst du den genauen Unterschied ermitteln, der für bessere Performance sorgt.

Stell dir beispielsweise einen Split-Test mit Anzeigengruppe A und Anzeigengruppe B. Wenn A Conversions als Methode zur Auslieferungsoptimierung und automatische Platzierungen einsetzt, B jedoch Link-Klicks zur Auslieferungsoptimierung und benutzerdefinierte Platzierungen, kannst du nicht feststellen, ob die unterschiedlichen Optimierungsmethoden oder die unterschiedlichen Platzierungen zu einer besseren Performance geführt haben.

Wenn in diesem Beispiel beide Anzeigengruppen Conversions für die Auslieferungsoptimierung, aber unterschiedliche Platzierungen genutzt hätten, wüsstest du, dass die Platzierungsstrategie für die Performance-Unterschiede verantwortlich ist.

So richtest du diesen Test auf Anzeigengruppenebene ein:

curl \
-F 'name="new study"' \
-F 'description="test creative"' \ 
-F 'start_time=1478387569' \
-F 'end_time=1479597169' \
-F 'type=SPLIT_TEST' \
-F 'cells=[{name:"Group A",treatment_percentage:50,adsets:[<AD_SET_ID>]},{name:"Group B",treatment_percentage:50,adsets:[<AD_SET_ID>]}]' \
-F 'access_token=<ACCESS_TOKEN>' \ https://graph.facebook.com/<API_VERSION>/<BUSINESS_ID>/ad_studies

Teststrategien

Du kannst zwei oder mehr Strategien miteinander vergleichen. Haben beispielsweise Werbeanzeigen mit dem Ziel „Conversions“ eine größere Auswirkung auf dein Direct Response Marketing als das Ziel „Webseitenbesuche“? So richtest du diesen Test auf Kampagnenebene ein:

curl \
-F 'name="new study"' \
-F 'description="test creative"' \ 
-F 'start_time=1478387569' \
-F 'end_time=1479597169' \
-F 'type=SPLIT_TEST' \
-F 'cells=[{name:"Group A",treatment_percentage:50,campaigns:[<CAMPAIGN_ID>]},{name:"Group B",treatment_percentage:50,campaigns:[<CAMPAIGN_ID>]}]' \
-F 'access_token=<ACCESS_TOKEN>' \ https://graph.facebook.com/<API_VERSION>/<BUSINESS_ID>/ad_studies

Auswerten von Tests

Wähle zur Bestimmung des Tests mit der besten Performance eine Strategie oder Variable, die auf der Basis deines Kampagnenziels die höchste Effizienz-Kennzahl erreicht. Zum Testen des Conversion-Ziels beispielsweise hat die Anzeigengruppe mit dem niedrigsten CPA (Cost per action, Kosten pro Aktion) die beste Performance.

Bewerte am besten keine Tests mit ungleich großen Testgruppen oder großen Unterschieden in der Zielgruppengröße. In diesem Fall solltest du die Größe und die Ergebnisse eines Splits erhöhen, damit er mit den anderen Tests vergleichbar ist. Wenn dein Budget nicht proportional zur Größe der Testgruppe ist, solltest du das Volumen der Ergebnisse zusätzlich zur Effizienz berücksichtigen.

Außerdem solltest du ein Attributionsmodell verwenden, das sich für dein Unternehmen eignet, und dieses vor dem Start eines Split-Tests festlegen. Wenn dein aktuelles Attributionsmodell neu bewertet werden muss, wende dich an deinen Facebook-Ansprechpartner, um eine Lift-Studie auszuführen. So kannst du die echten kausalen Auswirkungen deiner Conversion- und Brand-Marketing-Bemühungen ermitteln.

Budgetierung

Du kannst eigene Budgets mit deinen Split-Tests verwenden und verschiedene Budgets miteinander vergleichen. Das Budget wirkt sich aber direkt auf die Reichweite deiner Testgruppen aus. Wenn deine Testgruppen zu großen Unterschieden in Reichweite oder Zielgruppengröße führen, kannst du das Budget erhöhen, um deine Ergebnisse zu verbessern und den Test vergleichbar zu machen.