Prueba diferentes estrategias publicitarias con públicos que se excluyen mutuamente para ver qué funciona mejor. La API automatiza la división del público, garantiza que no haya superposición entre grupos y te permite probar diferentes variables. Prueba el impacto de diferentes tipos de público, técnicas de optimización de entrega, ubicaciones y contenido del anuncio, presupuestos y más. Tú o tu socio de marketing pueden crear, iniciar y ver los resultados de la prueba en un solo lugar. Consulta la Referencia sobre el estudio del anuncio.
Aunque puedes probar muchos tipos de variables diferentes, te recomendamos que solo lo hagas con una a la vez. Esto asegura la integridad científica de la prueba y te permite identificar la diferencia específica que genera el mejor rendimiento.
Por ejemplo, considera una prueba A/B con un conjunto de anuncios A y uno B. Si A usa conversiones como método de optimización de la entrega y ubicaciones automáticas, mientras B usa clics en el enlace para la optimización de la entrega y ubicaciones personalizadas, no podrás determinar si los diferentes métodos de optimización de la entrega o las diferentes ubicaciones generaron un mejor rendimiento.
En este ejemplo, si ambos conjuntos de anuncios usaron conversiones para la optimización de la entrega pero tuvieron ubicaciones diferentes, sabes que la estrategia de ubicaciones es responsable por las diferencias en el rendimiento.
Para configurar esta prueba en el nivel del conjunto de anuncios:
curl \ -F 'name="new study" \ -F 'description="test creative" \ -F 'start_time=1478387569' \ -F 'end_time=1479597169' \ -F 'type=SPLIT_TEST' \ -F 'cells=[{name:"Group A",treatment_percentage:50,adsets:[<AD_SET_ID>]},{name:"Group B",treatment_percentage:50,adsets:[<AD_SET_ID>]}]' \ -F 'access_token=<ACCESS_TOKEN>' \ https://graph.facebook.com/<API_VERSION>/<BUSINESS_ID>/ad_studies
Puedes probar dos o más estrategias comparativamente. Por ejemplo, ¿los anuncios con el objetivo de conversión tienen un impacto mayor en el marketing de respuesta directa con respecto al objetivo de visitas en el sitio web? Para configurar esta prueba en el nivel de la campaña:
curl \ -F 'name="new study" \ -F 'description="test creative" \ -F 'start_time=1478387569' \ -F 'end_time=1479597169' \ -F 'type=SPLIT_TEST' \ -F 'cells=[{name:"Group A",treatment_percentage:50,campaigns:[<CAMPAIGN_ID>]},{name:"Group B",treatment_percentage:50,campaigns:[<CAMPAIGN_ID>]}]' \ -F 'access_token=<ACCESS_TOKEN>' \ https://graph.facebook.com/<API_VERSION>/<BUSINESS_ID>/ad_studies
Para determinar qué prueba tiene el mejor rendimiento, elige una estrategia o variable con el resultado más eficaz en función del objetivo de la campaña. Por ejemplo, para probar el objetivo de conversión, el conjunto de anuncios que obtenga el costo por acción (CPA) más bajo ofrece el mejor rendimiento.
Evita evaluar pruebas cuyos tamaños del grupo de prueba sean desiguales o que tengan tamaños del público considerablemente diferentes. En este caso, debes aumentar el tamaño y los resultados de una prueba A/B para que sean comparables con las demás. Si el presupuesto no es proporcional al tamaño del grupo de prueba, debes considerar el volumen de los resultados además de la eficacia.
También debes usar un modelo de atribución que tenga sentido para el negocio y definirlo antes de iniciar una prueba A/B. Si debes volver a evaluar el modelo de atribución actual, ponte en contacto con el representante de Facebook para llevar a cabo un estudio de mejora que puede mostrar el verdadero impacto causal de la conversión y las iniciativas de marketing de la marca.
Puedes usar presupuestos personalizados con las pruebas A/B y probar diferentes presupuestos comparativamente. Sin embargo, el presupuesto afecta directamente el alcance para los grupos de prueba. Si los grupos de prueba producen grandes diferencias en el alcance o el tamaño del público, aumenta el presupuesto para mejorar los resultados y hacer que las pruebas sean comparables.