Optimizar contenidos con A/B testing
¿Cómo optimizar contenidos con «A/B testing»?
Cuando te dicen por primera vez que implementes un test A/B para aumentar el rendimiento de tu negocio, normalmente suena a técnica marketera de lo más puntera. En realidad, no lo es. La esencia del A/B testing es bastante antigua: comparar para tomar decisiones. Pongamos que vas a una entrevista de trabajo y tienes que decidir si ponerte una camisa blanca o una negra; comparas dos situaciones similares y proyectas qué efecto tendría tu ropa: estás haciendo una prueba A/B.
Evidentemente, en el mundo del marketing este ejemplo se queda corto, pero, en el fondo, el mecanismo es bastante similar. Necesitas alcanzar unos objetivos y tomas decisiones al respecto comparando, por ejemplo, dos versiones de una web para ver cuál genera más conversiones con el mismo tráfico. Ya va sonando más común el A/B testing, ¿verdad? Y seguro que lo has puesto en práctica alguna vez sin saberlo, dejándote llevar por la intuición al dividir tu audiencia para comparar su respuesta a diferentes diseños de un ad.
¿Qué es el A/B testing?
Ya hemos dejado claro que el A/B testing consiste básicamente en comparar dos versiones de un mismo producto, web, app, ad… Como ya habrás intuido, a una versión la llamamos “A” y a la otra “B”. Así de sencillo. Hasta aquí, todo se entiende a la perfección, pero qué pasa con la implementación de esta técnica, ¿es igual de sencilla? En teoría sí, pero hay muchas variables a tener en cuenta que pueden complicar un poco el asunto. Por ejemplo, no es lo mismo dividir tu audiencia en grupos de un 1% que definir dos secciones al 50%.
Cuanto más fino quieras hilar, mayor cantidad de datos tendrás. Es decir, tendrás más trabajo de análisis que realizar, pero puede que te interese. La cuestión es que el test se adecúe a las necesidades del momento: cuanto más simple y sencillo, mejor. Obviamente, si tienes acceso a recursos estadísticos que te ayuden a realizar tus análisis, puedes permitirte dejarte llevar un poco más. Como siempre, valora los recursos disponibles y tus necesidades en su conjunto, sin perder de vista tus objetivos principales.
Al final, los objetivos deben justificar todo este esfuerzo que implica diseñar dos webs o dos aplicaciones para luego presentársela a diversos segmentos de tu audiencia. Lo más probable es que busques más clics en tus anuncios, aumentar el ratio de conversiones, incrementar las ventas, captar más suscriptores, generar más leads… Y todo con el mismo tráfico que ya tienes: exprimir al máximo la inversión en adquisición de tráfico, esa es la cuestión.
Optimiza tu web con implementando A/B testing
El A/B testing es una técnica bastante amplia, aplicable a multitud de contextos (diseño web, landing pages, CTA, ads…), pero lo habitual es hacer tests A/B sobre páginas webs y aplicaciones. Ambos tienen puntos en común, aunque cabe apuntar que el A/B testing es algo más sencillo a la hora de comparar versiones diferentes de sitios web (tanto para entornos móviles como para escritorio). Más allá de los objetivos que definamos, la complejidad que presenta el testing A/B para aplicaciones móviles es la predisposición del usuario.
Resulta mucho más rápido y menos invasivo presentar al usuario una web u otra según nuestras necesidades analíticas. Para comparar los resultados obtenidos con dos aplicaciones diferentes, tenemos que esperar que los usuarios las instalen. En muchos casos, resulta complicado comparar dos versiones de una misma app, aunque siempre podemos valernos de las actualizaciones o transformaciones en el diseño de las aplicaciones para realizar cambios en la misma y comparar los resultados.
Tipos de tests A/B más comunes
Hemos visto que el A/B testing consiste en presentar dos diseños de una misma web, aplicación o contenido, esperando respuestas dispares en nuestra audiencia. Esta es la práctica tradicional, pero no la única. Frente al clásico test que nos permite analizar dos variables (las versiones A y B), encontramos el test MVT, con múltiples variantes. Se conoce como test multivariante y, como su propio nombre indica, se utiliza para evaluar variaciones de las versiones principales.
Es decir, podríamos tener una aplicación o una web con los dos diseños básicos (A y B) y, a su vez, realizar pequeños cambios en cada una para afinar al máximo nuestro análisis. Estos cambios pueden ser colores, tipografías, barras de navegación, etc. Se trata de un test bastante similar en lo que a implementación se refiere, pero, por supuesto, es mucho más elaborado y requiere de mucho más esfuerzo, tiempo y trabajo de análisis. En el caso de las comparaciones para páginas web, existe otra forma de implementar el A/B testing: el split.
El split no es más que una prueba A/B que incluye redirecciones. La diferencia frente al A/B testing de toda la vida es que, además de elaborar dos webs diferentes, ambas tienen su propia dirección. Es decir, se manejan dos URLs diferentes, las cuales se pueden mostrar a la audiencia de forma simultánea. Evidentemente, el split es una técnica excelente cuando las versiones a presentar son muy diferentes o cuando nos interesa rehacer totalmente una web. De esta forma, podemos comprobar la respuesta del público objetivo a cambios ligeros y a transformaciones profundas en el diseño de la web.
Tips para poner en práctica un test A/B
El A/B testing ofrece muchas ventajas, y algunas desventajas, claro. Por un lado, las ventajas son, entre otras, la posibilidad de realizar un análisis directo y poner en práctica inmediatamente los cambios deseados para mejorar el producto o servicio. Por otro lado, la mayor desventaja del A/B testing es que solemos partir de una única idea principal, comparando dos diseños; por no mencionar el impacto que puede tener la dicotomía en la percepción de la audiencia.
Para maximizar el efecto de las ventajas y quitarle peso a los posibles efectos adversos de implementar un testing A/B, lo aconsejable es seguir una serie pautas que ayudan bastante a la hora de evaluar los resultados, especialmente si utilizamos redes sociales para hacer llegar a nuestra audiencia las versiones de nuestra web o aplicación. Uno de estos tips es, obviamente, definir bien la audiencia, segmentándola si es necesario para alcanzar nuestros objetivos. Asimismo, además de los cambios propios en las dos versiones presentadas, se puede jugar con diferentes textos en las publicaciones o etiquetas.
Ejemplos de éxito con A/B testing
Amazon, el gigante del A/B testing
Ejemplos de empresas que aplican el A/B testing con bastante éxito hay muchas, pero Amazon se lleva la palma. El equipo de marketing de la criatura de Bezos es incansable. Hacen tests A/B constantemente, prácticamente a todos los servicios que ofrecen. No es de extrañar que sus beneficios suban como la espuma y su ratio de conversiones sea de los más envidiados en todo el ciberespacio. ¿Cómo lo hacen? Pues observan detenidamente, comparan las versiones, analizan en profundidad, aprenden, mejoran… y vuelta a empezar con el proceso de testeo.
Amazon hace A/B testing hasta en las landing pages más simples, como la de Amazon Vehicles. Tal y como indica Wolgang Bremer en Medium, el equipo de Amazon puede llegar a ser muy sutil con las comparaciones, elaborando versiones con diferencias que podrían pasar desapercibidas. Por ejemplo, en la sección de “coches populares” encontramos diferentes colores en la versión A y la versión B de la landing page. En este caso, la versión A muestra colores relativamente neutros, mientras que la versión B ofrece imágenes de coches con colores mucho más vivos.
BuzzFeed y su uso del A/B testing
Los contenidos de BuzzFeed son conocidos por su naturaleza viral y su buen desempeño en redes sociales. ¿Podría tener algo que ver en este éxito la implementación de tests A/B? Parece que sí, aunque solo en parte. Según Walter Menéndez, el “truco” de la empresa de Peretti es una mezcla de testeo e investigación constante, teniendo en cuenta siempre la respuesta emocional del usuario. En este sentido, el testeo A/B no es simplemente una cuestión técnica para vender más, también sirve para mejorar el producto (sus contenidos).
Al final, volvemos a las preguntas elementales y los objetivos básicos. El testeo A/B va a ser el mismo siempre independientemente de la empresa (tienes dos versiones y comparas resultados), pero la intencionalidad va a dirigir la evolución de la compañía, la aceptación de su servicio-producto y, en última instancia, el éxito o fracaso de la empresa. Si te preguntas qué contenido fue más útil para el usuario, el A o el B, más allá de tus ansias por aumentar las ventas, lo más probable es que llegues a conectar mucho más con tu audiencia.
Únete a más de 80.000 clientes en todo el mundo que ya utilizan Textbroker para su estrategia de marketing.
Ningún artículo disponible