Muy buenos días y bienvenidos a Marketing Online, el programa, el podcast en el que hablamos de marketing. Pero no de un marketing cualquiera, sino del marketing que se está comiendo el mundo estos últimos años. El marketing social, el marketing de redes, el marketing digital, el marketing 2.0... en definitiva... marketing online.
¡Por fin es viernes! Ya acabamos la semana, ya pensamos en que haremos este finde. Todo el mundo dedica #FF a todo el mundo en Twitter, y empezamos entrar en modo "ausente". Y cómo hoy toca analitica web, ¿Qué mejor día que hoy para hablar de los test a/b? ¡Ninguno! O sea que empecemos!
¿Qué son los Test A/B?
Los tests A/B son una virguería. Una herramienta poderosísima que antes estaba al alcance de unos pocos debido a su compleja naturaleza, pero que últimamente se ha ido popularizando y extendiendo gracias a sistemas que te permiten utilizarla de forma fácil y simple. Pero primero intentemos contar lo que es... un test A/B es un procedimiento que te permite crear dos variaciones de una misma web, para posteriormente analizar y comparar los resultados que han dado ambas.
Pongamos un ejemplo de esos, que siempre ayuda. Imaginemos que tienes una web, y que en la página inicial tienes una llamada a la acción para que la gente contacte contigo. Se trata de un botón naranja que aparece a la derecha de la pantalla. Por cierto, si no sabéis lo que el la llamada a la acción, escuchad el programa número ocho, en el que hablo deusabilidad y navegabilidad. Bien, pues imaginad que ese botón es, como digo, naranja. Ahora, resulta que leéis en una revista que el color azul es un color que transmite confianza, y que se debería usar para ese tipo de cosas. ¿Qué podemos hacer?
Claro, una opción es cambiar el color del botón y esperar a ver que pasa. Y suponer que si te contacta más gente, pues será que el botón azul es mejor. Y si no notas cambios, pues que da igual el color. Bueno, si.... eso sería un método. Pero el problema de hacerlo así es que hay muchos otros factores que pueden estar influyendo en eso. Por ejemplo, quizás has cambiado el botón a finales de mes. Y claro, a finales de mes la gente tiene menos dinero y gasta menos. O lo has cambiado durante el fin de semana, que la gente ya de por si contacta menos en tu web. O quizás incluso lo has cambiado en enero, en plena cuesta de enero. O quizás justamente lo has cambiado coincidiendo con una campaña de email marketing o de AdWords. Todo eso, y mil variables más, pueden influir. Así pues, ya vemos que hacer una comparativa así, en dos momentos distintos en el tiempo, es muy complicado, porque de un día a otro, cambian muchas cosas que pueden afectar al rendimiento de la web. Lo ideal sería poder comparar lo que se llama "cetibus paribus", o sea, sólo modificando una variable (el color del botón), y nada más.
Eso quiere decir que teóricamente deberíamos tener el botón naranja y azul a la vez, durante un mismo período de tiempo. Pero claro, ¿Cómo se logra eso? ¿Cómo podemos tener dos colores a la vez durante, pongamos, una semana? ¡Ahá! Lo habéis acertado. Con el test A/B.
Lo que hace un test A/B es precisamente eso. Durante el tiempo en el que lo tengamos activo, a cada visita que venga a la web, le mostrará el botón de uno de los dos colores. Al primero que venga, por ejemplo, le mostrará el original, o sea el naranja. Pero a la siguiente visita que venga, que quizás será dos segundos después, le mostrará el azul. Bien, si al cabo del día hemos tenido 500 visitas, a la mitad (250) se les habrá mostrado el naranja, y a la mitad (250) el azul. De este modo, durante esas 24 horas habremos tenido ambos colores a la vez, por así decirlo.
Tenemos que tener en cuenta que el test A/B recuerda a los usuarios, de forma que si alguien que ha visto el color azul regresa al cabo de un día, o de 5, o al cabo de dos semanas, seguirá viendo el azul. O sea, que es consistente, y una vez ha asignado una variación a una persona, la mantiene. De otro modo, sería una locura, pues cada vez que esa persona se conectara, vería un color distinto y de ahí no podría sacar conclusiones ni el Tato. Pero ojo... eso sólo funciona si esa persona se conecta desde el mismo ordenador, de suele ser lo normal, vaya. Pero si la primera vez se conecta desde la oficina y la segunda desde casa, el test A/B no sabrá que se trata de la misma persona, y por tanto puede ser que le muestre la versión naranja. Eso es así porque esta tecnología funciona guardando lo que se llama cookie, o sea un pequeño archivo de texto con esa información en el ordenador des del que se conecta. Así pues, si se cambia de ordenador, eso se pierde. Por cierto, si quieres saber más sobre cookies, hablo más en detalle de ellasen el programa número 11, que tratamos sobre el remarketing.
En fin, así pues, la idea es que durante el tiempo en el que el test A/B está activo, dos versiones de nuestra web están funcionando a la vez. Y vamos recogiendo datos acerca de esas visitas, así como de su comportamiento. A medida que va pasando el tiempo y las visitas, podemos empezar a ver un patrón, o sea, una tendencia en los resultados, que cada vez es más evidente. Quizás en una o dos semanas vemos que las visitas que hemos tenido a la web con el botón azul tiene un 40% más de posibilidades de contactar con nosotros pulsando ese botón que no las que visitan la web con el botón naranja. Evidentemente, si eso fuera así, ya sabemos lo que hacer. Cambiar el botón definitivamente a azul.
Lo curioso (y valioso) de los resultados de los tests A/B es que demuestran que nadie sabe nada. En ocasiones podemos pensar que un color, un tamaño, una ubicación será la ganadora con diferencia, y luego vemos que no es así para nada. Creedme cuando os digo que cuantos más tests A/B hago para mis clientes, más tengo claro que nadie sabe nada. Eso pasa porque nosotros sólo somos una opinión, y es tan correcta o incorrecta como la de cualquier otra persona. Así pues, la única forma de saber si algo funciona mejor que otra cosa, son los datos. Con ellos podemos tomar decisiones. Con 5.000 visitas reales. Y no porque nosotros "creemos" que funcionará mejor.
¿Qué puedo modificar durante un test A/B?
En este ejemplo he hablado del color de un botón. Pero no siempre tiene que ser esto, evidentemente. En lugar de el color podríamos haber cambiado las dimensiones, el tipo de fuente, la forma del botón, o incluso la posición, y que en lugar de estar a la derecha estuviera a la izquierda.
Pero tampoco hace falta que nos ciñamos a ese botón. El cambio lo podemos hacer en cualquier otra parte. Quizás en el logo, en el menú, en el color de fondo de la página, en el texto de la web... en definitiva, lo que haga falta. Pero siempre es recomendable hacer un solo cambio. Pero no más de uno. Porque resulta que si hacemos más de un cambio, por ejemplo, el color del botín y su ubicación, los resultados serán más difíciles de interpretar, porque no sabremos si la mejor o peor rendimiento será debido al cambio de color o al cambio de ubicación. Así pues, mejor los cambios uno a uno.
Aunque ya digo, esto es únicamente una recomendación, pues en ocasiones el test A/B se hace con páginas completamente distintas. O sea, se muestran dos páginas que no tienen nada que ver, radicalmente diferentes, para ver cual convierten mejor. Pero eso suele hacerse como primera fase. Una vez hay una página ganadora, se sigue trabajando en esa haciendo pequeñas modificaciones de la misma, para acabar de optimizar el tema.
Hay un concepto aún más potente que el test A/B, que es el test multivariante. Es más complejo y no vamos a entrar ahora en él, pero es interesante que sepáis que existe, y que consiste en cambiar varios elementos de la web, y generar multiples versiones de la misma. O sea, que si queremos cambiar color (naranja o azul) y posición (derecha o izquierda), nos crea una combinación de todas ellas, generando cuatro versiones (naranja derecha, naranja izquierda, azul derecha, azul izquierda). Es una forma de encontrar la mejor combinación ganadora, pero como veremos, eso requiere un número de visitas bastante potente. Hablemos de ello.
¿Cuanto tiempo debe estar activo un test A/B?
Bueno, este es un concepto interesante, porque en realidad no depende del tiempo, sino del número de visitas. Si tu web tiene una docena de visitas cada día, tardarás mucho tiempo en tener resultados suficientemente fiables como para tomar una decisión. En cambio, si tienes miles de visitas diariamente, en unas pocas semanas podrás hacerlo.
Pensad que en el momento en el que hacéis un test A/B, vuestras visitas se dividen en dos, porque en lugar de tener 1000 visitas, tienes 500 en cada variación. Y si hacéis un multivariante como en el caso que os he comentado, tendréis 4 variaciones. Eso quiere decir que serían sólo 250 visitas. Y La verdad es que 250 visitas son muy pocas para tomar decisiones. Pensad que el nivel de conversiones en la venta online es del 1% de promedio. Con sólo 250 visitas, eso son dos o tres compras. La pura casualidad puede hacer que una de esas variaciones se lleve esas ventas, sin ningún motivo. En cambio, si tenéis 100.000 visitas, cada variación tiene 25.000 visitas, y de ahí si que se pueden conseguir resultados fiables, pues mucha casualidad sería que de 25.000 visitas casualmente fueran todas las buenas.
¿Cuantas visitas debe tener un test A/B?
En fin, la idea es esa. Depende de las visitas, no del tiempo. Pero claro, entonces la pregunta se convierte en ¿Y cuántas visitas necesito para empezar a tomar decisiones? Bueno, pues tal como conté en el programa 8, de usabilidad, como mínimo recomiendo 1.000 visitas mensuales por cada variación. Así pues, si hacemos un test A/B con dos variaciones, necesitaremos un mínimo de 2.000 visitas mensuales.
De todos modos, no debemos preocuparnos por eso, porque el propio test A/B, la aplicación en si, se encarga de hacerlo todo. El sistema ya calcula automáticamente la fiabilidad de los datos, de forma que él nos dice cuando un resultado se puede dar por bueno. Veremos que en función de las visitas, nos indica una fecha aproximada de finalización del test.
¿Y que pasa cuando se acaba el test A/B?
El test A/B se puede acabar sólo, o lo podemos interrumpir. Si se acaba sólo, la propia herramienta nos indica cual es la versión o combinación ganadora. Si queremos aplicar esa versión para que sea la definitiva, sólo se lo tenemos que indicar, y automáticamente nuestra web volverá a ser sólo una, mostrando esa variación.
Otra opción es que lo interrumpamos nosotros antes que se acabe. Si vemos que los resultados son muy evidentes, y que no vale la pena continuar, porque ya vemos claramente que hay una versión perdedora, podemos interrumpir el test y quedarnos con la ganadora. Lo mismo pasa con los tests multivariantes. Si vemos que de las cuatro hay una que da resultados muy pobres, podemos interrumpirla para que sólo queden las otras tres en juego.
¿Y si no tengo tantas visitas?
Algo que puede ser muy común, es que no tengas suficientes visitas como para validar los resultados. Quizás tu web no sea muy conocida, y podrías estar años con un test A/B, e incluso así los resultados son bastante pobres.
En estas ocasiones, la única posibilidad es la de comprar las visitas. O sea, hacer una campaña de AdWords para generar un gran incremento de visitas de forma puntual. De esa forma podremos conseguir ese número crítico de visitas de forma relativamente rápida. Y de paso, también podremos rentabilizar la inversión en AdWords gracias a las compras que nos hagan. Si queréis saber más sobre AdWords, escuchad el programa número cuatro, en el que hablo del tema detalladamente.
La idea está en comprar visitas únicamente durante el tiempo en el que tenemos el test A/B activo, y luego parar la campaña. Pero vamos, también se puede dar el caso que tengas resultados tan buenos gracias a AdWords, que te enganches a ello, y sigas. Eso le ha pasado a algunos clientes míos, que han usado AdWords para acelerar un Test A/B, y al final han optado por mantener AdWords una vez finalizado el test porque han tenido un retorno de la inversión muy bueno.
¿Cómo hago un test A/B?
Muy bien. Supongamos que te he convencido. Que quieres hacer un test A/B. ¿Cómo lo haces? ¿Con qué herramienta? Pues hay muchas, y dependerá de como tengas montada tu página web. Una herramienta que suele funcionar en todos los sistemas, es hacer el test A/B con Google Analytics Experiments. Utilizando la herramienta de Google Analytics, y siguiendo las instrucciones que te van indicando, puedes hacer tu test A/B y ver los resultados en los propios informes de Analytics. Es una opción gratuita y se integra perfectamente con Analytics, por supuesto.
Otra opción es hacerlo con AdWords Campaigns Experiments. Esto no es exactamente un test A/B, pero puede usarse como tal. Consiste en crear un anuncio en una campaña de AdWords con dos variaciones. Y la única diferencia es cambiar la página de destino, o sea, la página a la que mandas al que hace clic. Entonces creas dos páginas iguales en tu web con una sola diferencia y le colocas una página a cada variación. Ese anuncio dirigirá a los usuarios a las distintas páginas a medida que hagan clic. No es un método tan bueno, pero es más fácil de implementar.
Os dejo los enlaces en las notas del programa, para que lo podáis visitar. De todas formas, os aconsejo que contactéis con un experto si queréis hacer un test A/B porque normalmente implica tocar código.
Luego el mercado tiene varias herramientas de pago para hacer tests A/B, pero no voy a hablar de todas ellas, porque depende de que tipo de web tienes, del CMS (gestor de contenidos) que estés utilizando. Lo que haré será hablar de ellos en próximos programas, e incluso tendremos de invitados a los creadores de esos softwares, para que nos lo cuenten de primera mano. De todos modos, si tenéis alguna duda en concreto, podéis contactar conmigo en boluda.com/contactar.
En resumen... el test A/B
En fin, pues esto es todo por hoy, y pasamos al resumen. Un test A/B es ni mas ni menos que una herramienta que te permite probar variaciones de tu página web para ver cual funciona mejor, te vende más productos, o te genera más contactos. Los resultados estarán listos antes o después en función del numero de visitas que tengas, y una vez finalizado y aplicando la variación ganadora, tus resultados mejoraran automáticamente. La parte negativa es que requiere un cierto conocimiento técnico del tema. Pero vale la pena.
Muy bien, pues esto es todo por hoy. Muchas gracias por aguantar mi rollo un viernes por la mañana, o cuando sea que estás escuchando esto, y espero que hayas aprendido algo. Si es así, por favor, dedica un minuto de tu tiempo a valorar este podcast en iTunes con 5 estrellas, que siempre ayuda.
¡Muy buen fin de semana, y nos vemos el lunes!