Nota de AB Tasty: esto es un post de invitado escrito inicialmente por Jack Maden, marketing executive de Decibel Insight.
Según la ley de Sturgeon “el 90% de cualquier cosa es una porquería”. No importa el campo, la industria ni la especialidad: el 90% de algo producido, recomendado o discutido no merece la pena.
La industria de la optimización de conversiones puede ser relativamente nueva pero lo más probable es que la ley de Sturgeon también se aplique. Entonces, ¿puedes evitar estar en ese porcentaje con tus optimizaciones? Los siguientes tres principios básicos te ayudarán en tu ardua tarea.
Que tu hipótesis esté ligada a una métrica en concreto
Testear es bueno para cualquier organización, pero, si cada cosa en la que se piensa se testea, esto puede convertirse una práctica potencialmente peligrosa para la empresa. El testeo necesita tener un propósito.
En nuestro blog, la agencia CountourThis dice que los test multivariante no son los que toman las decisiones. Y es cierto, el testing debería ayudarnos a tomar decisiones informadas, no dictarlas.
La forma en la que puedes asegurarte de que un test tiene un propósito es al ligarlo a una métrica específica. El kit para crear hipótesis de Craig Sullivan es un buen punto de partida. Básicamente dice lo siguiente:
- Debido a que tenemos datos/feedback
- Esperamos que los cambios produzcan efectos
- Mediremos los cambios
Por ejemplo, digamos que descubres que los usuarios de móvil no están convirtiendo en una landing page en concreto. Entonces, realizas un estudio usando mapas de calor y encuentras que solo el 30% de los usuarios móviles están haciendo scroll hasta llegar a ver la llamada a la acción o CTA.
Podemos estructurar la hipótesis de esta manera:
- Debido a que solo el 30% de los usuarios ven la llamada a la acción
- Creemos que al moverla para que aparezca antes aumentará las conversiones.
- Lo mediremos controlando la tasa de conversión de la llamada a la acción.
Esta es una hipótesis que se puede testear y que tiene un propósito. Es mejor usar los recursos de los que dispones para este tipo de hipótesis en lugar de usarlos para testear cualquier cosa por el mero hecho de decir que basas tus decisiones en datos.
Que tu hipótesis se base tanto en datos tanto cuantitativos como cualitativos
Es raro que la generación de hipótesis sea tan simple como en el ejemplo anterior. Los problemas de las páginas web, a menudo, son más complicados de descubrir y puede que no exista una solución obvia. Es entonces, cuando necesitas usar datos cualitativos. Las herramientas de analítica tradicionales ofrecen buenas indicaciones de lo que puede estar fallando en tu sitio web, pero, en lo que a solucionarlo se refiere, no hay nada como ver las grabaciones de la sesión de los usuarios.
Con las grabaciones de la sesión puedes ver exactamente lo que hacen tus usuarios, incluido los errores que cometen. Puedes seguir los movimientos del ratón y los clics y entender cuándo y por qué se sienten frustrados. Digamos, por ejemplo, que ves que un usuario está rellenando un formulario y un pop-up se abre cubriendo la mayor parte de la pantalla. De forma instantánea empatizarás con él y son este tipo de Insights emocionales, los que no puedes obtener a través de otro tipo de herramienta de analítica.
Otro dato cualitativo clave es el feedback del cliente. Esto puede obtenerse a través de elementos que le permitan a este ofrecer su opinión, ya sea a través de pop-ups, cuestionarios, o a través de formas más directas como simplemente hablando con ellos.
Los datos cualitativos pueden alterar tu perspectiva del sitio web. A medida que los problemas se vuelven más complicados, es esencial recogerlos antes de generar hipótesis de test.
No estés demasiado atado a tu hipótesis
Una vez que has ligado tu hipótesis a unas métricas específicas y estas están basadas en una mezcla de datos cuantitativos y cualitativos, puede que empieces a ver el testing como una mera formalidad y que estés seguro de que estos cambios aumentarán tus conversiones.
¡Para el carro! Empieza el test en un estado neutral, ya que estos cambios puede que no funcionen, al fin y al cabo, lo estás testando porque no estás seguro. Este estado neutral te ayudará cuando realices test que fallan. En lugar de entrar en una fase de negación del tipo “nuestros usuarios son tontos”, “nuestra herramienta tiene que estar rota” o “nuestra herramienta de analítica es una basura”, aceptarás el resultado y continuarás buscando nuevas hipótesis de test. Por supuesto, comprueba las veces que sean necesarias que tanto tu herramienta de analítica como la de testing están bien configuradas, pero, una vez que lo hagas, acepta el resultado que obtengas y sigue adelante. Además, un test fallido no es un fracaso, significa que tienes más datos en los que basar tus próximas hipótesis.
¡Recuerda mantener un enfoque científico hasta el final!
¿Qué hago ahora?
Estos tres principios son un buen punto de partida para la creación de buenos test A/B, pero, si quieres estar totalmente fuera del temido 90% de Sturgeon, descarga la guía de optimización de conversiones de Decibel Insight’s.
Sobre el autor: Jack Maden es Marketing Executive en Decibel Insight, la herramienta de analítica de experiencias digitales líder del sector. Conecta con él en Twitter y LinkedIn.