AB Tasty’s note: dit is een gast artikel geschreven door Jack Maden, marketing executive bij Decibel Insight.

Sturgeon’s wet bepaalt dat “90% van alles onzin is”.

Het maakt niet uit in welk veld, welke sector of welk vakgebied het is: 90% van alles dat wordt geproduceerd, aanbevolen of besproken is het niet waard om aandacht aan te besteden.

De conversie optimalisatie branche kan wel relatief nieuw zijn, maar de wet van Sturgeon is nog steeds van toepassing.

Dus hoe kun je voorkomen dat je in deze 90% komt met onzin met je web optimalisatie? Goed, als je testprogramma de volgende drie factoren in acht neemt, dan is het begin goed.

Je hypothesis is gebonden aan een specifieke metric

Het hebben van een test cultuur is positief voor een organisatie. Echter, als je elke issue beantwoordt met het antwoord “we zullen dat moeten testen”, dan kan dat gevaarlijk zijn.

Het testen moet een doel hebben.

Op onze blog schrijft agency CountourThis dat A/B en multivariate testen niet de volle macht moeten hebben bij de besluitvorming. En het is waar: het testen zou moeten helpen met het informeren van de beslissingen, niet om de beslissingen te dicteren.

De manier waarop je kan zorgen dat een test een doel heeft is door het te koppelen aan een specifieke statistiek. Craig Sullivan’s basis hypothese kit is een uitstekende plek om hiermee te beginnen. Het basis framework luidt als volgt:

  1. Omdat we (data/feedback) zagen
  2. Verwachten wij dat (verandering) zal (impact) veroorzaken
  3. We zullen dit meten met behulp van (data metric)

Stel dat je vindt dat mobiele users niet converteren op een bepaalde pagina. Dan laad je een scroll heatmap en vind je dat slechts 30% van alle mobiele users niet ver genoeg scrollen om tot de CTA te komen.

picture1

We kunnen dit als volgt doen:

  1. Omdat slechts 30% van de mobiele users de CTA zien
  2. Verwachten we dat door het verplaatsen van de CTA de visuele hiërarchie zal leiden tot meer conversies
  3. We zullen dit meten met behulp van het bijhouden van het CTA succespercentage

Dit is een testbare hypothese met een doel, en het is een beter gebruik dan om alles te testen, om jezelf ‘data-driven’ te noemen.

Je hypothese is gebaseerd op zowel kwantitatieve als kwalitatieve gegevens

Het is zeldzaam dat hypotheses zo eenvoudig zijn als in het vorige voorbeeld. Website problemen zijn vaak ingewikkeld, en kunnen geen duidelijke oplossing uit zichzelf presenteren.

Dit is wanneer je de kwalitatieve gegevens moet gebruiken. Traditionele analysetools geven een goede indicatie waar de website laakt, maar als het gaat om het begrijpen van die aansluiting, is het bekijken van opnames van individuele gebruiker sessies van onschatbare waarde.

Je kunt precies zien wat je gebruikers te zien krijgen – fouten en al – je kunt hun muisbewegingen en clicks volgen en je kunt direct hun frustraties begrijpen. Stel dat ze een checkout formulier invullen en een pop-up covert vervolgens het hele scherm. Je kunt direct begrijpen en inleven hoe vervelend het is, en het is dit soort emotionele inzicht dat je simpelweg niet van statistieken en grafieken te zien gaat krijgen.

Een ander belangrijk aspect van kwalitatieve data is de feedback van klanten. Dit kan worden bereikt door de stem van de klanten, die gebruik maken van onze tools zoals onsite pop-ups en enquêtes of door meer traditionele directe routes (dat wil zeggen dat je eigenlijk in gesprek bent met ze!).

Kwalitatieve gegevens kunnen radicaal je perspectief veranderen op je website. Omdat de problemen steeds meer ingewikkeld worden, is het essentieel om die gegevens te verzamelen voor het genereren van hypotheses voor A/B testen.

Je bent niet te gehecht aan je hypothese

Wanneer je je hypotheses hebt gekoppeld aan specifieke metrics en hebt gebaseerd op een mix van kwalitatieve en kwantitatieve gegevens, zie je het testen van ze als een formaliteit. Je denkt dat deze veranderingen gegarandeerd zijn om meer conversies te genereren.

Niet te snel.

Ga een test in met een neutrale manier van denken. Deze veranderingen zouden kunnen werken, maar misschien ook niet. Je weet het niet zeker: dat is waarom je ze dus test.

Deze neutrale manier van denken bereidt je voor op het geval wanneer je een mislukte test krijgt. In plaats van de resultaten te verwijderen met dergelijke weigeringen als “onze users zijn dom!”, “onze tool moet kapot zijn”  of “onze analytics zijn onzinnig”. Je kunt de uitslag accepteren en verder gaan met het bedenken van nieuwe hypotheses.

Ga voor de zekerheid de setup van je tool en analytics tweemaal, driemaal of zelfs viermaal controleren, maar als je eenmaal zeker weet dat de setup correct is ingesteld: accepteer dan de uitkomst van de test en ga verder.

Trouwens, een verliezende A/B test is geen mislukking: nu heb je meer data waarop je de volgende hypothese op kunt baseren.

Dus vergeet niet, handhaaf je wetenschappelijke benadering tot het bittere einde!

Wat nu?

Deze drie factoren zijn een goed uitgangspunt voor het uitvoeren van zinvolle A/B testen. Maar om echt te zorgen dat je op het juiste pad zit van de wet van Sturgeon, download dan de Decibel Insight’s conversie optimalisatie gids. Het zit vol met inzichten in de branche – en het is gratis!

Over de auteur: Jack Maden is Marketing Executive bij Decibel Insight, de toonaangevende digitale ervaring analytics technologie. Connect met hem op Twitter en LinkedIn.