Blogartikel

9min. Lesezeit

Berechnung der Stichprobengröße bei A/B-Tests: 7 Best Practices

Die Berechnung der Stichprobengröße für A/B-Tests leicht gemacht

Im Kern zielt der A/B-Testing-Prozess darauf ab, zuverlässige Ergebnisse zu liefern, damit Sie fundierte Entscheidungen auf Basis harter Daten und nicht Ihres Bauchgefühls treffen können.

Wie viele Besucher Sie allerdings benötigen, um diesen Ergebnissen zu 100 % vertrauen zu können, hängt wiederum von verschiedenen Faktoren ab. Zum Glück stehen Ihnen heutzutage zahlreiche Online-Tools zur Verfügung, die diese Berechnung übernehmen und Unsicherheiten aus dem Prozess entfernen – und das ganz ohne Mathematikstudium.

Ein weißer Taschenrechner.

So funktioniert die Berechnung der Stichprobengröße

Der entscheidende Grund, die optimale Stichprobengröße für einen Test zu berechnen, liegt darin, dass sie Ihre gesamte Zielgruppe möglichst realistisch abbildet. Nur so werden die Ergebnisse belastbar und Sie vermeiden Fehlinterpretationen, wie etwa falsche positive oder negative Resultate.

Ist die Stichprobe zu klein, können die Ergebnisse stark verzerrt sein. Ist sie hingegen zu groß, investieren Sie unnötig Zeit und Ressourcen, ohne zusätzlichen Erkenntnisgewinn.

Als grobe Faustregel gilt, dass pro Testvariante mindestens 10.000 Besucher einbezogen sowie mindestens 300 Conversions erzielt werden sollten. Die exakte Stichprobengröße lässt sich für jede A/B-Testvariante mithilfe einer standardisierten mathematischen Formel berechnen, die wie folgt aussieht:

Die Formel zur Berechnung der Stichprobengröße

Hier finden Sie eine Übersicht darüber, wofür die einzelnen Variablen in der Gleichung stehen:

  • n bezeichnet die benötigte Stichprobengröße pro Testvariante. (Sample Size)
  • p1 ist die Ausgangs-Konversionsrate, also die aktuelle Basislinie. (Baseline Conversion Rate)
  • p2 beschreibt die Konversionsrate nach der erwarteten Veränderung, basierend auf dem minimal messbaren Effekt (Minimum Detectable Effect / MDE).
  • Z⍺/2 steht für den Z-Wert des Signifikanzniveaus und gibt an, wie sicher Sie sein können, dass das Ergebnis nicht zufällig entstanden ist. (Statistical Significance Level)
  • Zβ steht für den Z-Wert der Teststärke, also dafür, wie wahrscheinlich es ist, dass ein tatsächlicher Effekt auch erkannt wird. (Statistical Power)

Klingt kompliziert? Bevor Sie jetzt allerdings zum Mathebuch greifen, bleiben Sie erstmal entspannt. Werfen wir stattdessen einen Blick darauf, was die einzelnen Variablen im Detail bedeuten:

  • Die Baseline Conversion Rate beschreibt die aktuelle Konversionsrate für das Ziel, das Sie verbessern möchten. Das kann zum Beispiel die Anmelderate, die Kaufabschlussrate oder die Klickrate sein.
  • Der Minimum Detectable Effect, kurz MDE, steht für die kleinste Veränderung der Konversionsrate, die Sie mit statistischer Sicherheit nachweisen möchten. Er bestimmt damit, wie feinfühlig Ihr A/B-Test auf Unterschiede reagiert.
  • Statistical Significance Level: Das Signifikanzniveau gibt an, wie wahrscheinlich es ist, dass der Unterschied zwischen Ihrer Ausgangsrate und der Konversionsrate einer Testvariante nicht zufällig entstanden ist. Als gängiger Standard gelten hierbei 95 Prozent. Der zugehörige Z-Wert liegt somit bei 1,96.
  • Statistical Power: Die Teststärke beschreibt die Wahrscheinlichkeit, dass Ihr Test einen tatsächlich vorhandenen Effekt auch erkennt. Üblicherweise wird hier mit 80 Prozent gearbeitet. Das bedeutet, Sie haben eine 80-prozentige Chance, einen echten Gewinner zu identifizieren. Der entsprechende Z-Wert beträgt 0,84.
Steigern Sie Ihre Konversionsraten, indem Sie personalisierte Erlebnisse schaffen.

Zum Glück gibt es inzwischen zahlreiche Online-Tools, die Ihnen diese zunächst recht komplex wirkende Berechnung abnehmen. In den meisten Fällen reicht es aus, einfach in diese, die zuvor genannten Variablen einzugeben, und Sie erhalten direkt eine verlässliche Einschätzung.

Wichtig ist dabei zu beachten, dass sowohl der Minimum Detectable Effect als auch die Statistical Power einen direkten Einfluss auf die benötigte Stichprobengröße haben. Wenn Sie eine höhere Statistical Power anstreben oder einen kleineren Minimum Detectable Effect festlegen, muss Ihre Stichprobe entsprechend größer sein. Das wirkt sich wiederum auf die Laufzeit des Tests und den erforderlichen Ressourceneinsatz aus.

Irgendwann stellt sich daher ganz zwangsläufig die Frage, ob sich dieser zusätzliche Aufwand am Ende noch lohnt.

Verschiedene Ansätze zur Berechnung des Stichprobenumfangs

Viele Plattformen empfehlen, die Stichprobengröße eines A/B-Tests erst in der Planungsphase direkt vor Testbeginn zu berechnen. Aus Sicht von AB Tasty greift das jedoch zu kurz. Denn wenn sich erst dann herausstellen sollte, dass die benötigte Stichprobe zu groß ist und der Test dadurch zu lange laufen würde, ist es oft bereits zu spät. In solchen Fällen lohnt es sich schlicht nicht mehr, die Testvariante überhaupt umzusetzen.

Aus diesem Grund hat AB Tasty einen MDE-Rechner entwickelt, der bereits vor der eigentlichen Testplanung ansetzt. Damit können Sie frühzeitig abschätzen, welcher Mindestanstieg erforderlich ist und wie lange ein Experiment basierend auf Ihren realen historischen Daten laufen müsste, um statistische Signifikanz zu erreichen. So stellen Sie sicher, dass Sie von Anfang an mit realistischen Erwartungen arbeiten.

Die Nutzung unseres Minimum Detectable Effect Calculators ist dabei denkbar einfach:

1

Eingeben

Basislinie definieren

Geben Sie Ihre aktuellen Website-Besucherzahlen sowie die Conversion-Rate für das konkrete Ziel ein, das Sie verbessern möchten.

2

Berechnen

Chancen identifizieren

Der Rechner schätzt den für die Signifikanz erforderlichen Mindestanstieg. Sehen Sie genau, wie viele Tage es dauert, bis Ihre Konfidenzschwelle erreicht ist.

3

Starten

Verlust vermeiden

Verschwenden Sie keine Zeit und Ressourcen für Tests, die voraussichtlich keine schlüssigen oder statistisch signifikanten Ergebnisse liefern werden.

Zusätzlich steht Ihnen ein Stichprobengrößenrechner zur Verfügung, mit dem Sie die benötigte Anzahl an Besuchern für Ihren Test bestimmen und abschätzen können, wie lange Ihr Test laufen sollte, um die gewünschten Ergebnisse zu erzielen. Dieses Tool ist jedoch für laufende Tests gedacht und nicht für die Planung vor dem Teststart.

So berechnen Sie die Besucherzahl:

  • Sie geben die aktuelle Konversionsrate für das Ziel ein, das Sie verbessern möchten, sowie den erwarteten Anstieg zwischen den Testvarianten.
  • Unser Rechner schätzt dann die erforderliche Anzahl an Besuchern pro Testvariante.

So berechnen Sie die Dauer Ihres A/B-Tests:

  • Zusätzlich zu den im vorherigen Schritt eingegebenen Informationen geben Sie die durchschnittliche Anzahl der täglichen Unique Visitors einer getesteten Seite sowie die Gesamtzahl der Testvarianten einschließlich der Kontrollversion ein.
  • Unser Rechner schätzt dann die minimal erforderliche Testdauer in Tagen, um die gewünschten Ergebnisse zu erzielen. Diese Zahl ist jedoch mit einer Einschränkung verbunden, wie wir in weiterer Folge noch erläutern werden.

Best Practices und Fallstricke

Sehen wir uns nun einige der wichtigsten Dos und Don’ts an, die man bei der Berechnung der Testdauer und des Stichprobenumfangs beachten sollte.

1. Testen Sie für mindestens 14 Tage

Selbst wenn Sie Ihre erforderliche Stichprobengröße bereits nach wenigen Tagen erreichen oder der Rechner eine kürzere Testdauer nahelegt, gilt es als Best Practice, einen A/B-Test mindestens zwei Wochen laufen zu lassen.

So werden Schwankungen im Nutzerverhalten besser ausgeglichen, etwa Unterschiede zwischen Wochentagen und Wochenenden, wodurch Ihre Datenbasis deutlich verlässlicher wird.

2. Berücksichtigen Sie externe Faktoren wie saisonale Schwankungen

Bestimmte Zeitpunkte im Jahr, etwa Weihnachten, Black Friday oder lange Wochenenden, können Ihre Ergebnisse stark verzerren, wenn ein Test genau zu diesen Momenten läuft. Wenn Sie möchten, dass Ihre Stichprobe Ihre Zielgruppe realistisch abbildet, sollten Sie solche Sondereffekte unbedingt vermeiden.

3. Beenden Sie Tests nicht zu früh

Sie sollten außerdem der Versuchung widerstehen, Tests bereits vor Erreichen der geplanten Testdauer oder Stichprobengröße auszuwerten. Andernfalls steigt das Risiko erheblich, zu falschen Schlussfolgerungen zu gelangen.

Unser KI-Agent „Evi Analysis“ stützt sich auf statistische Signifikanz, um einen Gewinner zu ermitteln. Damit er seine Aufgabe korrekt erfüllen kann, sollten Sie Evi erst dann bitten, die Ergebnisse zu interpretieren, wenn der Test die vom Stichprobengrößenrechner empfohlene Besucherzahl erreicht hat.

Denn Evi Analysis kann nicht von sich aus wissen, dass Sie ursprünglich eine Stichprobengröße von beispielsweise 100.000 Besuchern geplant hatten, sich danach aber entschieden haben, den Test bereits nach 10.000 Besuchern zu beenden.

4. Vergessen Sie nicht auf die praktische Anwendbarkeit

Auch wenn die Testergebnisse statistisch signifikant sein sollten, bedeutet das nicht automatisch, dass sie für Ihr Unternehmen von praktischem Nutzen sind. Wenn die Umsetzung einer aus den Testergebnissen abgeleiteten Änderung zu kostspielig wäre, lohnt es sich möglicherweise gar nicht erst, den Test durchzuführen.

5. Priorisieren Sie Seiten mit hohem Traffic

Zu Beginn sollten Sie Ihre Tests auf die Seiten Ihrer Website konzentrieren, die den meisten Traffic erhalten. Dazu zählen beispielsweise die Startseite, Produktübersichtsseiten und Produktseiten. Durch das höhere Besucheraufkommen auf diesen Seiten können Sie schneller ausreichend Daten sammeln und Ihre Tests zügiger durchführen.

6. Begrenzen Sie die Anzahl der Varianten

Das gleichzeitige Testen mehrerer Varianten mag effizienter erscheinen, erhöht jedoch das Risiko von falsch positiven Ergebnissen. Wenn Sie Tests auf Seiten mit geringem Besucheraufkommen durchführen, verhindert die Verwendung einer geringeren Anzahl von Varianten, dass die Stichprobe der Besucher zu dünn gestreut wird.

7. Zielen Sie bewusst breit

Führen Sie nach Möglichkeit A/B-Tests in mehreren Ländern oder Marktsegmenten durch, um den Stichprobenumfang zu vergrößern.

Fazit: Von Vermutungen zu Wachstum

Die Berechnung der richtigen Stichprobengröße für Ihre A/B-Tests ist der Schlüssel zu statistisch signifikanten Ergebnissen, auf die Sie sich zu 100 % verlassen können. Sie müssen jedoch heutzutage kein Mathegenie mehr sein, um verlässlich herauszufinden, wie groß Ihre Stichprobengröße sein sollte.

Indem Sie unseren MDE-Rechner für die Vorabplanung Ihrer Tests nutzen und sich an die Best Practices für Stichprobengröße und Testdauer halten, können Sie sicherstellen, dass Ihre A/B-Tests sowohl effektiv als auch zuverlässig sind.

Sind Sie bereit, das Rechnen hinter sich zu lassen und mit dem Umsetzen zu beginnen?

Häufige Fragen zur Berechnung der Stichprobengröße bei A/B-Tests

Haben Sie noch Fragen zur Berechnung der Stichprobengröße? Hier finden Sie die Antworten, die Sie suchen.

Profile Image

Blogartikel

5min. Lesezeit

Skriptausführungszeit: Warum AB Tasty 4x schneller liefert

Hallo! Ich bin Léo, Produktmanager bei AB Tasty. Ich bin verantwortlich für das JavaScript-Tag von AB Tasty, das derzeit auf Tausenden von Websites weltweit läuft. Wie du dir denken kannst, ist meine Roadmap voll mit Themen rund um Datenerfassung, Datenschutz und… Performance.

Deshalb freue ich mich, ein Update zu unserer Leistung zu geben und zu zeigen, wie hart wir daran gearbeitet haben, die Besten zu sein. Wir bieten jetzt Ladezeiten, die bis zu 4-mal schneller sind als andere Lösungen auf dem Markt.

In einer Welt, in der jede Sekunde zählt, führen langsam ladende Seiten schnell zu Umsatzeinbußen. Bei AB Tasty wissen wir, dass Geschwindigkeit nicht nur eine Frage des Komforts ist, sondern entscheidend für ein reibungsloses, verlässliches Erlebnis, das heutige Verbraucher erwarten.

Deshalb sind wir stolz darauf, von ThirdPartyWeb.today als eine der Plattformen mit den geringsten Auswirkungen auf die Web-Performance unter den führenden Experimentation- und Personalisierungsplattformen anerkannt zu werden. Diese Auszeichnung bestätigt unser Engagement für Geschwindigkeit, Skalierbarkeit und Kundenzufriedenheit.

Aber was bedeutet das eigentlich für Marken, die AB Tasty nutzen?

Werfen wir einen Blick darauf, wie die Priorisierung der Performance deine SERP-Rankings, die Customer Experience (CX) und die Effektivität deiner Kampagnen insgesamt verbessern kann.

Warum Web-Performance deine Ergebnisse beeinflusst

Stell dir vor, du klickst auf eine Seite, die ewig lädt. Wahrscheinlich wärst du schneller wieder weg, als du „Conversion Rate“ sagen kannst. Und du wärst nicht allein: Langsame Ladezeiten führen oft zu höheren Absprungraten, verpassten Chancen und letztlich frustrierten Besuchern.

Gute Performance bedeutet eine reibungslose Customer Journey, was zu besserem Engagement und höheren Conversion Rates führt.

ThirdPartyWeb.today: Der Performance-Benchmark

ThirdPartyWeb.today ist eine unabhängige Plattform zur Visualisierung von Performance-Daten, die den Einfluss verschiedener Tools auf die Seitenladezeit analysiert. Sie stuft Tools nach ihrem Performance-Kostenfaktor ein, basierend auf Daten von fast 4 Millionen Websites, und schafft so einen objektiven Performance Benchmark. Für Marken, die eine nahtlose Benutzererfahrung ohne Geschwindigkeitseinbußen bieten wollen, ist ThirdPartyWeb.today eine zuverlässige Quelle zur Bewertung der Performance-Auswertungen ihrer Tools.

Dass wir von ThirdPartyWeb.today als eine der performancefreundlichsten Experience-Optimierungsplattformen anerkannt wurden, zeigt, dass unsere Kunden auf eine Technologie setzen, die Geschwindigkeit in den Vordergrund stellt.

Warum ist AB Tasty so schnell?

Unsere Entwicklerteams haben hart daran gearbeitet, AB Tasty nicht nur zu einer intuitiven Plattform für Experimentation und Personalisierung zu machen, sondern auch eine, die hohe Performance in den Vordergrund stellt. Hier ein kurzer Überblick über die Innovationen, die AB Tasty so schnell und zuverlässig machen:

  1. Modulare Architektur mit innovativem Dynamic Importing und Smart-Caching-Technologie

Unsere Plattform basiert auf einer modularen Architektur, bei der nur der essentielle Code für jede Kampagne geladen wird. So bleiben die Dateigrößen schlank, was Ladezeit und Ressourcenverbrauch reduziert. Unsere firmeneigene Smart-Caching-Technologie stellt sicher, dass Besucher nur die Daten laden, die sie noch nicht abgerufen haben. Durch die Minimierung redundanter Datenabrufe verkürzen wir die Ladezeiten auf allen Geräten erheblich. Zusätzlich bieten wir weltweite API-Endpunkte und verfügen über eine globale CDN-Präsenz mit mehreren Edge-Standorten und regionalen Edge-Caches, die schnelle Antwortzeiten gewährleisten – egal, wo du und deine Website-Besucher sich befinden.

  1. Performance Center

Das spezielle Performance Center von AB Tasty ermöglicht es dir, die Performance deiner Kampagnen in Echtzeit zu überwachen. Dieses Tool bietet dir volle Transparenz darüber, was hinter den Kulissen passiert, sodass du bei Bedarf Anpassungen vornehmen kannst, um einen reibungslosen Ablauf zu gewährleisten. Es gibt Empfehlungen, um die Tag-Größe zu überwachen und zu optimieren.

Erfahre hier alles darüber.


  1. Kompatibilität mit Single-Page Applications (SPA)

Die Plattform von AB Tasty ist ohne benutzerdefinierten Code SPA-kompatibel, was es Entwicklern erleichtert, AB Tasty in ihre Technologie-Umgebung zu integrieren. AB Tasty basiert auf einem nativen Vanilla-TypeScript-Framework. Unser Tag ist kompatibel mit modernen JS-Frameworks wie React, Angular, Vue, Meteor und Ember. Das Tag ist für alle Umgebungen einzigartig und erfordert keine zusätzliche Implementierung. Viele unserer Kunden sind von ihrem vorherigen Anbieter zu uns gewechselt, da es bei anderen Tools Herausforderungen mit SPA-Seiten gab. In diesen Tools sind Änderungen bei dynamischem Content oft nicht „persistent“ oder flackern. Zudem benötigen SPA-Tests in solchen Umgebungen häufig benutzerdefinierten Code für jeden Test, was das Testen komplizierter und weniger benutzerfreundlich macht.

  1. Flicker-freie Erlebnisse

Das Tag von AB Tasty verwendet eine kombinierte Methode aus synchronen und asynchronen Skripten, um Flackern zu vermeiden und gleichzeitig eine optimierte Performance aufrechtzuerhalten. Andere Lösungen empfehlen „Anti-Flicker“-Snippets, um das Flackern zu verhindern – was jedoch nicht als bestes Verfahren gilt. Dabei wird der Seiteninhalt ausgeblendet, während das Tag lädt, was letztlich die Seitenanzeige verzögert. Dies verschlechtert das Benutzererlebnis, erhöht den Largest Contentful Paint (LCP)-Wert und kann letztlich zu höheren Absprungraten und geringeren Conversions führen. Im Gegensatz dazu verwendet das synchrone Tag von AB Tasty nur 3 KB render-blockierende Daten, um eine schnelle Ausführung des Tags vor dem Laden der Seite zu ermöglichen, anstatt die gesamte Seitensichtbarkeit für die volle Paketgröße zu blockieren.

Und das bedeutet…

Erste Ladezeit < 100 ms
Cache-Ladezeit < 10 ms
Ausführungszeit < 500 ms
Minimale Auswirkungen auf die Core Web Vitals von Lighthouse

Ein Dank an unsere Produkt- und Tech-Teams

Das wäre ohne das Engagement unserer Produkt- und Tech-Teams nicht möglich (danke, Team!). Wir haben es gewagt, innovativ zu sein und die Grenzen dessen, was im Bereich Web-Performance für Experimentation und Personalisierung möglich ist, neu zu definieren.

Fazit

Wenn Marken sich für AB Tasty entscheiden, wählen sie eine Plattform, die sowohl Innovation als auch Performance priorisiert. Indem wir die Auswirkungen auf die Web-Performance minimieren, helfen wir Marken, schnellere und bessere Erlebnisse zu schaffen, die Kunden begeistern und Ergebnisse liefern.

Neugierig, mehr zu erfahren? Kontaktiere uns noch heute, um herauszufinden, was uns sonst noch auszeichnet.

Blogartikel

9min. Lesezeit

A/B-, Split Testing oder MVT: So wählst du die richtige Testmethode aus

In der schnelllebigen Welt des digitalen Marketings ist es einfach keine Option, sich mit weniger als der besten Benutzererfahrung zufrieden zu geben.

Jede Marketingstrategie ist verbesserungsfähig, und das Erkennen versteckter Möglichkeiten ist die Voraussetzung dafür, mehr zu erreichen.

Mit Analysedaten und ein wenig Kreativität kannst du wertvolle Erkenntnisse darüber gewinnen, wie du deine Conversion Rate auf deiner Website oder den Landing Pages deiner Kampagne optimieren kannst. Um jedoch strukturierte und optimierte Daten aus deinen Annahmen zu erhalten, musst du sorgfältig testen.

Marketingfachleute haben immer wieder verschiedene Testmethoden wie A/B-Tests, Split-Tests, multivariates Testing (MVT) und Multipage-Tests eingesetzt, um die Conversion Rate zu erhöhen und die digitale Performance zu verbessern.

Experimente und Tests sind unerlässlich, da sie Meinungen und Voreingenommenheit aus dem Entscheidungsprozess ausschließen und datengestützte Entscheidungen gewährleisten.

Angesichts der vielen verschiedenen Testmöglichkeiten kann es schwierig sein, den richtigen Ausgangspunkt zu finden. In diesem Artikel gehen wir auf die Besonderheiten der verschiedenen Testformen ein, um dir die Navigation in dieser Testing-Landschaft zu erleichtern.

Was ist A/B-Testing?

flowers-366155_1280

A/B-Testing ist eine Methode der Website-Optimierung, bei der zwei Versionen derselben Seite miteinander verglichen werden: Variante A und Variante B. Für den Vergleich werden üblicherweise die Conversion Rate und die für dein Unternehmen wichtigen Metriken (Klicks, Seitenaufrufe, Käufe usw.) unter Verwendung von Live Traffic betrachtet.

Es ist auch möglich, einen A/B/C/D-Test durchzuführen, wenn du mehr als zwei Inhaltsvarianten testen musst. Mit der A/B/C/D-Methode kannst du drei oder mehr Varianten einer Seite auf einmal testen, anstatt nur eine Variante gegen die Kontrollversion der Seite zu testen.

Wann sind A/B-Tests sinnvoll?

A/B-Tests sind eine hervorragende Methode, um radikal unterschiedliche Ideen zur Optimierung der Conversion Rate oder kleine Änderungen auf einer Seite zu testen.

A/B-Testing ist die richtige Methode für dich, wenn du keine großen Besucherzahlen auf deiner Website hast. Warum ist das so? A/B-Tests können sehr schnell verlässliche Daten liefern, ohne dass eine große Anzahl von Besuchern erforderlich ist. Dies ist ein großartiger Ansatz zum Experimentieren, um die Testzeit zu maximieren und schnelle Ergebnisse zu erzielen.

Wenn du eine stark frequentierte Website hast, kannst du die Performance einer viel breiteren Palette von Varianten bewerten. Es ist jedoch nicht notwendig, 20 verschiedene Varianten desselben Elements zu testen, selbst wenn du genügend Besucher hast. Es ist wichtig, mit einer Strategie an das Experimentieren heranzugehen.

Möchtest du mit dem Testen beginnen? AB Tasty ist die best-in-class Plattform zur Optimierung von Erlebnissen, mit der du schnell eine reichhaltigere digitale Experience schaffen kannst. Von Experimentation bis hin zur Personalisierung kann dir diese Lösung helfen, deine Zielgruppe zu aktivieren und zu binden, um deine Conversions zu steigern.

Split Testing vs. A/B-Testing

A/B-Tests und Split-Tests entsprechen im Wesentlichen demselben Konzept.

„A/B“ bezieht sich auf zwei Varianten derselben URL, wobei die Änderungen „live“ mithilfe von JavaScript auf der Originalseite vorgenommen werden. SaaS-Tools, die dir einen visuellen Editor zur Verfügung stellen, wie AB Tasty, ermöglichen es dir, diese Änderungen schnell und ohne technische Kenntnisse zu erstellen.

Der Begriff „Split“ bezieht sich auf die Umleitung des Traffics auf die eine oder andere Variante, die jeweils unter einer eigenen URL gehostet und im Code völlig neu gestaltet wird.

A/B-Tests funktionieren auf die gleiche Weise wie Split-Tests.

Die Variantenseite kann sich in vielen Aspekten unterscheiden, je nach der von dir aufgestellten Testhypothese und deinen Branchenzielen (Layout, Design, Bilder, Überschriften, Unterüberschriften, Call-to-Actions, Angebote, Button-Farben usw.).

In jedem Fall wird die Anzahl der Conversions auf jeder Seitenvariante verglichen, sobald jede Variante genügend Besucher erhält.

Bei A/B-Tests wird die Auswirkung des Designs als Ganzes verfolgt, nicht einzelne Elemente – auch wenn viele Designelemente bei den Varianten gleichzeitig geändert werden können.

TIPP: Denk daran, dass es beim Testen vor allem darum geht, die Leistung der Varianten zu vergleichen. Es wird empfohlen, nicht zu viele Änderungen zwischen der Kontroll- und der Variationsversion der Seite gleichzeitig vorzunehmen. Du solltest die Anzahl der Änderungen begrenzen, um die Auswirkungen der Ergebnisse besser zu verstehen. Langfristig wird ein kontinuierlicher Verbesserungsprozess zu einer besseren und dauerhaften Leistung führen.

Was ist Multivariate Testing (MVT)?

magic-cube-378543_1280

Multivariate Testing (MVT) oder Multivariantentests sind in ihrem Kernmechanismus und ihrer Philosophie mit A/B-Tests identisch. Der Unterschied besteht darin, dass du mit multivariaten Tests eine größere Anzahl von Variablen und die Wechselwirkungen zwischen ihnen vergleichen kannst. Mit anderen Worten: Du kannst Änderungen an mehreren Abschnitten auf einer einzigen Seite testen und verfolgen.

Für multivariate Tests musst du einige wichtige Seitenabschnitte identifizieren und dann Varianten speziell für diese Abschnitte erstellen. Du erstellst keine Variationen für eine ganze Seite, wie du es bei A/B-Tests tust.

TIPP: Verwende Multivariate Testing (MVT), wenn mehrere Elementkombinationen auf deiner Website oder Landing Page in Frage gestellt werden sollen.

Multivariate Testing (MVT) liefert mehr Informationen darüber, wie diese Änderungen an mehreren Abschnitten miteinander interagieren. Bei multivariaten Tests wird der Website-Traffic auf jede mögliche Kombination einer Seite aufgeteilt, wobei die Wirksamkeit der Änderungen gemessen wird.

Es ist sehr üblich, multivariate Tests zu verwenden, um eine bestehende Website oder Landing Page zu optimieren, ohne eine bedeutende Investition in ein Redesign zu tätigen.

Obwohl diese Art des Testens als eine einfachere Art des Experimentierens wahrgenommen werden kann, sollte man nicht vergessen, dass multivariate Tests komplizierter sind als traditionelle A/B-Tests.

Multivariate Tests sind am besten für fortgeschrittene Tester geeignet, da sie den Besuchern deiner Website viel mehr Kombinationsmöglichkeiten bieten. Zu viele Änderungen auf einer Seite auf einmal können sich schnell summieren. Du möchtest nicht mit einer sehr großen Anzahl von Kombinationen konfrontiert werden, die getestet werden muss.

Beispiel für einen multivariaten Test

Angenommen, du hast beschlossen, einen multivariaten Test auf einer deiner Landing Pages durchzuführen. Du entscheidest dich, zwei Elemente auf deiner Landing Page zu ändern. Bei der ersten Variante tauschst du ein Bild gegen ein Video aus, und bei der zweiten Variante tauschst du das Bild gegen einen Slider aus.

Für jede Seitenvariante fügst du eine weitere Version der Überschrift hinzu. Dies bedeutet, dass du nun drei Versionen des Hauptinhalts und zwei Versionen der Überschrift hast. Dies entspricht sechs verschiedenen Kombinationen der Landing Page.

 ImageVideoSlider
Headline 1Combination 1Combination 2Combination 3
Headline 2Combination 4Combination 5Combination 6

Wenn du nur zwei Abschnitte änderst, hast du schnell sechs Varianten. An dieser Stelle kann das Multivariate Testing (MVT) knifflig werden.

Wann ist Multivariate Testing (MVT) sinnvoll?

Multivariate Tests werden für Websites mit einem hohen täglichen Besucheraufkommen empfohlen. Du benötigst eine Website mit einem hohen Traffic-Volumen, um mehrere Kombinationen zu testen, und es dauert länger, bis du aussagekräftige Daten aus dem Test erhältst.

mvt
Mit dem Reporting von AB Tasty kannst du die Auswirkungen der einzelnen Elemente auf die Conversion Rate abwägen

Die multivariate Testmethode ermöglicht es dir, ein bestehendes Design schrittweise zu verbessern, während die Testergebnisse für die Neugestaltung einer größeren Website oder Landing Page verwendet werden können.

Was ist Multipage Testing?

Multipage Testing ist eine Testmethode, die dem Standard-A/B-Testing ähnelt. Wie wir bereits besprochen haben, können bei A/B-Tests Änderungen an einer bestimmten Seite oder an einer Gruppe von Seiten vorgenommen werden.

Wenn das geänderte Element auf mehreren Seiten erscheint, kannst du wählen, ob es auf jeder Seite geändert werden soll oder nicht. Wenn das Element jedoch auf mehreren Seiten vorkommt, aber nicht identisch ist, an einer anderen Stelle erscheint oder einen anderen Namen hat, musst du einen Multipage-Test einrichten.

Mehrseitige Tests ermöglichen es dir, Änderungen konsistent über mehrere Seiten hinweg zu implementieren.

Das bedeutet, dass Multipage-Tests es ermöglichen, Varianten verschiedener Seiten miteinander zu verknüpfen, was besonders bei Funnel-Tests nützlich ist.

Bei Multipage-Tests werden die Website-Besucher in die eine oder andere Funnel-Version geleitet. Du musst verfolgen, wie die Besucher mit den verschiedenen Seiten interagieren, die ihnen angezeigt werden, damit du feststellen kannst, welche Funnel-Variante am effektivsten ist.

Du musst sicherstellen, dass die Benutzer eine konsistente Variation von Änderungen auf einer Reihe von Seiten sehen. Dies ist der Schlüssel zur Gewinnung verwertbarer Daten und ermöglicht einen fairen Vergleich zwischen den verschiedenen Varianten.

Beispiel für einen Multipage-Test

Angenommen, du möchtest einen mehrseitigen Test mit einem Gutschein für kostenlosen Versand durchführen, der an verschiedenen Stellen im Funnel angezeigt wird. Du möchtest die Ergebnisse dieses Tests mit dem ursprünglichen Purchase Funnel ohne Coupon vergleichen.

Zum Beispiel könntest du Besuchern auf einer Produktkategorieseite einen Gutschein für den kostenlosen Versand anbieten – wo sie „Kostenloser Versand über 50 €“ als statisches Banner auf der Seite sehen können. Sobald der Besucher ein Produkt in den Einkaufswagen legt, kannst du ihm eine neue dynamische Nachricht je nach dem Stand des Warenkorbs anzeigen – „Füge deinem Warenkorb X € für kostenlosen Versand hinzu“.

In diesem Fall kannst du mit der Position der Nachricht (in der Nähe des Buttons „Zur Kasse gehen“, in der Nähe des Buttons „Einkauf fortsetzen“, in der Nähe der Versandkosten für seine Bestellung oder an anderer Stelle) und mit den Call-to-Action-Varianten der Nachricht experimentieren.

Diese Art von Test hilft dir, das Kaufverhalten der Besucher besser zu verstehen – z. B. wie reduziert die Platzierung eines Gutscheins für kostenlosen Versand den Abbruch des Warenkorbs und erhöht den Umsatz? Nachdem genügend Besucher durch die verschiedenen Designs zum Ende des Purchase Funnels gelangt sind, kannst du die Wirkung der Designstile einfach und effektiv vergleichen.

Wie testet man erfolgreich?

Denk daran, dass die getesteten Seiten einen hohen Traffic aufweisen müssen, damit die Tests relevante Daten zur Analyse liefern.

Unabhängig davon, ob du A/B-Tests, Split-Tests, multivariate Tests oder Multipage-Tests verwendest, um deine Conversion Rate oder Performance zu steigern, solltest du diese mit Bedacht einsetzen.

Jede Art von Test hat ihre eigenen Anforderungen und ist für bestimmte Situationen besonders geeignet, mit Vor- und Nachteilen.

Die Verwendung des richtigen Tests für die richtige Situation hilft dir, das Beste aus deiner Website herauszuholen und den besten Return on Investment für deine Testkampagne zu erzielen. Auch wenn das Testen einer wissenschaftlichen Methode folgt, ist für die Arbeit mit AB Tasty kein Abschluss in Statistik erforderlich.

Verwandtes Thema: Bayes vs. Frequentist: Wie AB Tasty sich für ein statistisches Modell entschieden hat