Seit Jahren werden Websitebetreibern – und Shopbetreibern insbesondere! – dazu geraten, immer wieder A/B-Tests zu fahren, um die Website zu optimieren. Dennoch schrecken viele Händler davor zurück, z.B. weil sie bereits Tests hinter sich haben, diese aber als gescheitert ansehen.
Tatsächlich scheitern A/B-Tests nicht selten. Dafür gibt es vor allen zwei Gründe:
- Die Tests waren“zu zögerlich“ und/oder
- negative Ergebnisse wurden als wertlos angesehen.
Negative Ergebnisse sind nicht wertlos
Dass negative Ergebnisse sehr wertvoll sein können, zeigt eine Aufstellung von A/B-Testergebnissen, die Frank Piotraschke, Head of Sales DACH der Optimizely GmbH in einer Pressemitteilung zusammengestellt hat und die ein Licht auf diverse Aspekte von Website-Optimierungstests werfen. Piotraschke bricht in seinem Text eine Lanze für „negative Ergebnisse“:
Als Beleg stellt er verschiedene Kampagnen vor, deren „negative Ergebnisse“ zu enormen Geldeinsparungen führten – oder anders ausgedrückt: Die dazu führten, dass an der Kreuzung der Möglichkeiten auf den ersten Blick attraktiv erscheinende Pfade als Wege erkannt wurden, die tatsächlich vom erstrebten Ziel wegführen.
Eines dieser Beispiele ist der Test des amerikanischen Taschenherstellers Chrome Industries, der überlegte, ob er (für viel Geld) Videos seiner Produkte erstellen sollte. Die Idee, seine Taschen und Schuhe mit Videos zu bewerben, klang zunächst bestechend.


Doch ein Test der Website als Variante mit Video gegen eine Variante mit Produktfotos ergab, dass ein Produktvideo die Bestellquote nur um 0,2 Prozent steigerte. Das hätte allerdings die Investition in teure Videos nicht gerechtfertigt hätte und so konnte der Hersteller erhebliche Summen einsparen – dank eines einzigen Tests!
Noch nicht überzeugt? Piotraschke zählt noch ein weiteres Beispiel auf:
Auch das ist ein unerwartet „negatives Ergebnis“, das aber in der Konsequenz zu einer enormen Kostenersparnis führte.
Wenn die Nutzer anders ticken…
„Nutzerzentrierung“ ist heute das Grundgebet allen Tuns im Netz. Ein Problem dabei ist, dass Nutzer manchmal anders „ticken“, als man denkt. Dann wird eventuell haarscharf am Nutzer vorbei „zentriert“ – besser also, man schaut vorher nach, ob man mit seinen Ideen bezüglich der Denke seiner Nutzer wirklich richtig liegt. Dabei kann es Überraschungen geben, sogar für Anbieter, die sich eigentlich besonders nah dran wähnen an ihren Kunden. Wie Spreadshirt:
Das wollte in einem Test ermitteln, ob eine Teaser-Variante mit einem prominent eingeblendeten Suchfeld die Nutzer mehr anspricht, als lediglich zwei Call-to-Action-Buttons. Piotraschke:

Hier wurde durch das Ergebnis des Tests zwar nicht viel Geld gespart. Dafür konnte Spreadshirt einiges über die Gewohnheiten der Nutzer lernen.
Auch der internationale Anbieter von Limousinen-Services in Großstädten, Blacklane, lernte etwas Entscheidendes über seine Kunden: Er wollte den Einfluss von Social Trust auf die Anzahl der Buchungen testen. Nach der Idee, dass Hinweise auf Medienberichte das Vertrauen der Kunden steigern sollten, wollte das Unternehmen auf den Traffic-starken Landing Pages der einzelnen Städte die Logos bekannter Medien zeigen, die über den Limousinen-Service berichtet hatten. Hierzu setzte Blacklane in Optimizely einen Test mit zwei Varianten auf: Variante A blieb ohne Logos, bei Variante B enthielt der Bereich unterhalb des Hauptcontentblockes die Medienlogos.
Die Ergebnisse zeigten allerdings, dass die Variante mit den Medienlogos ein schlechter Weg waren: Denn diese Variante senkte die Buchungsrate um 0,3 Prozent. Piotraschke liest daraus, dass der getestete Bereich der Website unterhalb des starken Bildelementes mit der Suchmaske für die Websitenutzer nicht so relevant ist, wie es vermutet wurde. Und:



Lesbare Ergebnisse erzeugen
Negative Testergebnisse sind also kein Zeichen dafür, dass Tests erfolglos waren – im Gegenteil! Was aber ist notwendig, damit Tests erfolgreich verlaufen?
Ob Tests erfolgreich sind, steht und fällt mit dem Umstand, ob ihre Ergebnisse „lesbar“ sind, also eine eindeutige Aussage ableiten lassen. Dazu muss es einerseits eine klare Fragestellung geben. Mit Betonung auf klar. Und mit noch mehr Betonung auf EINE. Es hilft nicht viel, zwei, drei, vier Aspekte gleichzeitig zu untersuchen, denn dann lassen sich die Ergebnisse der Tests nicht eindeutig interpretieren. Ein Test = eine Fragestellung ist der richtige Weg.
Und dann braucht es einen gewissen Mut, denn die getesteten Varianten müssen sich wirklich deutlich unterscheiden. Wer sehr ähnliche Varianten testet, wird wenig starke Signale von den Nutzern erhalten. Oder umgekehrt ausgedrückt: „Wenn […] Testresultate nicht eindeutig sind, waren Ihre Änderungen vielleicht nicht auffällig genug, um das Nutzerverhalten zu beeinflussen. In diesem Fall könnten Sie den Kontrast zur Ausgangsvariante vergrößern, um eine stärkere Reaktion zu provozieren und so die Vorlieben des Nutzers kennenzulernen.“ (Piotraschke).
Darum sollten vor allem zum Beginn von Testreihen große Unterschiede in die Testvarianten eingebaut werden. Auch hierfür ein Beispiel von Spreadshirt, das ebenfalls Optimizely veröffentlicht hat:


Die erste Variante der Seite enthielt eine detaillierte, aber zielgruppenkonforme Beschreibung des Angebots von Spreadshirt. Die zweite Variante vereinfachte die Darstellung sehr stark. Während die erste Variante im Vergleich verspielter wirkte und einen eher dezenten Call-to-Action-Button hatte, kam die zweite Variante deutlich verkürzter und mit klarer Handlungsaufforderung herüber. Und dieser Umstand wirkte: Die Zahl der Klicks auf den Call-to-Action-Button stieg bei Variante B um das Sechsfache!
Konkrete Tipps für’s A/B-Testing
Zusammenfassend gibt Frank Piotraschke von Optimizely folgende fünf Tipps für ein erfolgreiches A/B-Testing:

Halten Sie sich immer vor Augen, dass A/B-Testing seinem Wesen nach ein Prozess ist, der meist in mehreren Schritten zum Erfolg führt. Wie die oben angeführten Beispiele zeigen, sind viele Tests gar nicht ergebnislos oder misslungen, sondern geben Ihnen Aufschluss über das Verhalten Ihrer Kunden.
Viele kleine Schritte bringen zum Ziel
Zudem ist es häufig sinnvoll, sich mit einer Reihe von Tests dem Ziel anzunähern, um zu viele Überraschungen zu vermeiden. Auf diese Weise können Sie prüfen, welche Änderungen sich positiv beziehungsweise negativ auswirken und entsprechend reagieren. Zudem lassen sich kleinere Erkenntnisse und positives Feedback einfacher einbauen.
Nicht an bestimmten Positionen kleben
Beißen Sie sich nicht an einem Bereich Ihrer Website fest. Manchmal ist das Testing-Objekt schon weitgehend optimiert – beispielsweise dann, wenn Sie viele iterative Tests zur gleichen Testing-Idee oder in demselben Bereich durchgeführt haben. In diesem Fall ist es lohnender, sich auf andere Bereiche mit klarem Optimierungspotenzial zu konzentrieren.
Erkenntnisse laufend einfließen lassen
Um Ihre Testing-Projekte und deren Ergebnisse transparenter zu machen, sollten Sie in regelmäßigen Meetings alle Tests besprechen, die stattgefunden haben. Prüfen Sie, ob ein ausgewogenes Verhältnis zwischen einfachen und aufwändigen Tests, Tests zur Ertragssteigerung und zur Kostensenkung sowie Tests, die von den verschiedenen Abteilungen initiiert werden, besteht. Stellen Sie außerdem sicher, dass die – negativen, positiven oder „unerheblichen“ – Resultate der bereits erfolgten Tests in die anschließend durchgeführten Tests mit einfließen.
Den Überblick behalten und „dran bleiben“
Entscheidend für den Erfolg Ihrer Testing-Projekte ist es außerdem, eine Testing-Kultur zu etablieren, die stets die Ziele Ihres Unternehmens im Auge hat. Behalten Sie den Überblick und lassen Sie sich auf keinen Fall von Einzelergebnissen entmutigen – im Gegenteil, nehmen Sie sie zum Anlass, mehr über Ihre Kunden zu erfahren. Denn diese Einblicke in die Wünsche und Vorlieben der Nutzer werden dafür sorgen, dass sich Ihre Testing-Investitionen lohnen.
Herzlich aus Hürth
Nicola Straub