Site icon Blog für den Onlinehandel

Website-Tests: Warum Mut gut tut und negative Ergebnisse positiv sind

Flugzeugwrack in Island

Seit Jahren werden Websitebetreibern – und Shopbetreibern insbesondere! – dazu geraten, immer wieder A/B-Tests zu fahren, um die Website zu optimieren. Dennoch schrecken viele Händler davor zurück, z.B. weil sie bereits Tests hinter sich haben, diese aber als gescheitert ansehen.

Tatsächlich scheitern A/B-Tests nicht selten. Dafür gibt es vor allen zwei Gründe:

Negative Ergebnisse sind nicht wertlos

Dass negative Ergebnisse sehr wertvoll sein können, zeigt eine Aufstellung von A/B-Testergebnissen, die Frank Piotraschke, Head of Sales DACH der Optimizely GmbH in einer Pressemitteilung zusammengestellt hat und die ein Licht auf diverse Aspekte von Website-Optimierungstests werfen. Piotraschke bricht in seinem Text eine Lanze für „negative Ergebnisse“:

Tests mit „negativen“ Ergebnissen oder ohne klare Gewinner sind nicht wertlos. Im Gegenteil: Sie liefern den Unternehmen oft wichtige Erkenntnisse über ihre Kunden und geplante Produktentwicklungen, auf die sie sonst nicht gekommen wären. Außerdem sind so genannte „negative“ Resultate die Grundlage für gezielte Folgetests und pflastern den Weg zu einer erfolgreichen Optimierung. Lassen Sie sich also nicht abschrecken, auch wenn Ihre Kollegen und Mitarbeiter Skepsis äußern, wenn sich die neue Variante nicht als Gewinner im Vergleich zum Original herauskristallisiert.

Als Beleg stellt er verschiedene Kampagnen vor, deren „negative Ergebnisse“ zu enormen Geldeinsparungen führten – oder anders ausgedrückt: Die dazu führten, dass an der Kreuzung der Möglichkeiten auf den ersten Blick attraktiv erscheinende Pfade als Wege erkannt wurden, die tatsächlich vom erstrebten Ziel wegführen.

Eines dieser Beispiele ist der Test des amerikanischen Taschenherstellers Chrome Industries, der überlegte, ob er (für viel Geld) Videos seiner Produkte erstellen sollte. Die Idee, seine Taschen und Schuhe mit Videos zu bewerben, klang zunächst bestechend.

Chrome-Website mit Produktbild
Chrome-Website mit Video (Bilder: Optimizely)

Doch ein Test der Website als Variante mit Video gegen eine Variante mit Produktfotos ergab, dass ein Produktvideo die Bestellquote nur um 0,2 Prozent steigerte. Das hätte allerdings die Investition in teure Videos nicht gerechtfertigt hätte und so konnte der Hersteller erhebliche Summen einsparen – dank eines einzigen Tests!

Noch nicht überzeugt? Piotraschke zählt noch ein weiteres Beispiel auf:

Einen renommierten Online-Modehändler bewahrte ein statistisch nicht signifikantes Ergebnis davor, viel Geld in teure Models zu investieren: Er fand in einem A/B-Test heraus, dass es keinerlei Einfluss auf die Verkaufszahlen hatte, ob die Models auf seiner Website mit oder ohne Gesicht abgebildet wurden.

Auch das ist ein unerwartet „negatives Ergebnis“, das aber in der Konsequenz zu einer enormen Kostenersparnis führte.

Wenn die Nutzer anders ticken…

„Nutzerzentrierung“ ist heute das Grundgebet allen Tuns im Netz. Ein Problem dabei ist, dass Nutzer manchmal anders „ticken“, als man denkt. Dann wird eventuell haarscharf am Nutzer vorbei „zentriert“ – besser also, man schaut vorher nach, ob man mit seinen Ideen bezüglich der Denke seiner Nutzer wirklich richtig liegt. Dabei kann es Überraschungen geben, sogar für Anbieter, die sich eigentlich besonders nah dran wähnen an ihren Kunden. Wie Spreadshirt:

Das wollte in einem Test ermitteln, ob eine Teaser-Variante mit einem prominent eingeblendeten Suchfeld die Nutzer mehr anspricht, als lediglich zwei Call-to-Action-Buttons. Piotraschke:

Man nahm an, dass ein prominent eingeblendetes Suchfeld dem Kunden die Produktsuche erleichtert, ihn zum Kaufen animiert und letztendlich für mehr Produkte pro Bestellung sorgt. Die Hypothese stellte sich als falsch heraus: Die beiden CTA-Elemente wurden von 50 Prozent mehr Nutzern angeklickt und generierten ebenso viele Konversionen wie das Suchfeld. Interessant war aber vor allem wie das neue Suchfeld in der Mitte der Webseite abschnitt: Zwei Drittel der Nutzer verwendeten weiterhin lieber das klassische Suchfeld im Header – ein Beweis dafür, dass die Nutzer sich im Laufe der Jahre an die Position des Suchfelds im oberen Bereich gewöhnt haben. Tatsächlich ergab eine Studie von eResult, dass die Nutzer die Suchfunktion von Onlineshops im oberen Seitenbereich erwarten, und zwar mittig positioniert wie beim Shopping-Giganten Amazon.
Spreadshirt Website Test (Bild: Optimizely)

Hier wurde durch das Ergebnis des Tests zwar nicht viel Geld gespart. Dafür konnte Spreadshirt einiges über die Gewohnheiten der Nutzer lernen.

Auch der internationale Anbieter von Limousinen-Services in Großstädten, Blacklane, lernte etwas Entscheidendes über seine Kunden: Er wollte den Einfluss von Social Trust auf die Anzahl der Buchungen testen. Nach der Idee, dass Hinweise auf Medienberichte das Vertrauen der Kunden steigern sollten, wollte das Unternehmen auf den Traffic-starken Landing Pages der einzelnen Städte die Logos bekannter Medien zeigen, die über den Limousinen-Service berichtet hatten. Hierzu setzte Blacklane in Optimizely einen Test mit zwei Varianten auf: Variante A blieb ohne Logos, bei Variante B enthielt der Bereich unterhalb des Hauptcontentblockes die Medienlogos.

Die Ergebnisse zeigten allerdings, dass die Variante mit den Medienlogos ein schlechter Weg waren: Denn diese Variante senkte die Buchungsrate um 0,3 Prozent. Piotraschke liest daraus, dass der getestete Bereich der Website unterhalb des starken Bildelementes mit der Suchmaske für die Websitenutzer nicht so relevant ist, wie es vermutet wurde. Und:

Es war offensichtlich, dass Informationen über Presserwähnungen die Besucher eher ablenkten, statt sie zur Buchung zu motivieren. Anstelle der Medienlogos zeigt Blacklane heute in prominenter Form die Vorteile seines Angebots.
Variante A ohne Inhalte unterhalb des Hauptcontents
Variante B mit Medienlogos unterhalb des Hauptcontents
Die schließlich gewählte Variante (alle Bilder: Optimizely)

Lesbare Ergebnisse erzeugen

Negative Testergebnisse sind also kein Zeichen dafür, dass Tests erfolglos waren – im Gegenteil! Was aber ist notwendig, damit Tests erfolgreich verlaufen?

Ob Tests erfolgreich sind, steht und fällt mit dem Umstand, ob ihre Ergebnisse „lesbar“ sind, also eine eindeutige Aussage ableiten lassen. Dazu muss es einerseits eine klare Fragestellung geben. Mit Betonung auf klar. Und mit noch mehr Betonung auf EINE. Es hilft nicht viel, zwei, drei, vier Aspekte gleichzeitig zu untersuchen, denn dann lassen sich die Ergebnisse der Tests nicht eindeutig interpretieren. Ein Test = eine Fragestellung ist der richtige Weg.

Und dann braucht es einen gewissen Mut, denn die getesteten Varianten müssen sich wirklich deutlich unterscheiden. Wer sehr ähnliche Varianten testet, wird wenig starke Signale von den Nutzern erhalten. Oder umgekehrt ausgedrückt: „Wenn […] Testresultate nicht eindeutig sind, waren Ihre Änderungen vielleicht nicht auffällig genug, um das Nutzerverhalten zu beeinflussen. In diesem Fall könnten Sie den Kontrast zur Ausgangsvariante vergrößern, um eine stärkere Reaktion zu provozieren und so die Vorlieben des Nutzers kennenzulernen.“ (Piotraschke).

Darum sollten vor allem zum Beginn von Testreihen große Unterschiede in die Testvarianten eingebaut werden. Auch hierfür ein Beispiel von Spreadshirt, das ebenfalls Optimizely veröffentlicht hat:

Version A des Tests: Mehr Erklärung, dezenterer CTA
Variante B: Stark verkürzte Infos, starker CTA (Bilder: Optimizely)

Die erste Variante der Seite enthielt eine detaillierte, aber zielgruppenkonforme Beschreibung des Angebots von Spreadshirt. Die zweite Variante vereinfachte die Darstellung sehr stark. Während die erste Variante im Vergleich verspielter wirkte und einen eher dezenten Call-to-Action-Button hatte, kam die zweite Variante deutlich verkürzter und mit klarer Handlungsaufforderung herüber. Und dieser Umstand wirkte: Die Zahl der Klicks auf den Call-to-Action-Button stieg bei Variante B um das Sechsfache!

Konkrete Tipps für’s A/B-Testing

Zusammenfassend gibt Frank Piotraschke von Optimizely folgende fünf Tipps für ein erfolgreiches A/B-Testing:

Frank Piotraschke, Head of Sales DACH Optimizely
Testing ist ein Prozess
Halten Sie sich immer vor Augen, dass A/B-Testing seinem Wesen nach ein Prozess ist, der meist in mehreren Schritten zum Erfolg führt. Wie die oben angeführten Beispiele zeigen, sind viele Tests gar nicht ergebnislos oder misslungen, sondern geben Ihnen Aufschluss über das Verhalten Ihrer Kunden.

Viele kleine Schritte bringen zum Ziel
Zudem ist es häufig sinnvoll, sich mit einer Reihe von Tests dem Ziel anzunähern, um zu viele Überraschungen zu vermeiden. Auf diese Weise können Sie prüfen, welche Änderungen sich positiv beziehungsweise negativ auswirken und entsprechend reagieren. Zudem lassen sich kleinere Erkenntnisse und positives Feedback einfacher einbauen.

Nicht an bestimmten Positionen kleben
Beißen Sie sich nicht an einem Bereich Ihrer Website fest. Manchmal ist das Testing-Objekt schon weitgehend optimiert – beispielsweise dann, wenn Sie viele iterative Tests zur gleichen Testing-Idee oder in demselben Bereich durchgeführt haben. In diesem Fall ist es lohnender, sich auf andere Bereiche mit klarem Optimierungspotenzial zu konzentrieren.

Erkenntnisse laufend einfließen lassen
Um Ihre Testing-Projekte und deren Ergebnisse transparenter zu machen, sollten Sie in regelmäßigen Meetings alle Tests besprechen, die stattgefunden haben. Prüfen Sie, ob ein ausgewogenes Verhältnis zwischen einfachen und aufwändigen Tests, Tests zur Ertragssteigerung und zur Kostensenkung sowie Tests, die von den verschiedenen Abteilungen initiiert werden, besteht. Stellen Sie außerdem sicher, dass die – negativen, positiven oder „unerheblichen“ – Resultate der bereits erfolgten Tests in die anschließend durchgeführten Tests mit einfließen.

Den Überblick behalten und „dran bleiben“
Entscheidend für den Erfolg Ihrer Testing-Projekte ist es außerdem, eine Testing-Kultur zu etablieren, die stets die Ziele Ihres Unternehmens im Auge hat. Behalten Sie den Überblick und lassen Sie sich auf keinen Fall von Einzelergebnissen entmutigen – im Gegenteil, nehmen Sie sie zum Anlass, mehr über Ihre Kunden zu erfahren. Denn diese Einblicke in die Wünsche und Vorlieben der Nutzer werden dafür sorgen, dass sich Ihre Testing-Investitionen lohnen.

Herzlich aus Hürth
Nicola Straub

Exit mobile version