Schlagwort-Archive: cro

Mit A/B-Tests die interne Suche optimieren

Im E-commerce spielt die interne Suchfunktion mittlerweile eine extrem wichtige Rolle. Conversionrates in Sessions mit Suche liegen oft um ein Vielfaches höher als in Sessions ohne Suche (laut SDL im Schnitt um 270% höher).

Über die Gründe kann man nur spekulieren. Nahe liegend scheint, dass wir durch die großen Anlaufstellen im Netz – vor allem Google, YouTube und Amazon – gelernt haben, dass eine Suche oft schneller zum gewünschten Ziel führt, als eine noch so gute Navigation. Zumindest wenn die Suche gut funktioniert.

Screenshot einer Heatmap von beck-shop.de

Heatmap aus econda. Rot eingefärbt sind die Bereiche, die häufig geklickt werden. Deutlich sichtbar ist, dass die Suche sehr viel häufiger verwendet wird als die Navigation.

Trotzdem wird die Suchoptimierung von vielen Sitebetreibern sträflich vernachlässigt. Das ist nicht verwunderlich, weil es sich um ein technisch und konzeptionell anspruchsvolles Thema handelt, das oft unterschätzt wird. Meist beschränkt sich die Optimierung auf Design und Anordnung der Suchelemente (z.B. Aufbau der Suchergebnisse, Bildergröße, Button-Labels, etc.). Aber das Kernstück – der Algorithmus, der die Relevanz bestimmt – ist schwerer zu testen. Und weil das so ist, wird die Optimierung der Suchalgorithmen oft durch die Beobachtung von Einzelfällen gesteuert. Was wiederum dazu führt, dass man zwar diese vereinzelten Problemfälle löst, sich aber die Suchqualität insgesamt verschlechtern kann. Die Frage ist also: Wie können wir die Effekte von Änderungen am Suchalgorithmus quantitativ über Tests nachweisen? Darum drehen sich die folgenden Gedanken und Prozessvorschläge: Weiterlesen

Einsichten nach 15 Monaten Conversion-Optimierung

Disclaimer: Das ist ein Einsteiger-Artikel. Er soll helfen, schneller zu einem sinnvollen und ergebnisreichen Testing-Prozess zu finden, als das bei uns der Fall war. Es geht hier nicht um Testideen, sondern um die richtige Haltung zur Conversion-Optimierung.

Wir haben uns vor ca. 15 Monaten entschlossen, endlich das Thema Conversion-Optimierung strukturierter anzugehen. Vermutlich aus denselben Gründe, die alle Online-Marketer zum Thema Conversion-Optimierung bringen:

  • Die Conversion-Optimierung ist bei Sites mit hohem Traffic und vielen Conversions ein extrem starker Hebel, um die Performance zu steigern. Hinter der Aussage steht folgende Rechnung:
    Traffic x Conversion-Rate x durch. Warenkorb = Umsatz
    Am Beispiel gerechnet:
    100.000 x 0,02 x 40 Euro = 80.000 Euro
    Bei nur 10% Steigerung der Conversionrate – also von 2% auf läppische 2.2% – landen wir bei:
    100.000 x 0,022 x 40 Euro = 88.000 Euro
    8.000 Euro Mehrumsatz bei einer auf den ersten Blick einfach zu erreichenden Steigerung.
  • Die Kosten für die Neuakquise liegen im Vergleich zu solchen Beispielrechnungen in der Regel sehr hoch. Ein weiterer Grund eher an der Optimierung des bestehenden Traffics zu arbeiten.
  • Unfassbar viele Fallstudien zeigen, mit welch einfachen Änderungen große Verbesserungen möglich sind. Wieso sollte man diese einfachen Möglichkeit verpassen? 🙂
  • Die Eintrittshürden sind mittlerweile sehr niedrig. Die Tools kosten häufig im Vergleich zu den Adwords-Ausgaben nur noch einen Bruchteil. Außerdem sind die Tools extrem einfach zu handhaben und Tests scheinen mit den Bordmitteln wie visuellen Editoren leicht umsetzbar zu sein. Als Beispiel ein Promotion-Video von Visual Website Optimizer:

Nachdem wir selber ein wenig rumprobiert haben, kam dann doch noch ein Dienstleister hinzu, der uns geholfen hat, die wichtigsten Punkte beim Aufsetzen eines anständigen Test-Prozesses in den Griff zu bekommen. Nach 15 Monaten sind wir jetzt auf einem ganz guten Weg und haben in dieser Zeit folgende Dinge gelernt: Weiterlesen

Guide zum A/B-Testing von Unbounce

A/B-Tests sind die vermeintlich einfachste Testvariante. Man hat zwei (oder auch mehr Varianten) und lässt diese gegeneinander antreten. Die Variante mit der höchsten Conversionrate gewinnt und alles ist super.

Leider drängen sich dann beim konkreten Setup von A/B-Test dann doch ein paar unangenehme Fragen auf. Was soll ich denn eigentlich testen? Ist die Farbe von Buttons tatsächlich so wichtig? Wann ist der Test abgeschlossen? Weiterlesen