A/B-Testing für eCommerce:
Der Praxisleitfaden für Shop-Betreiber

8 Min. Lesezeit

A/B-Testing ist die einzige Methode um zu beweisen — nicht zu vermuten — dass eine Änderung an Ihrem Shop tatsächlich mehr Umsatz bringt. Zwei Varianten, echter Traffic, messbare Ergebnisse. Alles andere ist Bauchgefühl. Doch die meisten Shop-Betreiber setzen A/B-Tests falsch ein: Sie testen zu früh, zu spät, oder das falsche Element. In diesem Leitfaden zeige ich Ihnen, was wirklich funktioniert — basierend auf über 130 Millionen Euro zusätzlichen Shop-Umsatzen die wir durch A/B-Testing generiert haben. Wer die A/B-Testergebnisse richtig lesen möchte, findet im separaten Artikel die Details zur Auswertung.

1

Was A/B-Testing ist — und was es nicht ist

A/B-Testing ist kein Design-Werkzeug. Es ist kein Meinungsfinder. Und es ist definitiv kein Ersatz für gutes UX-Design.

A/B-Testing ist ein statistisches Verfahren. Sie zeigen 50% Ihrer Besucher Variante A (die aktuelle Seite) und 50% Variante B (die geänderte Seite). Dann messen Sie, welche Variante mehr Conversions generiert. Der Unterschied wird statistisch geprüft. Ist er signifikant, wissen Sie mit 95% Sicherheit, dass die Änderung wirkt — nicht dass sie vielleicht wirkt.

Was A/B-Testing nicht ist: Ein Werkzeug um „die bessere Farbe“ zu finden. Wer testet, ob der Button rot oder grün besser konvertiert, verschwendet Budget. Testen Sie stattdessen: Funktioniert der Checkout mit 3 Schritten besser als mit 5? Bringt eine Produkt-Video auf der Detailseite mehr Umsatz als nur Bilder? Das sind Fragen die A/B-Testing beantworten kann.

2

Die 5 Elemente die jeder Shop testen sollte

Nicht alles ist testenswert. Hier sind die 5 Elemente mit dem höchsten Impact — basierend auf unseren Daten aus über 500 Tests:

1. Checkout-Prozess — Der Checkout ist der kritischste Punkt. Jeder zusätzliche Schritt kostet Conversions. Ein Shop der von 5 auf 3 Checkout-Schritte wechselte, steigerte die Conversion Rate um 18% (Modeshop, 80.000 Sessions/Monat). Testen Sie: Weniger Schritte, Gast-Checkout, Adress-Autovervollständigung.

2. Produktseiten — Die Produktseite ist wo die Kaufentscheidung fällt. Testen Sie: Größere Bilder, Videos statt nur Fotos, social proof („847 Kunden kauften dieses Produkt“), und Preisdarstellung (€49,99 vs. €50).

3. Call-to-Action (CTA) — „In den Warenkorb“ vs. „Jetzt kaufen“ vs. „Sichern Sie sich Ihr Exemplar“. Die Formulierung des CTA-Buttons kann 5-15% Conversion-Unterschied ausmachen. Aber: Der Button-Text ist sekundär. Die Position und Sichtbarkeit sind primär.

4. Versandkosten-Kommunikation — „Versandkostenfrei ab 49 €“ sollte auf jeder Seite sichtbar sein, nicht erst im Checkout. Shops die die Versandkostenfreigrenze prominent platzierten, sahen durchschnittlich 12% höhere Warenkorbwerte.

5. Mobile Navigation — 60-70% des eCommerce-Traffics kommt heute von Mobile. Eine vereinfachte Mobile-Navigation mit „Sticky“-Add-to-Cart-Button kann die Mobile-Conversion um 20-30% steigern. Desktop-Optimierungen sind wichtig, aber Mobile ist wo das Geld liegt.

3

Wann A/B-Testing funktioniert — und wann nicht

A/B-Testing funktioniert nicht für jeden Shop. Es gibt drei Voraussetzungen:

Genug Traffic: Unter 1.000 Sessions pro Variante sind Ergebnisse statistisch wertlos. Bei 2% Conversion Rate und erwartetem +10% Uplift brauchen Sie 8.000 Besucher pro Variante. Ein Shop mit 500 Besuchern/Monat kann kein sinnvolles A/B-Testing machen — egal was Tool-Anbieter behaupten.

Genug Conversions: Sie brauchen mindestens 50-100 Conversions pro Variante für ein valides Ergebnis. Ein Shop mit 1% Conversion Rate und 5.000 Besuchern/Monat hat 50 Conversions. Das reicht gerade so für einen großen Test. Mehrere kleine Tests parallel? Vergessen Sie es.

Klare Hypothese: „Wir testen mal was“ ist keine Hypothese. Eine gute Hypothese lautet: „Wir glauben, dass ein 3-stufiger Checkout (statt 5-stufig) die Conversion Rate um mindestens 10% steigert, weil 67% der Abbrüche im Checkout erfolgen.“ Ohne klare Hypothese testen Sie blind.

Wann A/B-Testing NICHT funktioniert: Bei Shops mit weniger als 10.000 Sessions/Monat. Bei einmaligen Käufen mit langem Überlegungszeitraum (Möbel, Autos). Bei extrem nischen Produkten mit wenig Traffic. Hier sind andere Methoden sinnvoller: User Research, Heatmaps, Customer Interviews.

4

Mindest-Traffic: Die harte Wahrheit

Lassen Sie mich die Zahlen konkret machen. Ein Shop mit folgenden Kennzahlen:

– 10.000 Sessions/Monat
– 2% Conversion Rate (200 Conversions/Monat)
– Erwarteter Uplift: +15%
– Ziel: 95% Confidence, 80% Power

Braucht ca. 4.500 Besucher pro Variante. Bei 50/50-Split sind das 9.000 Besucher total. Bei 10.000/Monat dauert der Test fast einen Monat. Und das ist der BEST Case — bei +15% erwartetem Uplift.

Bei +5% erwartetem Uplift (realistischer) brauchen Sie 60.000 Besucher pro Variante. Bei 10.000/Monat dauert das 6 Monate. Ein Test der 6 Monate läuft, ist nicht praktikabel. Die Lektion: Realistische Uplift-Erwartungen sind entscheidend. +50% Uplift passiert nicht. +5-15% sind realistisch.

Mehr zur statistischen Signifikanz und Sample-Size-Berechnung finden Sie im separaten Guide.

5

Tools für jedes Budget

A/B-Testing-Tools gibt es für jedes Budget. Aber ehrlich: Sie brauchen nicht das teuerste Tool. Sie brauchen das richtige Tool für Ihren Traffic und Ihr Team.

Kostenlos / Open Source:
– Google Optimize (wird eingestellt — nicht mehr empfohlen)
– Self-built mit Google Tag Manager + Analytics: Aufwendig, aber möglich für technische Teams

Entry-Level (bis 200 €/Monat):
– Convert.com (~99 €/Monat): Gutes Tool, einfacher Editor, datenschutzkonform wenn korrekt konfiguriert
– VWO (~150 €/Monat): Viele Features, aber Support über Indien

Mid-Range (200-1.000 €/Monat):
– AB Tasty: Gute europäische Lösung, starker Fokus auf Personalisierung
– Omniconvert: Solides Tool, gutes Preis-Leistungs-Verhältnis

Enterprise (1.000+ €/Monat):
– Optimizely: Das Tool wenn Sie Enterprise-Level brauchen. Aber: Es ist overkill für 95% der Shops.
– Adobe Target: Wenn Sie eh in der Adobe-Cloud sind. Sonst nicht.

Meine Empfehlung: Starten Sie mit Convert.com oder einem vergleichbaren Entry-Level-Tool. Sie können 90% der Tests damit durchführen. Wenn Sie wirklich Enterprise-Features brauchen, upgraden Sie später. Ein teures Tool macht keine besseren Tests — nur ein gutes Test-Design macht gute Tests.

6

Praxisbeispiel: +23% durch einen einzigen Checkout-Test

Ein Modeshop (ca. 120.000 Sessions/Monat, 1,8% Conversion Rate) hatte ein Problem: 71% der Kunden brachen im Checkout ab. Die Ursache: Ein 5-stufiger Checkout mit Zwischensummen-Prüfung, separatem Versandkosten-Schritt, und Account-Erstellungspflicht.

Die Hypothese: „Ein 3-stufiger Checkout (Warenkorb → Versand+Zahlung → Bestätigung) mit Gast-Checkout-Option und Adress-Autovervollständigung reduziert die Abbruchrate um mindestens 15%.“

Der Test lief 4 Wochen. Ergebnis: +23% Conversion Rate (95%-CI: +14% bis +32%). Die Abbruchrate im Checkout sank von 71% auf 58%. Der Uplift war konsistent über alle Segmente — Desktop, Mobile, Neukunden, Stammkunden.

Die Implementierung kostete ca. 8.000 € (Shopware-Entwicklung). Der zusätzliche Umsatz: ca. 45.000 €/Monat. ROI nach 2 Wochen. Das ist A/B-Testing wie es sein sollte: Klare Hypothese, saubere Durchführung, messbarer Erfolg.

7

Das Wichtigste auf einen Blick

Element
Impact
Schwierigkeit
Checkout-Optimierung
Sehr hoch (+15-30%)
Mittel (Entwicklung nötig)
Produktseiten
Hoch (+5-15%)
Niedrig (meist CMS-Änderung)
CTA-Buttons
Mittel (+3-8%)
Sehr niedrig
Versandkosten-Kommunikation
Mittel (+5-12% AOV)
Niedrig
Mobile Navigation
Hoch (+10-25% Mobile-CR)
Mittel
8

FAQ

Was ist A/B-Testing im eCommerce?

A/B-Testing im eCommerce ist ein statistisches Verfahren bei dem zwei Varianten einer Shop-Seite gegenübergestellt werden, um zu ermitteln welche mehr Conversions generiert. 50% der Besucher sehen Variante A (Kontrolle), 50% sehen Variante B (Test). Die Variante mit signifikant besserer Conversion Rate wird implementiert. Es ist die einzige objektive Methode um zu beweisen, dass eine Änderung mehr Umsatz bringt.

Ab welchem Traffic lohnt sich A/B-Testing?

Mindestens 10.000 Sessions/Monat mit mindestens 200 Conversions/Monat (2% CR). Darunter sind die Ergebnisse statistisch nicht valide. Bei weniger Traffic sind andere Methoden sinnvoller: Heatmaps, User Research, Customer Interviews. Ein Shop mit 50.000+ Sessions/Monat kann sinnvoll testen. Ein Shop mit 100.000+ Sessions/Monat sollte testen — sonst verschenkt er Potenzial.

Was kostet A/B-Testing?

Die Tool-Kosten liegen zwischen 99 €/Monat (Convert.com) und 2.000+ €/Monat (Optimizely Enterprise). Für 95% der Shops reicht ein Entry-Level-Tool. Zusätzlich: Entwicklungskosten für Test-Implementierung (500-5.000 € pro Test) und interne Ressourcen für Test-Planung und Auswertung. Ein typischer Test kostet 2.000-8.000 € total. Der ROI ist oft positiv nach wenigen Wochen.

Welche Elemente sollte ich zuerst testen?

Starten Sie mit dem Checkout. Der Checkout hat den höchsten Impact, weil hier die meisten Abbrüche passieren. Dann: Produktseiten (Bilder, Videos, Social Proof), dann CTA-Buttons (Position > Text > Farbe). Testen Sie nie mehrere Elemente gleichzeitig — sonst wissen Sie nicht, welche Änderung den Effekt verursacht hat.

Wie lange muss ein Test laufen?

Mindestens 1-2 volle Wochen, um Wochentag-Effekte auszugleichen. Und mindestens so lange, bis die errechnete Sample Size erreicht ist. Ein typischer Test mit 10.000 Sessions/Monat und 2% CR dauert 3-6 Wochen. Wer nach 3 Tagen stoppt, weil es „deutlich aussieht“, verschenkt Budget. Die richtige Auswertung von A/B-Testergebnissen erklärt die Details.

Kann ich A/B-Tests selbst durchführen?

Ja, wenn Sie technisches Know-how haben. Die meisten Tools (Convert.com, VWO) bieten Visual Editors an, mit denen Sie einfache Tests ohne Programmierung erstellen können. Für komplexere Tests (Checkout-Änderungen, dynamische Inhalte) brauchen Sie einen Entwickler. Wichtiger als technische Skills ist jedoch ein strukturiertes Vorgehen: Hypothese → Test-Design → Durchführung → Auswertung → Implementierung. Ohne Prozess scheitern auch die besten Tools.

Was ist der Unterschied zwischen A/B-Testing und Multivariate Testing?

A/B-Testing testet eine Änderung an einem Element (z.B. Button-Farbe). Multivariate Testing (MVT) testet mehrere Elemente gleichzeitig in allen Kombinationen (z.B. Button-Farbe × Button-Text × Headline). MVT braucht deutlich mehr Traffic — oft 10× so viel. Für die meisten Shops ist A/B-Testing die bessere Wahl. MVT ist nur sinnvoll bei sehr hohem Traffic (100.000+ Sessions/Monat) und wenn Sie mehrere Elemente gleichzeitig optimieren wollen.

Welches A/B-Testing-Tool ist das beste für eCommerce?

Es gibt kein „bestes“ Tool — nur das beste für Ihre Situation. Für Einsteiger: Convert.com (~99 €/Monat, einfach, datenschutzkonform). Für Mid-Market: AB Tasty oder VWO. Für Enterprise: Optimizely. Wichtiger als das Tool ist der Prozess. Ein teures Tool mit schlechtem Prozess ist schlechter als ein günstiges Tool mit gutem Prozess. Starten Sie einfach — upgraden Sie später wenn nötig.

Jörg Dennis Krüger — CRO-Experte, Autor von 3 Büchern zum Thema Conversion-Optimierung, Speaker bei OMR und Internet World. Über 130 Millionen Euro zusätzlicher Shop-Umsatz durch A/B-Testing. Entwickler der thinkCONVERSION®-Methode.

jdkrueger
Autor & Conversion-Experte
Kennenlernen

Bereit für mehr Umsatz?

Starten Sie die 14-tägige Pilot-Phase. Kostenlos. Ohne Vertragsbindung. Wir beweisen unseren Wert, bevor Sie investieren.

Wissen & Methode

Ähnliche Artikel