Google Ads Experimente: Kampagnen-Split-Tests 2026
Google Ads Experimente (früher "Kampagnen-Entwürfe und -Experimente") ermöglichen es Ihnen, Kampagneneinstellungen zu testen, bevor Sie sie live schalten. Statt eine Änderung auf Ihre gesamte Kampagne anzuwenden und zu hoffen, dass sie funktioniert, können Sie sie zunächst an einem Teil des Traffics testen und datenbasiert entscheiden.
In diesem Guide erfahren Sie, wie Sie Experimente in Google Ads nutzen, welche Änderungen Sie testen sollten, wie Sie Ergebnisse interpretieren und häufige Fehler vermeiden. Mit Experimenten reduzieren Sie das Risiko kostspieliger Fehlentscheidungen und optimieren systematisch.
Für eine ganzheitliche Optimierungsstrategie lesen Sie auch unseren Guide zum Google Ads optimieren.
Was sind Google Ads Experimente?
Definition: Ein Experiment in Google Ads ist ein kontrollierter Test, bei dem Sie eine oder mehrere Änderungen an einer Kampagne vornehmen und diese Änderungen mit der Original-Kampagne vergleichen. Traffic wird zwischen Original (Kontrolle) und Experiment aufgeteilt, typischerweise 50/50.
Der Prozess:
- Sie erstellen einen Entwurf (Draft) Ihrer bestehenden Kampagne
- Sie ändern Einstellungen im Entwurf (z.B. Gebotsstrategie, Budget, Keywords)
- Sie starten ein Experiment mit X% Traffic-Split
- Nach ausreichend Daten vergleichen Sie Performance
- Sie wenden den Gewinner an oder verwerfen den Test
Der Vorteil gegenüber direkten Änderungen: Statt Ihre gesamte Kampagne zu riskieren, testen Sie Änderungen zunächst an einem Teil des Traffics. Wenn die Änderung gut funktioniert, rollen Sie sie aus. Wenn nicht, haben Sie nur 50% des Traffics "riskiert".
Warum Experimente wichtig sind
Das Problem mit direkten Änderungen: Sie ändern Gebotsstrategie von Manual CPC auf Target CPA. Performance sinkt 20%. War es die Änderung oder externe Faktoren (Wettbewerb, Saisonalität)? Schwer zu sagen.
Die Lösung: Experimente Mit Experiment läuft parallel eine Kontroll-Kampagne mit alter Einstellung. Wenn Experiment schlechter performt als Kontrolle → die Änderung war schlecht. Wenn besser → die Änderung war gut. Kausalität ist klar.
Wann Experimente nutzen:
Must-use-Cases:
- Gebotsstrategie-Wechsel (z.B. Manual → Automated)
- Große Budget-Änderungen
- Neue Match Types testen (z.B. Broad Match einführen)
- Radikal neue Keyword-Sets
- Targeting-Änderungen (z.B. Geo-Expansion)
Nice-to-have-Cases:
- Neue Anzeigenerweiterungen
- Verschiedene Anzeigenvarianten (aber dafür sind normale RSA-Tests oft einfacher)
Nicht nötig für:
- Einzelne neue Keywords hinzufügen (zu kleiner Impact)
- Negative Keywords (kein Downside-Risiko)
- Offensichtliche Fixes (abgelehnte Anzeigen ersetzen)
Was Sie testen sollten
Priorisieren Sie Tests nach potenziellem Impact und Risiko.
High-Priority-Tests
1. Gebotsstrategie-Migration Was: Wechsel von Manual CPC zu Target CPA/ROAS oder zwischen verschiedenen Smart Bidding-Strategien
Warum testen: Größter Impact-Potential (20-40% CPA-Verbesserung möglich), aber auch Risiko (kann auch schlechter werden)
Setup:
Kontrolle: Manual CPC
Experiment: Target CPA (Ziel: 45€)
Split: 50/50
Dauer: 4-6 Wochen (Smart Bidding braucht Lernphase)
2. Budget-Skalierung Was: Testen, ob Budget-Erhöhung zu proportional mehr Conversions führt oder ob ROAS sich verschlechtert
Warum testen: Bei Skalierung verschlechtert sich oft Effizienz. Experiment zeigt, ob es sich lohnt.
Setup:
Kontrolle: 1.000€/Tag Budget
Experiment: 1.500€/Tag Budget (+50%)
Split: 50/50
Dauer: 3-4 Wochen
KPI: Prüfen Sie, ob Experiment 50% mehr Conversions bei gleichem oder besserem CPA generiert
3. Match Type-Expansion Was: Hinzufügen von Broad Match-Keywords zu Phrase/Exact-fokussierter Kampagne
Warum testen: Broad Match kann Reichweite erhöhen, aber auch Budget verschwenden, wenn nicht richtig gemanagt.
Setup:
Kontrolle: Nur Phrase und Exact Match Keywords
Experiment: + Broad Match-Varianten der Top 20 Keywords
Split: 50/50
Dauer: 3-4 Wochen
KPI: Prüfen Sie Conversion-Volumen und CPA
Medium-Priority-Tests
4. Geo-Targeting-Änderungen Was: Expansion in neue Regionen oder Fokussierung auf Top-Performer
Setup:
Kontrolle: Aktuelles Geo-Targeting (z.B. ganz Deutschland)
Experiment: Nur Top-5-Bundesländer nach ROAS
Split: 50/50
Dauer: 3-4 Wochen
5. Device-Strategie Was: Separate Mobile-Kampagne vs. alle Geräte zusammen
Setup:
Kontrolle: Eine Kampagne für alle Geräte
Experiment: Separate Mobile-only und Desktop-only Kampagnen
Split: 50/50
Dauer: 4 Wochen
6. Ad Schedule-Optimierung Was: Kampagne nur zu Top-Performance-Zeiten vs. 24/7
Setup:
Kontrolle: 24/7 Ausspielung
Experiment: Nur Mo-Fr 9-18 Uhr (wenn das Ihre Top-Zeit ist)
Split: 50/50
Dauer: 2-3 Wochen
Fortgeschrittene Tests
7. Audience Layering Was: Observation vs. Targeting für Audiences
8. Landing Page-Varianten Was: Zwei verschiedene Landingpages gegeneinander testen
9. Kampagnen-Struktur Was: Granulare Struktur (viele kleine Kampagnen) vs. konsolidierte Struktur
Experimente erstellen: Step-by-Step
Google Ads Interface (2026):
Schritt 1: Entwurf erstellen
-
Navigation: Kampagnen → Wählen Sie Kampagne → "Entwürfe und Experimente" (linke Sidebar)
-
Neuer Entwurf: "Entwürfe" Tab → Plus-Icon → "Neuer Entwurf"
-
Name: Geben Sie beschreibenden Namen: "Test Target CPA vs Manual" oder "Test Budget +50%"
-
Änderungen vornehmen: Der Entwurf ist Kopie Ihrer Original-Kampagne. Nehmen Sie gewünschte Änderungen vor:
- Gebotsstrategie ändern
- Budget anpassen
- Keywords hinzufügen/entfernen
- Targeting ändern
- Etc.
-
Speichern
Wichtig: Der Entwurf ist noch nicht live. Er ist nur Vorlage für das Experiment.
Schritt 2: Experiment starten
-
Zum Entwurf navigieren: Entwürfe und Experimente → Entwürfe → Ihr Entwurf
-
"Experiment erstellen": Button "Auf Experiment anwenden"
-
Experiment-Einstellungen:
Name: Gleicher oder ähnlicher Name wie Entwurf
Start- und Enddatum:
- Startdatum: Sofort oder geplant
- Enddatum: Optional (empfohlen für definierte Test-Dauer)
- Typisch: 3-6 Wochen je nach Datenvolumen
Traffic-Split:
- Standard: 50/50 (Original vs. Experiment)
- Kann angepasst werden (z.B. 70/30 wenn Sie konservativer sein wollen)
- Google empfiehlt 50/50 für beste statistische Validität
Such-basierter Split (empfohlen):
- User wird konsistent einer Variante zugewiesen
- Gleicher User sieht immer gleiche Version
- Bessere User-Experience
Cookie-basierter Split:
- Alternative Methode
- Weniger akkurat bei Cross-Device
-
Experiment starten
Schritt 3: Monitoring
Während des Experiments:
-
Performance Dashboard: Experimente Tab zeigt Side-by-Side-Vergleich:
- Kontrolle (Original) Metriken
- Experiment Metriken
- Prozentuale Differenz
- Statistische Signifikanz
-
Wichtige Metriken überwachen:
- Conversions (Volumen)
- CPA oder ROAS
- Kosten
- CTR, CR (Indikatoren)
-
Nicht zu früh eingreifen: Lassen Sie Experiment laufen wie geplant. Zu frühes Stoppen führt zu invaliden Ergebnissen.
Schritt 4: Auswertung
Nach Experiment-Ende:
Google zeigt automatisch:
- Verbesserung/Verschlechterung in Prozent für jede Metrik
- Konfidenz-Intervall (95% CI)
- Statistisch signifikant? Ja/Nein-Indikator
Interpretation:
Fall 1: Experiment klar besser + statistisch signifikant
Kontrolle: 100 Conversions, CPA 45€
Experiment: 120 Conversions, CPA 38€ (-15%)
Signifikanz: Ja (p < 0.05)
→ Entscheidung: Experiment anwenden
Fall 2: Experiment schlechter + statistisch signifikant
Kontrolle: 100 Conversions, CPA 45€
Experiment: 85 Conversions, CPA 52€ (+15%)
Signifikanz: Ja
→ Entscheidung: Experiment verwerfen, Original beibehalten
Fall 3: Unterschied, aber nicht statistisch signifikant
Kontrolle: 100 Conversions, CPA 45€
Experiment: 105 Conversions, CPA 43€ (-4%)
Signifikanz: Nein (p = 0.12)
→ Entscheidung: Inconclusive. Zu wenig Daten oder echter Unterschied zu klein.
Option A: Experiment länger laufen lassen
Option B: Verwerfen (zu kleiner Impact für Risiko)
Schritt 5: Anwenden oder Verwerfen
Experiment anwenden:
- Button "Auf Kampagne anwenden"
- Experiment-Einstellungen ersetzen Original-Kampagne
- Original-Kampagne wird zu Experiment-Version
Experiment verwerfen:
- Button "Experiment beenden"
- Original-Kampagne läuft unverändert weiter
- Experiment-Daten bleiben zur Analyse erhalten
Experiment pausieren (nicht üblich): Falls Sie mehr Zeit für Entscheidung brauchen, können Sie pausieren statt zu beenden.
Experiment-Dauer und Sample Size
Wie lange sollte ein Experiment laufen?
Minimum:
- Zeit: 2 Wochen (um wöchentliche Zyklen zu erfassen)
- Daten: 50-100 Conversions pro Variante (Kontrolle UND Experiment)
Ideal:
- Zeit: 4-6 Wochen (besonders bei Smart Bidding-Tests wegen Lernphase)
- Daten: 100-200 Conversions pro Variante
Faktoren die Dauer beeinflussen:
Traffic-Volumen: High-Traffic-Kampagne (100 Conversions/Tag) → 2 Wochen reichen Low-Traffic-Kampagne (5 Conversions/Tag) → 6+ Wochen nötig
Größe des erwarteten Effekts: Erwarten Sie 50% Verbesserung → brauchen weniger Daten Erwarten Sie 10% Verbesserung → brauchen mehr Daten (kleinere Unterschiede sind schwerer zu detektieren)
Business-Zyklen: B2B mit monatlichen Entscheidungszyklen → Minimum 4 Wochen E-Commerce mit täglichen Käufen → 2-3 Wochen ok
Faustregel: Länger ist fast immer besser. Lieber 4 Wochen mit klarem Ergebnis als 2 Wochen mit Unsicherheit.
Häufige Fehler und wie Sie sie vermeiden
1. Zu viele Änderungen gleichzeitig Problem: Sie ändern Gebotsstrategie UND Budget UND Keywords im Experiment. Wenn Ergebnis anders ist, wissen Sie nicht warum. Lösung: Testen Sie eine Variable pro Experiment. Für mehrere Tests: Mehrere sequenzielle Experimente.
2. Zu früh stoppen Problem: Nach 3 Tagen sehen Sie "Experiment ist 20% besser!" und wenden sofort an. Nach einer Woche ist Kontrolle besser. Lösung: Warten Sie auf geplante Enddatum UND statistische Signifikanz.
3. Externe Faktoren ignorieren Problem: Experiment läuft über Black Friday. Ergebnisse sind verzerrt durch saisonale Effekte. Lösung: Vermeiden Sie Experiment-Starts vor großen Events. Oder: Verlängern Sie Experiment über Event hinaus für normalisierte Daten.
4. Falsches KPI fokussieren Problem: Experiment hat höhere CTR (gut!), aber schlechtere Conversion Rate und höheren CPA (schlecht). Sie wenden an weil "CTR besser ist". Lösung: Fokussieren Sie Ihr Haupt-Business-KPI (meist CPA, ROAS, oder Conversion-Volumen). Andere Metriken sind Indikatoren, nicht Ziel.
5. Statistische Signifikanz ignorieren Problem: "Experiment ist 3% besser, ich wende an" – aber nicht statistisch signifikant. Unterschied könnte Zufall sein. Lösung: Warten Sie auf Signifikanz oder sammeln Sie mehr Daten (längere Laufzeit).
6. Zu konservatives oder zu aggressives Split Problem: 90/10 Split (90% Kontrolle, 10% Experiment) → Experiment bekommt zu wenig Daten, dauert ewig. Lösung: 50/50 ist fast immer optimal für schnellste, valideste Ergebnisse.
7. Lernphase nicht respektieren Problem: Bei Smart Bidding-Test wird Experiment nach 1 Woche ausgewertet. Smart Bidding war noch in Lernphase (braucht 2 Wochen). Lösung: Bei Gebotsstrategie-Tests: Minimum 4 Wochen, ideal 6 Wochen.
Best Practices
1. Eine Hypothese pro Experiment "Ich glaube, Target CPA wird unseren CPA um 20% senken, weil Google's ML bessere Gebotsentscheidungen trifft als manuelle Gebote."
Hypothese ermöglicht bessere Post-Experiment-Analyse: War unsere Annahme korrekt?
2. Dokumentieren Sie alles Führen Sie Experiment-Log:
- Was wurde getestet
- Warum (Hypothese)
- Zeitraum
- Ergebnis
- Learnings
Nach 6 Monaten erinnern Sie sich nicht mehr an Details.
3. Testen Sie kontinuierlich Experimentieren sollte kontinuierlich sein, nicht einmalig. Immer 1-2 Experimente laufend.
4. Learnings teilen Wenn Experiment in Kampagne A funktioniert hat, testen Sie es in Kampagne B. Aber: RE-TESTEN, nicht blind übernehmen (Kontext ist wichtig).
5. Auch "gescheiterte" Experimente sind wertvoll Learning "Target CPA funktioniert NICHT für uns" ist genauso wertvoll wie "Target CPA funktioniert". Sie wissen nun, nicht weiter in diese Richtung zu investieren.
Experimente vs. andere Test-Methoden
Wann nutzen Sie was?
Google Ads Experimente:
- Für Kampagnen-Level-Änderungen (Gebote, Budget, Struktur)
- Wenn Sie statistisch valide Vergleich brauchen
- Größere Änderungen mit Risiko
Responsive Search Ads (normale Anzeigen-Tests):
- Für Anzeigentexte (Headlines, Descriptions)
- Schneller, einfacher
- Google optimiert automatisch
Entwürfe & Experimente für Landingpages:
- Für LP-Varianten-Tests
- Separater Traffic-Split zu verschiedenen URLs
Manuelle Before/After-Vergleiche:
- Für kleinere, risikoarme Änderungen
- Negative Keywords hinzufügen
- Einzelne Keywords pausieren
- Quick Wins ohne Test-Notwendigkeit
Mehr zu anderen Test-Methoden in unserem A/B Testing Guide.
FAQ
Kosten Experimente extra? Nein, Experimente sind Teil von Google Ads. Ihr Budget wird zwischen Kontrolle und Experiment aufgeteilt, Gesamt-Spend bleibt gleich.
Kann ich mehrere Experimente gleichzeitig in einer Kampagne laufen lassen? Nein, pro Kampagne nur ein aktives Experiment. Für multiple Tests: Testen Sie sequenziell oder duplizieren Sie Kampagne.
Was passiert mit Experiment-Daten nach Ende? Daten bleiben in Ihrem Konto zur Analyse. Sie können Reports darüber erstellen.
Sollte ich 50/50 oder einen anderen Split nutzen? 50/50 ist fast immer optimal. 70/30 oder 80/20 nur wenn Sie sehr konservativ sein müssen, aber dann dauert Test länger.
Wie gehe ich vor, wenn Experiment "inconclusive" ist? Lassen Sie länger laufen für mehr Daten oder akzeptieren Sie, dass Unterschied zu klein ist, um messbar zu sein (oft bedeutet das: Änderung hat minimalen Impact).
Kann ich ein Experiment vorzeitig stoppen, wenn es klar schlechter ist? Ja, bei klarem, signifikantem Negativ-Ergebnis (z.B. CPA +50% nach 2 Wochen) können Sie vorzeitig beenden. Bei unklarem Ergebnis: Weiterlaufen lassen.
Fazit
Google Ads Experimente sind das wichtigste Tool für risikoarme Optimierung. Statt Änderungen blind auf gesamte Kampagne anzuwenden, testen Sie zunächst an 50% des Traffics und entscheiden datenbasiert.
Typische Experimente und ihre Impacts:
- Gebotsstrategie-Migration: 15-40% CPA-Verbesserung (oder Verschlechterung – daher testen!)
- Budget-Skalierung: Zeigt ob Skalierung bei gleichem CPA möglich ist
- Match Type-Expansion: 20-50% mehr Traffic, Impact auf CPA variabel
- Geo/Device-Targeting: 10-30% Effizienz-Verbesserung durch Fokussierung
Ihr Experiment-Programm:
Monat 1:
- Erste Gebotsstrategie-Test (Manual → Target CPA)
- Dokumentieren Sie Learnings
Monat 2-3: 3. Budget-Skalierungs-Test 4. Match Type-Test
Monat 4+: 5. Advanced Tests (Struktur, Geo, Device) 6. Retesten von erfolgreichen Tests in anderen Kampagnen
Mit kontinuierlichem Experimentieren finden Sie systematisch Ihre optimale Kampagnen-Konfiguration. Experimente entfernen Bauchgefühl aus Optimierung und ersetzen es mit Daten.
Starten Sie heute: Identifizieren Sie eine große Änderung, die Sie schon lange vornehmen wollten, aber unsicher waren. Erstellen Sie dafür ein Experiment statt sie direkt anzuwenden. In 4 Wochen wissen Sie, ob sie funktioniert – ohne volles Risiko.
Für umfassende Optimierungsstrategien lesen Sie auch unseren Google Ads Optimierung Guide.