Google Shopping-Daten scrapen – mit oder ohne Code

Zuletzt aktualisiert am April 15, 2026

Google Shopping verarbeitet jeden Monat über . Das ist eine riesige Menge an Preisdaten, Produkttrends und Händlerinfos – direkt im Browser abrufbar und aus Tausenden Online-Shops zusammengeführt.

Diese Daten aus Google Shopping herauszuholen und in eine Tabellenkalkulation zu bringen? Genau da wird’s knifflig. Ich habe verschiedene Ansätze ausführlich getestet – von No-Code-Browser-Erweiterungen bis zu kompletten Python-Skripten – und die Spannbreite reicht von „Wow, das war ja einfach“ bis zu „Ich debugge seit drei Tagen CAPTCHAs und will nur noch aufgeben“. Die meisten Anleitungen gehen davon aus, dass du Python-Entwickler bist. In der Praxis brauchen Google-Shopping-Daten aber vor allem Ecommerce-Teams, Pricing-Analysten und Marketingverantwortliche, die einfach Zahlen wollen, ohne selbst Code zu schreiben. Deshalb behandelt dieser Leitfaden drei Methoden – von der einfachsten bis zur technischsten –, damit du den Weg wählen kannst, der zu deinem Kenntnisstand und deinem Zeitbudget passt.

Was sind Google Shopping-Daten?

Google Shopping ist eine Produktsuchmaschine. Suchst du nach „kabellose Noise-Cancelling-Kopfhörer“, zeigt Google dir Angebote aus Dutzenden Onlineshops an – Produkttitel, Preise, Händler, Bewertungen, Bilder, Links. Ein ständig aktueller Katalog dessen, was im Internet zum Verkauf steht.

Warum Google Shopping-Daten scrapen?

Eine einzelne Produktseite sagt kaum etwas aus. Erst wenn du Hunderte davon sauber in einer Tabelle strukturierst, werden Muster sichtbar.

google-shopping-manual-vs-auto (1).png

Hier sind die häufigsten Anwendungsfälle, die ich gesehen habe:

AnwendungsfallWer profitiertWonach wird gesucht
Wettbewerbsanalyse bei PreisenEcommerce-Teams, Pricing-AnalystenKonkurrenzpreise, Rabattmuster, Preisentwicklungen über Zeit
Produkttrend-ErkennungMarketing-Teams, ProduktmanagerNeue Produkte, wachsende Kategorien, Review-Dynamik
Ad-IntelligencePPC-Manager, Growth-TeamsGesponserte Listings, wer bietet mit, Anzeigenhäufigkeit
Händler-/Lead-RechercheVertriebsteams, B2BAktive Händler, neue Verkäufer in einer Kategorie
MAP-ÜberwachungBrand ManagerHändler, die Mindestpreisrichtlinien verletzen
Bestands- und SortimentstrackingCategory ManagerVerfügbarkeit, Lücken im Produktsortiment

nutzen inzwischen KI-gestützte Pricing-Tools. Unternehmen, die in Wettbewerbsinformationen zu Preisen investieren, berichten von Renditen von bis zu 29-fach. Amazon aktualisiert Preise ungefähr alle 10 Minuten. Wenn du Konkurrenzpreise noch von Hand prüfst, spricht die Rechnung ziemlich klar gegen dich.

Thunderbit ist eine KI-Web-Scraper-Chrome-Erweiterung, mit der Business-Anwender Daten von Websites mithilfe von KI extrahieren können. Besonders praktisch ist sie für Ecommerce-Teams, Pricing-Analysten und Marketingverantwortliche, die strukturierte Google-Shopping-Daten ohne Programmierung brauchen.

Welche Daten kann man aus Google Shopping eigentlich scrapen?

Bevor du ein Tool auswählst oder auch nur eine Zeile Code schreibst, lohnt es sich zu wissen, welche Felder verfügbar sind – und welche etwas mehr Aufwand brauchen.

Felder aus den Google-Shopping-Suchergebnissen

Wenn du eine Suche in Google Shopping ausführst, enthält jede Produktkarte in den Suchergebnissen:

FeldTypBeispielHinweise
ProdukttitelText"Sony WH-1000XM5 Wireless Headphones"Immer vorhanden
PreisZahl278,00 $Kann Rabattpreis + Originalpreis anzeigen
Händler/ShopText"Best Buy"Pro Produkt können mehrere Händler angezeigt werden
BewertungZahl4,7Von 5 Sternen; nicht immer sichtbar
Anzahl der BewertungenZahl12.453Bei neueren Produkten manchmal nicht vorhanden
Produktbild-URLURLhttps://...Kann beim ersten Laden einen Base64-Platzhalter liefern
ProduktlinkURLhttps://...Führt zur Google-Produktseite oder direkt zum Shop
VersandinformationenText"Kostenloser Versand"Nicht immer vorhanden
Gesponsert-TagBooleschJa/NeinKennzeichnet bezahlte Platzierung – nützlich für Ad-Analysen

Felder von Produktdetailseiten (Subpage-Daten)

Wenn du in Google Shopping auf eine einzelne Produktdetailseite klickst, bekommst du deutlich umfassendere Daten:

FeldTypHinweise
Vollständige BeschreibungTextErfordert den Besuch der Produktseite
Alle HändlerpreiseZahl (mehrere)Preisvergleich nebeneinander über verschiedene Händler hinweg
SpezifikationenTextJe nach Produktkategorie unterschiedlich (Maße, Gewicht usw.)
Einzelne BewertungstexteTextVollständige Rezensionen von Käufern
Vor- und NachteileTextWird von Google manchmal automatisch erzeugt

Diese Felder zu erfassen bedeutet, nach dem Scraping der Suchergebnisse jede Produkt-Subpage zu besuchen. Tools mit erledigen das automatisch – den Workflow zeige ich weiter unten.

Drei Wege, Google Shopping-Daten zu scrapen (Wähle deinen Ansatz)

thunderbit-web-scraping-paths.png

Drei Methoden, von der einfachsten bis zur technischsten. Wähle die Zeile, die zu deiner Situation passt, und springe direkt dorthin:

MethodeKenntnisstandEinrichtungszeitAnti-Bot-SchutzAm besten geeignet für
No-Code (Thunderbit Chrome-Erweiterung)Anfänger~2 MinutenWird automatisch gehandhabtEcommerce-Teams, Marketing, einmalige Recherchen
Python + SERP APIFortgeschritten~30 MinutenÜber die API abgewickeltEntwickler mit Bedarf an programmgesteuertem, wiederholbarem Zugriff
Python + Playwright (Browser-Automation)Fortgeschritten bis Experte~1 Stunde+Musst du selbst managenIndividuelle Pipelines, Sonderfälle

Methode 1: Google Shopping-Daten ohne Code scrapen (mit Thunderbit)

  • Schwierigkeitsgrad: Anfänger
  • Benötigte Zeit: ~2–5 Minuten
  • Was du brauchst: Chrome-Browser, (kostenlose Stufe reicht), eine Google-Shopping-Suchanfrage

Der schnellste Weg von „Ich brauche Google-Shopping-Daten“ zu „Hier ist meine Tabelle“. Kein Code, keine API-Keys, keine Proxy-Konfiguration. Ich habe diesen Ablauf schon Dutzenden nicht-technischen Kolleginnen und Kollegen gezeigt – niemand ist hängen geblieben.

Schritt 1: Thunderbit installieren und Google Shopping öffnen

Installiere den aus dem Chrome Web Store und registriere dich für ein kostenloses Konto.

Navigiere dann zu Google Shopping. Du kannst direkt shopping.google.com öffnen oder den Shopping-Tab in einer normalen Google-Suche verwenden. Such nach dem Produkt oder der Kategorie, die dich interessiert – zum Beispiel „kabellose Noise-Cancelling-Kopfhörer“.

Dann solltest du ein Raster mit Produktlisten, Preisen, Händlern und Bewertungen sehen.

Schritt 2: Auf „AI Suggest Fields“ klicken, um Spalten automatisch zu erkennen

Klicke auf das Thunderbit-Erweiterungssymbol, um die Seitenleiste zu öffnen, und wähle dann „AI Suggest Fields“. Die KI scannt die Google-Shopping-Seite und schlägt Spalten vor: Produkttitel, Preis, Händler, Bewertung, Anzahl der Bewertungen, Bild-URL, Produktlink.

Prüfe die vorgeschlagenen Felder. Du kannst Spalten umbenennen, nicht benötigte entfernen oder benutzerdefinierte Felder hinzufügen. Wenn du es genauer willst – etwa „nur den numerischen Preis ohne Währungssymbol extrahieren“ – kannst du dieser Spalte einen Field AI Prompt hinzufügen.

Im Thunderbit-Panel siehst du eine Vorschau der Spaltenstruktur.

Schritt 3: Auf „Scrape“ klicken und Ergebnisse prüfen

Klicke auf den blauen Button „Scrape“. Thunderbit übernimmt alle sichtbaren Produkte und überführt sie in eine strukturierte Tabelle.

Mehrere Seiten? Thunderbit behandelt die Seitennavigation automatisch – per Klick durch die Seiten oder per Scrollen, um weitere Ergebnisse nachzuladen, je nach Layout. Bei vielen Ergebnissen kannst du zwischen Cloud Scraping (schneller, bis zu 50 Seiten gleichzeitig, läuft über Thunderbits verteilte Infrastruktur) und Browser Scraping (nutzt deine eigene Chrome-Sitzung – praktisch, wenn Google regionsabhängige Ergebnisse zeigt oder ein Login erforderlich ist) wählen.

In meinen Tests dauerte das Scrapen von 50 Produktlisten etwa 30 Sekunden. Dieselbe Aufgabe manuell – jede Liste öffnen, Titel, Preis, Händler und Bewertung kopieren – hätte mehr als 20 Minuten gebraucht.

Schritt 4: Daten mit Subpage-Scraping anreichern

Nach dem ersten Scraping klickst du im Thunderbit-Panel auf „Scrape Subpages“. Die KI besucht jede Produktdetailseite und ergänzt die ursprüngliche Tabelle um weitere Felder – vollständige Beschreibungen, alle Händlerpreise, Spezifikationen und Bewertungen.

Keine zusätzliche Konfiguration nötig – die KI erkennt die Struktur der Detailseiten und zieht die relevanten Daten. Ich habe so innerhalb von weniger als 5 Minuten eine komplette Wettbewerbs-Matrix für 40 Produkte erstellt (Produkt + alle Händlerpreise + Spezifikationen).

Schritt 5: In Google Sheets, Excel, Airtable oder Notion exportieren

Klicke auf „Export“ und wähle dein Ziel – , Excel, Airtable oder Notion. Alles kostenlos. CSV- und JSON-Downloads sind ebenfalls verfügbar.

Zwei Klicks zum Scrapen, ein Klick zum Exportieren. Das passende Python-Skript? Rund 60 Zeilen Code, Proxy-Konfiguration, CAPTCHA-Handling und laufende Wartung.

Methode 2: Google Shopping-Daten mit Python + SERP API scrapen

  • Schwierigkeitsgrad: Fortgeschritten
  • Benötigte Zeit: ~30 Minuten
  • Was du brauchst: Python 3.10+, die Bibliotheken requests und pandas, einen SERP-API-Schlüssel (ScraperAPI, SerpApi oder ähnlich)

Wenn du programmgesteuerten, wiederholbaren Zugriff auf Google-Shopping-Daten brauchst, ist eine SERP API der verlässlichste Python-basierte Ansatz. Anti-Bot-Maßnahmen, JavaScript-Rendering, Proxy-Rotation – all das läuft im Hintergrund. Du sendest eine HTTP-Anfrage und bekommst strukturierte JSON-Daten zurück.

Schritt 1: Python-Umgebung einrichten

Installiere Python 3.12 (2025–2026 die sicherste Standardwahl für produktive Umgebungen) und die benötigten Pakete:

1pip install requests pandas

Registriere dich bei einem SERP-API-Anbieter. bietet 100 kostenlose Suchanfragen pro Monat; stellt 5.000 kostenlose Credits bereit. Den API-Schlüssel findest du im Dashboard.

Schritt 2: API-Anfrage konfigurieren

Hier ist ein minimales Beispiel mit dem Google-Shopping-Endpunkt von ScraperAPI:

1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5> This paragraph contains content that cannot be parsed and has been skipped.
6Die API liefert strukturiertes JSON mit Feldern wie `title`, `price`, `link`, `thumbnail`, `source` (Händler) und `rating`.
7### Schritt 3: JSON-Antwort parsen und Felder extrahieren
8```python
9products = data.get("shopping_results", [])
10rows = []
11for p in products:
12    rows.append({
13        "title": p.get("title"),
14        "price": p.get("price"),
15        "seller": p.get("source"),
16        "rating": p.get("rating"),
17        "reviews": p.get("reviews"),
18        "link": p.get("link"),
19        "thumbnail": p.get("thumbnail"),
20    })
21df = pd.DataFrame(rows)

Schritt 4: Als CSV oder JSON exportieren

1df.to_csv("google_shopping_results.csv", index=False)

Batch-freundlich: Du kannst 50 Keywords in einer Schleife abarbeiten und in einem Skriptlauf einen vollständigen Datensatz aufbauen. Der Nachteil sind die Kosten – SERP APIs rechnen pro Anfrage ab, und bei Tausenden Anfragen pro Tag steigen die Ausgaben schnell. Mehr dazu weiter unten.

Methode 3: Google Shopping-Daten mit Python + Playwright scrapen (Browser-Automation)

  • Schwierigkeitsgrad: Fortgeschritten
  • Benötigte Zeit: ~1 Stunde+ (plus laufende Wartung)
  • Was du brauchst: Python 3.10+, Playwright, Residential Proxies, Geduld

Der Ansatz mit „maximaler Kontrolle“. Du startest einen echten Browser, navigierst zu Google Shopping und extrahierst Daten aus der gerenderten Seite. Sehr flexibel, aber auch ziemlich anfällig – Googles Anti-Bot-Systeme sind aggressiv, und die Seitenstruktur ändert sich mehrmals pro Jahr.

Warnung aus Erfahrung: Ich habe Nutzer erlebt, die wochenlang gegen CAPTCHAs und IP-Sperren gekämpft haben. Es funktioniert, aber rechne mit laufender Wartung.

Schritt 1: Playwright und Proxies einrichten

1pip install playwright
2playwright install chromium

Du brauchst Residential Proxies. Rechenzentrums-IP-Adressen werden fast sofort blockiert – ein Foren-Nutzer formulierte es drastisch: „Alle AWS-IPs werden blockiert oder stoßen nach 1/2 Ergebnissen auf ein CAPTCHA.“ Dienste wie Bright Data, Oxylabs oder Decodo bieten Residential-Proxy-Pools ab etwa 1–5 $/GB.

Konfiguriere Playwright mit einem realistischen User-Agent und deinem Proxy:

1from playwright.sync_api import sync_playwright
2> This paragraph contains content that cannot be parsed and has been skipped.
3### Schritt 2: Zu Google Shopping navigieren und Anti-Bot-Maßnahmen behandeln
4Erstelle die Google-Shopping-URL und öffne sie:
5```python
6query = "wireless noise cancelling headphones"
7url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
8page.goto(url, wait_until="networkidle")

Falls das Cookie-Einwilligungsfenster für die EU erscheint, schließe es:

1try:
2    page.click("button#L2AGLb", timeout=3000)
3except:
4    pass

Baue menschlich wirkende Pausen zwischen den Aktionen ein – 2 bis 5 Sekunden zufällige Wartezeit zwischen Seitenaufrufen. Googles Erkennungssysteme reagieren empfindlich auf schnelle, gleichmäßige Anfrage-Muster.

Schritt 3: Scrollen, Seiten wechseln und Produktdaten extrahieren

Google Shopping lädt Ergebnisse dynamisch. Scrolle, um Lazy Loading auszulösen, und extrahiere dann die Produktkarten:

1import time, random
2# Scrollen, um alle Ergebnisse zu laden
3for _ in range(3):
4    page.evaluate("window.scrollBy(0, 1000)")
5    time.sleep(random.uniform(1.5, 3.0))
6> This paragraph contains content that cannot be parsed and has been skipped.
7Wichtiger Hinweis: Die CSS-Selektoren oben sind nur Näherungen und **werden sich ändern**. Google rotiert Klassennamen häufig. Allein zwischen 2024 und 2026 wurden drei unterschiedliche Selektor-Sets dokumentiert. Verlass dich eher auf stabilere Attribute wie `jsname`, `data-cid`, `<h3>`-Tags und `img[alt]` statt auf Klassennamen.
8### Schritt 4: Als CSV oder JSON speichern
9```python
10import json
11from datetime import datetime
12filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
13with open(filename, "w") as f:
14    json.dump(results, f, indent=2)

Rechne damit, dieses Skript regelmäßig warten zu müssen. Wenn Google die Seitenstruktur ändert – was mehrmals pro Jahr passiert –, brechen deine Selektoren und du landest wieder beim Debugging.

Das größte Problem: CAPTCHAs und Anti-Bot-Sperren

In jedem zweiten Forum liest du im Grunde dieselbe Geschichte: „Ich habe ein paar Wochen investiert, aber gegen Googles Anti-Bot-Methoden aufgegeben.“ CAPTCHAs und IP-Sperren sind der Hauptgrund, warum viele DIY-Google-Shopping-Scraper irgendwann aufgeben.

Wie Google Scraper blockiert – und was dagegen hilft

This paragraph contains content that cannot be parsed and has been skipped.

Im Januar 2025 machte Google die JavaScript-Ausführung für SERP- und Shopping-Ergebnisse verpflichtend und – darunter auch Pipelines, die von SemRush und SimilarWeb genutzt wurden. Im September 2025 ersetzte Google dann die alten Produktdetailseiten-URLs durch eine neue „Immersive Product“-Oberfläche, die per asynchronem AJAX geladen wird. Jede Anleitung vor Ende 2025 ist damit heute weitgehend überholt.

Wie die einzelnen Methoden mit diesen Herausforderungen umgehen

SERP APIs erledigen alles im Hintergrund – Proxies, Rendering, CAPTCHA-Lösung. Du musst dich darum nicht kümmern.

Thunderbit Cloud Scraping nutzt verteilte Cloud-Infrastruktur in den USA, der EU und Asien, um JS-Rendering und Anti-Bot-Maßnahmen automatisch zu bewältigen. Der Browser-Scraping-Modus verwendet deine eigene authentifizierte Chrome-Sitzung – das umgeht Erkennung, weil es wie normales Surfen aussieht.

DIY mit Playwright überträgt die gesamte Verantwortung auf dich – Proxy-Management, Verzögerungs-Tuning, CAPTCHA-Lösung, Pflege der Selektoren und ständige Überwachung auf Fehler.

Die echten Kosten für Google Shopping-Daten-Scraping: Ein ehrlicher Vergleich

„50 $ für rund 20.000 Anfragen … etwas happig für mein Hobbyprojekt.“ Solche Beschwerden tauchen ständig in Foren auf. Dabei wird in der Regel der größte Kostenfaktor überhaupt übersehen.

Kostenvergleich

AnsatzStartkostenKosten pro Anfrage (geschätzt)WartungsaufwandVersteckte Kosten
DIY Python (ohne Proxy)Kostenlos0 $HOCH (Fehler, CAPTCHAs)Deine Zeit fürs Debugging
DIY Python + Residential ProxiesKostenloser Codeca. 1–5 $/GBMITTEL-HOCHGebühren des Proxy-Anbieters
SERP API (SerpApi, ScraperAPI)Kostenloses Kontingent begrenztca. 0,50–5,00 $/1K AnfragenNIEDRIGSkaliert bei hohem Volumen schnell
Thunderbit Chrome-ErweiterungKostenloses Kontingent (6 Seiten)kreditbasiert, ca. 1 Kredit/ZeileSEHR NIEDRIGBezahlplan bei hohem Volumen
Thunderbit Open API (Extract)kreditbasiertca. 20 Credits/SeiteNIEDRIGBezahlung pro Extraktion

Die versteckten Kosten, die alle ignorieren: deine Zeit

Eine DIY-Lösung für 0 $, die 40 Stunden Debugging frisst, ist nicht kostenlos. Bei 50 $ pro Stunde sind das 2.000 $ Arbeitskosten – für einen Scraper, der nächsten Monat wieder kaputt sein kann, wenn Google sein DOM ändert.

google-shopping-cost-vs (2).png

Die Technology Outlook von McKinsey sieht den . Unterhalb dieser Schwelle „verbraucht Eigenentwicklung Budget, ohne ROI zu liefern“. Für die meisten Ecommerce-Teams, die pro Woche nur einige hundert bis einige tausend Abfragen durchführen, ist ein No-Code-Tool oder eine SERP API deutlich kosteneffizienter als eine Eigenlösung.

So richtest du automatisches Google-Shopping-Preis-Monitoring ein

Die meisten Anleitungen behandeln Scraping als einmalige Aufgabe. Der eigentliche Anwendungsfall für Ecommerce-Teams ist aber laufendes, automatisiertes Monitoring. Du brauchst nicht nur die heutigen Preise – sondern auch die von gestern, letzter Woche und morgen.

Geplantes Scraping mit Thunderbit einrichten

Mit Thunderbits Scheduled Scraper kannst du das Zeitintervall in normaler Sprache beschreiben – „jeden Tag um 9 Uhr“ oder „jeden Montag und Donnerstag um 12 Uhr“ – und die KI wandelt das in einen wiederkehrenden Zeitplan um. Gib deine Google-Shopping-URLs ein, klicke auf „Schedule“, und fertig.

Jeder Lauf wird automatisch in Google Sheets, Airtable oder Notion exportiert. Das Endergebnis: eine Tabelle, die sich täglich mit Konkurrenzpreisen füllt und sofort für Pivot-Tabellen oder Alarme bereitsteht.

Keine Cron-Jobs. Kein Server-Management. Kein Lambda-Stress. (Ich habe Forumsposts von Entwicklern gesehen, die tagelang versucht haben, Selenium in AWS Lambda zum Laufen zu bringen – Thunderbit spart genau diesen Aufwand.)

Mehr zum Aufbau von findest du in unserem separaten Deep Dive.

Zeitpläne mit Python erstellen (für Entwickler)

Wenn du den SERP-API-Ansatz verwendest, kannst du Läufe per Cron-Job (Linux/Mac), Windows Task Scheduler oder Cloud-Scheduler wie AWS Lambda oder Google Cloud Functions planen. Python-Bibliotheken wie APScheduler funktionieren ebenfalls.

Der Nachteil: Du bist jetzt selbst verantwortlich für Monitoring, Fehlerbehandlung, das Rotieren von Proxies nach Zeitplan und das Aktualisieren der Selektoren, wenn Google die Seite verändert. Für die meisten Teams liegen die Engineering-Zeiten zur Pflege eines geplanten Python-Scrapers über den Kosten eines spezialisierten Tools.

Tipps und Best Practices für Google Shopping-Daten-Scraping

Unabhängig von der Methode sparen dir ein paar Dinge eine Menge Ärger.

Rate Limits respektieren

Belagere Google nicht mit Hunderten schneller Anfragen – du wirst blockiert, und deine IP kann noch eine Weile markiert bleiben. Bei DIY-Methoden: Anfragen mit 10–20 Sekunden Abstand und zufälliger Streuung senden. Tools und APIs übernehmen das für dich.

Methode an dein Volumen anpassen

Kurzer Entscheidungsleitfaden:

  • < 10 Anfragen/Woche → Thunderbit Free-Tier oder SerpApi-Free-Tier
  • 10–1.000 Anfragen/Woche → Bezahlplan einer SERP API oder
  • 1.000+ Anfragen/Woche → Enterprise-Plan einer SERP API oder Thunderbit Open API

Daten bereinigen und validieren

Preise kommen mit Währungssymbolen, länderspezifischer Formatierung (1.299,00 € vs. 1,299.00 $) und gelegentlichem Sonderzeichen-Müll. Nutze Thunderbits Field AI Prompts zur Normalisierung beim Extrahieren oder bereinige die Daten danach mit pandas:

1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)

Prüfe auf Duplikate zwischen organischen und gesponserten Listings – sie überschneiden sich oft. Dedupliziere nach dem Tupel (Titel, Preis, Händler).

Die rechtliche Lage kennen

Das Scrapen öffentlich zugänglicher Produktdaten gilt grundsätzlich als legal, aber die rechtliche Lage entwickelt sich schnell weiter. Die wichtigste jüngere Entwicklung: nach DMCA § 1201 wegen Umgehung von Googles Anti-Scraping-System „SearchGuard“. Das ist ein neuer Durchsetzungsansatz, der die Verteidigungsargumente früherer Fälle wie hiQ v. LinkedIn und Van Buren v. United States umgeht.

Praktische Leitlinien:

  • Nur öffentlich verfügbare Daten scrapen – kein Login für geschützte Inhalte
  • Keine personenbezogenen Informationen extrahieren (Namen von Rezensenten, Kontodetails)
  • Beachte, dass Googles Nutzungsbedingungen automatisierten Zugriff verbieten – SERP API oder Browser-Erweiterung reduzieren die rechtlichen Grauzonen, beseitigen sie aber nicht vollständig
  • Für EU-Projekte die DSGVO mitdenken, auch wenn Produktlisten überwiegend nicht-personenbezogene Geschäftsdaten sind
  • Bei einem kommerziellen Produkt auf Basis gescrapter Daten rechtlichen Rat einholen

Einen tieferen Blick auf haben wir in einem eigenen Beitrag aufbereitet.

Welche Methode sollten Sie zum Scrapen von Google Shopping-Daten verwenden?

Nachdem ich alle drei Ansätze für dieselben Produktkategorien getestet habe, ist mein Fazit dieses:

Wenn du ein nicht-technischer Nutzer bist und schnell Daten brauchst – nimm Thunderbit. Google Shopping öffnen, zweimal klicken, exportieren. In unter 5 Minuten hast du eine saubere Tabelle. Das erlaubt den risikofreien Einstieg, und das Subpage-Scraping liefert oft mehr Daten, als die meisten Python-Skripte schaffen.

Wenn du Entwickler bist und programmgesteuerten, wiederholbaren Zugriff brauchst – nutze eine SERP API. Die Zuverlässigkeit rechtfertigt die Kosten pro Anfrage, und du umgehst den ganzen Anti-Bot-Stress. SerpApi hat die beste Dokumentation; ScraperAPI das großzügigste Free-Tier.

Wenn du maximale Kontrolle brauchst und eine eigene Pipeline bauen willst – Playwright funktioniert, aber nur mit realistischer Erwartung. Plane viel Zeit für Proxy-Management, Selektorpflege und CAPTCHA-Handling ein. 2025–2026 ist ein Minimal-Stack zur Umgehung curl_cffi mit Chrome-Imitation + Residential Proxies + 10–20 Sekunden Taktung. Ein einfaches requests-Skript mit rotierenden User-Agents reicht nicht mehr.

Die beste Methode ist diejenige, mit der du verlässliche Daten bekommst, ohne deine Woche zu verbrennen. Für die meisten Menschen ist das kein 60-Zeilen-Python-Skript – sondern zwei Klicks.

Sieh dir an, wenn du größere Mengen brauchst, oder schau unsere Tutorials auf dem an, um den Workflow in Aktion zu sehen.

Thunderbit für Google-Shopping-Scraping testen

FAQs

Das Scrapen öffentlich verfügbarer Produktdaten ist unter Präzedenzfällen wie hiQ v. LinkedIn und Van Buren v. United States grundsätzlich legal. Allerdings verbieten die Google-Nutzungsbedingungen automatisierten Zugriff, und Googles Klage gegen SerpApi im Dezember 2025 brachte eine neue DMCA-§1201-Umgehungstheorie ins Spiel. Die Nutzung seriöser Tools und APIs reduziert das Risiko. Für kommerzielle Anwendungsfälle solltest du juristischen Rat einholen.

Kann ich Google Shopping scrapen, ohne blockiert zu werden?

Ja, aber die Methode ist entscheidend. SERP APIs übernehmen Anti-Bot-Maßnahmen automatisch. Thunderbits Cloud Scraping nutzt verteilte Infrastruktur, um Sperren zu vermeiden, während der Browser-Scraping-Modus deine eigene Chrome-Sitzung nutzt und dadurch wie normales Surfen wirkt. DIY-Python-Skripte brauchen Residential Proxies, menschlich wirkende Verzögerungen und TLS-Fingerprint-Management – und selbst dann sind Blocks häufig.

Was ist der einfachste Weg, Google Shopping-Daten zu scrapen?

Thunderbits Chrome-Erweiterung. Geh zu Google Shopping, klicke auf „AI Suggest Fields“, dann auf „Scrape“ und exportiere nach Google Sheets oder Excel. Kein Programmieren, keine API-Keys, keine Proxy-Konfiguration. Der gesamte Prozess dauert etwa 2 Minuten.

Wie oft kann ich Google Shopping für Preis-Monitoring scrapen?

Mit Thunderbits Scheduled Scraper kannst du tägliches, wöchentliches oder frei definierbares Monitoring in normaler Sprache einrichten. Bei SERP APIs hängt die Frequenz von den Kreditlimits deines Plans ab – die meisten Anbieter erlauben tägliches Monitoring für einige Hundert SKUs. DIY-Skripte können so oft laufen, wie deine Infrastruktur es zulässt, aber höhere Frequenz bedeutet auch mehr Anti-Bot-Probleme.

Kann ich Google Shopping-Daten nach Google Sheets oder Excel exportieren?

Ja. Thunderbit exportiert kostenlos direkt nach Google Sheets, Excel, Airtable und Notion. Python-Skripte können als CSV oder JSON exportieren, die du anschließend in jedes Tabellenwerkzeug importieren kannst. Für laufendes Monitoring erzeugen Thunderbits geplante Exporte nach Google Sheets einen lebenden, automatisch aktualisierten Datensatz.

  • Mehr erfahren
Topics
Google Shopping mit Python scrapenPython Google Shopping ScraperGoogle Shopping-Daten mit Python extrahierenProduktpreise aus Google Shopping mit Python scrapen
Inhaltsverzeichnis

Teste Thunderbit

Leads und andere Daten in nur 2 Klicks extrahieren. Mit KI unterstützt.

Thunderbit holen Kostenlos
Daten mit KI extrahieren
Daten einfach zu Google Sheets, Airtable oder Notion übertragen
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week