Google Shopping-Daten scrapen — mit oder ohne Code

Zuletzt aktualisiert am April 14, 2026

Google Shopping verarbeitet jeden Monat über . Das ist eine riesige Menge an Preisdaten, Produkttendenzen und Händlerinfos — alles direkt im Browser gesammelt, aus Tausenden von Shops.

Diese Daten aus Google Shopping in eine Tabelle zu bekommen? Genau da wird’s kompliziert. Ich habe viel Zeit damit verbracht, verschiedene Wege auszuprobieren — von No-Code-Browser-Erweiterungen bis hin zu kompletten Python-Skripten — und die Spanne reicht von „Wow, das ging ja einfach“ bis zu „Ich debugge seit drei Tagen CAPTCHAs und will einfach nur noch aufgeben“. Die meisten Anleitungen setzen voraus, dass man Python-Entwickler ist. Aus meiner Erfahrung ist aber ein großer Teil der Leute, die Google-Shopping-Daten brauchen, im E-Commerce, in der Preisanalyse oder im Marketing unterwegs und will einfach Zahlen statt Code. Deshalb stellt dieser Leitfaden drei Methoden vor — von der einfachsten bis zur technischsten — damit Sie den Weg wählen können, der zu Ihrem Können und Ihrem Zeitbudget passt.

Was sind Google Shopping-Daten?

Google Shopping ist eine Produktsuchmaschine. Wer nach „kabellose Noise-Cancelling-Kopfhörer“ sucht, bekommt von Google Angebote aus Dutzenden Onlineshops angezeigt — Produkttitel, Preise, Händler, Bewertungen, Bilder und Links. Ein live gepflegter Katalog aller Artikel, die es im Netz zu kaufen gibt.

Warum Google Shopping-Daten scrapen?

Eine einzelne Produktseite sagt kaum etwas aus. Erst wenn Hunderte davon sauber in einer Tabelle stehen, werden Muster sichtbar.

google-shopping-manual-vs-auto (1).png

Hier sind die häufigsten Anwendungsfälle, die ich gesehen habe:

AnwendungsfallWer davon profitiertWonach gesucht wird
Wettbewerbsfähige PreisanalysenE-Commerce-Teams, PreisanalystenKonkurrenzpreise, Rabattmuster, Preisentwicklungen über Zeit
Erkennung von ProduktrendsMarketingteams, ProduktmanagerNeue Produkte, wachsende Kategorien, Bewertungsdynamik
WerbeintelligenzPPC-Manager, Growth-TeamsGesponserte Einträge, wer bietet auf was, Anzeigenhäufigkeit
Händler-/Lead-RechercheVertriebsteams, B2BAktive Händler, neue Anbieter in einer Kategorie
MAP-MonitoringBrand ManagerHändler, die Mindestpreisrichtlinien verletzen
Bestands- und SortimentsüberwachungCategory ManagerVerfügbarkeit, Lücken im Sortiment

setzen inzwischen auf KI-gestützte Preistools. Unternehmen, die in wettbewerbsorientierte Preisinformationen investieren, berichten von Renditen von bis zu 29-fach. Amazon aktualisiert Preise ungefähr alle 10 Minuten. Wenn Sie Wettbewerberpreise noch per Hand prüfen, spricht die Rechnung nicht für Sie.

Thunderbit ist eine AI Web Scraper Chrome-Erweiterung, mit der Geschäftsanwender Webseiten mithilfe von KI auslesen können. Besonders praktisch ist sie für E-Commerce-Teams, Preisanalysten und Marketer, die strukturierte Google-Shopping-Daten ohne Programmierung brauchen.

Welche Daten lassen sich aus Google Shopping wirklich scrapen?

Bevor Sie ein Tool auswählen oder eine Zeile Code schreiben, sollten Sie genau wissen, welche Felder verfügbar sind — und welche nur mit zusätzlichem Aufwand erreichbar sind.

Felder aus den Google Shopping Suchergebnissen

Wenn Sie eine Suche in Google Shopping ausführen, enthält jede Produktkarte auf der Ergebnisseite:

FeldTypBeispielHinweise
ProdukttitelText"Sony WH-1000XM5 Wireless Headphones"Immer vorhanden
PreisZahl$278,00Kann Angebotspreis + Originalpreis anzeigen
Händler/ShopText"Best Buy"Pro Produkt können mehrere Händler vorhanden sein
BewertungZahl4,7Von 5 Sternen; nicht immer sichtbar
Anzahl der BewertungenZahl12.453Bei neueren Produkten manchmal nicht vorhanden
Produktbild-URLURLhttps://...Kann beim ersten Laden einen Base64-Platzhalter liefern
ProduktlinkURLhttps://...Führt zur Google-Produktseite oder direkt zum Shop
VersandinfosText"Kostenloser Versand"Nicht immer vorhanden
Sponsored-TagBooleschJa/NeinKennzeichnet bezahlte Platzierungen — nützlich für Ad-Analysen

Felder aus Produktdetailseiten (Subpage-Daten)

Wenn Sie auf die Detailseite eines einzelnen Produkts in Google Shopping klicken, erhalten Sie umfangreichere Daten:

FeldTypHinweise
Vollständige BeschreibungTextErfordert den Besuch der Produktseite
Alle HändlerpreiseZahl (mehrere)Preisvergleich nebeneinander über verschiedene Händler hinweg
SpezifikationenTextVariiert je nach Produktkategorie (Abmessungen, Gewicht usw.)
Einzelne BewertungsinhalteTextVollständiger Bewertungstext von Käufern
Vor-/Nachteile-ZusammenfassungenTextGoogle generiert diese manchmal automatisch

Um an diese Felder zu kommen, müssen Sie nach dem Scrapen der Suchergebnisse jeweils die Unterseite des Produkts besuchen. Tools mit erledigen das automatisch — den Workflow zeige ich weiter unten.

Drei Wege, Google Shopping-Daten zu scrapen (wählen Sie Ihren Weg)

thunderbit-web-scraping-paths.png

Drei Methoden, sortiert von einfach bis technisch. Wählen Sie die Zeile, die zu Ihrer Situation passt, und springen Sie direkt los:

MethodeKenntnisstandEinrichtungszeitAnti-Bot-HandlingAm besten geeignet für
No-Code (Thunderbit Chrome-Erweiterung)Einsteiger~2 MinutenAutomatisch erledigtE-Commerce, Marketing, einmalige Recherchen
Python + SERP APIMittelstufe~30 MinutenÜber die API abgefangenEntwickler, die programmatisch und wiederholbar zugreifen wollen
Python + Playwright (Browser-Automatisierung)Fortgeschritten~1 Stunde+Selbst zu verwaltenEigene Pipelines, Spezialfälle

Methode 1: Google Shopping-Daten ohne Code scrapen (mit Thunderbit)

  • Schwierigkeit: Einsteiger
  • Benötigte Zeit: ~2–5 Minuten
  • Was Sie brauchen: Chrome-Browser, (Gratis-Tarif reicht), eine Google-Shopping-Suchanfrage

Der schnellste Weg von „Ich brauche Google Shopping-Daten“ zu „Hier ist meine Tabelle“. Kein Code, keine API-Keys, keine Proxy-Konfiguration. Ich habe diesen Ablauf dutzende Male mit nicht-technischen Kollegen durchgespielt — niemand ist hängen geblieben.

Schritt 1: Thunderbit installieren und Google Shopping öffnen

Installieren Sie den aus dem Chrome Web Store und legen Sie ein kostenloses Konto an.

Rufen Sie dann Google Shopping auf. Sie können direkt shopping.google.com öffnen oder in einer normalen Google-Suche den Shopping-Tab nutzen. Suchen Sie nach dem Produkt oder der Kategorie, die Sie interessiert — zum Beispiel „kabellose Noise-Cancelling-Kopfhörer“.

Sie sollten ein Raster mit Produktlisten, Preisen, Händlern und Bewertungen sehen.

Schritt 2: Auf „AI Suggest Fields“ klicken, um Spalten automatisch zu erkennen

Klicken Sie auf das Thunderbit-Erweiterungssymbol, um die Seitenleiste zu öffnen, und wählen Sie dann „AI Suggest Fields“. Die KI scannt die Google-Shopping-Seite und schlägt Spalten vor: Produkttitel, Preis, Händler, Bewertung, Anzahl der Bewertungen, Bild-URL, Produktlink.

Prüfen Sie die vorgeschlagenen Felder. Sie können Spalten umbenennen, nicht benötigte entfernen oder benutzerdefinierte Felder hinzufügen. Wenn Sie etwas Spezifisches brauchen — zum Beispiel „nur den numerischen Preis ohne Währungssymbol“ — können Sie für diese Spalte einen Field AI Prompt hinzufügen.

In der Thunderbit-Oberfläche sehen Sie eine Vorschau der Spaltenstruktur.

Schritt 3: Auf „Scrape“ klicken und Ergebnisse prüfen

Drücken Sie den blauen „Scrape“-Button. Thunderbit übernimmt alle sichtbaren Produktlisten in eine strukturierte Tabelle.

Mehrere Seiten? Thunderbit kümmert sich automatisch um die Pagination — je nach Layout durch Klicks oder durch Scrollen, um weitere Ergebnisse zu laden. Wenn viele Treffer vorhanden sind, können Sie zwischen Cloud Scraping (schneller, verarbeitet bis zu 50 Seiten gleichzeitig, läuft über die verteilte Thunderbit-Infrastruktur) und Browser Scraping (nutzt Ihre eigene Chrome-Sitzung — praktisch, wenn Google regionsspezifische Ergebnisse zeigt oder ein Login verlangt) wählen.

In meinen Tests dauerte das Scrapen von 50 Produktlisten etwa 30 Sekunden. Die gleiche Aufgabe manuell — jede Liste öffnen, Titel, Preis, Händler und Bewertung kopieren — hätte mich 20+ Minuten gekostet.

Schritt 4: Daten mit Subpage-Scraping anreichern

Nach dem ersten Scrape klicken Sie im Thunderbit-Panel auf „Scrape Subpages“. Die KI besucht jede Produktdetailseite und ergänzt zusätzliche Felder — vollständige Beschreibungen, alle Händlerpreise, Spezifikationen und Bewertungen — in der ursprünglichen Tabelle.

Keine zusätzliche Konfiguration nötig — die KI erkennt die Struktur jeder Detailseite und zieht die relevanten Daten heraus. Auf diese Weise habe ich für 40 Produkte in unter 5 Minuten eine komplette Preisvergleichsmatrix erstellt (Produkt + alle Händlerpreise + Spezifikationen).

Schritt 5: Nach Google Sheets, Excel, Airtable oder Notion exportieren

Klicken Sie auf „Export“ und wählen Sie Ihr Ziel — , Excel, Airtable oder Notion. Alles kostenlos. CSV- und JSON-Downloads sind ebenfalls verfügbar.

Zwei Klicks zum Scrapen, ein Klick zum Exportieren. Das entsprechende Python-Skript? Etwa 60 Zeilen Code, Proxy-Konfiguration, CAPTCHA-Handling und laufende Wartung.

Methode 2: Google Shopping-Daten mit Python + einer SERP API scrapen

  • Schwierigkeit: Mittelstufe
  • Benötigte Zeit: ~30 Minuten
  • Was Sie brauchen: Python 3.10+, die Bibliotheken requests und pandas, einen SERP-API-Key (ScraperAPI, SerpApi oder ähnlich)

Wenn Sie programmgesteuerten, wiederholbaren Zugriff auf Google Shopping-Daten brauchen, ist eine SERP API der verlässlichste Python-basierte Ansatz. Anti-Bot-Maßnahmen, JavaScript-Rendering, Proxy-Rotation — alles läuft im Hintergrund. Sie senden einen HTTP-Request und bekommen strukturiertes JSON zurück.

Schritt 1: Python-Umgebung einrichten

Installieren Sie Python 3.12 (2025–2026 die sicherste Produktionsbasis) und die benötigten Pakete:

1pip install requests pandas

Registrieren Sie sich bei einem SERP-API-Anbieter. bietet 100 kostenlose Suchen pro Monat; gibt 5.000 kostenlose Credits. Holen Sie sich Ihren API-Schlüssel im Dashboard.

Schritt 2: API-Anfrage konfigurieren

Hier ist ein minimales Beispiel mit dem Google-Shopping-Endpunkt von ScraperAPI:

1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5> This paragraph contains content that cannot be parsed and has been skipped.
6Die API liefert strukturiertes JSON mit Feldern wie `title`, `price`, `link`, `thumbnail`, `source` (Händler) und `rating`.
7### Schritt 3: JSON-Antwort parsen und Felder extrahieren
8```python
9products = data.get("shopping_results", [])
10rows = []
11for p in products:
12    rows.append({
13        "title": p.get("title"),
14        "price": p.get("price"),
15        "seller": p.get("source"),
16        "rating": p.get("rating"),
17        "reviews": p.get("reviews"),
18        "link": p.get("link"),
19        "thumbnail": p.get("thumbnail"),
20    })
21df = pd.DataFrame(rows)

Schritt 4: Als CSV oder JSON exportieren

1df.to_csv("google_shopping_results.csv", index=False)

Batch-freundlich: 50 Keywords in einer Schleife abarbeiten und mit einem Skript einen kompletten Datensatz erzeugen. Der Nachteil ist die Kostenstruktur — SERP APIs rechnen pro Anfrage ab, und bei Tausenden Anfragen pro Tag summiert sich das schnell. Mehr dazu unten.

Methode 3: Google Shopping-Daten mit Python + Playwright scrapen (Browser-Automatisierung)

  • Schwierigkeit: Fortgeschritten
  • Benötigte Zeit: ~1 Stunde+ (plus laufende Wartung)
  • Was Sie brauchen: Python 3.10+, Playwright, Residential Proxies, Geduld

Der Ansatz mit „maximaler Kontrolle“. Sie starten einen echten Browser, navigieren zu Google Shopping und ziehen die Daten direkt aus der gerenderten Seite. Das ist am flexibelsten, aber auch am fragilsten — Googles Anti-Bot-Systeme sind aggressiv, und die Seitenstruktur ändert sich mehrmals im Jahr.

Vorwarnung: Ich habe mit Nutzern gesprochen, die bei diesem Ansatz wochenlang gegen CAPTCHAs und IP-Blocks gekämpft haben. Es funktioniert, aber rechnen Sie mit kontinuierlicher Wartung.

Schritt 1: Playwright und Proxies einrichten

1pip install playwright
2playwright install chromium

Sie brauchen Residential Proxies. Rechenzentrums-IPs werden fast sofort geblockt — ein Forennutzer brachte es auf den Punkt: „Alle AWS-IPs werden geblockt oder stoßen nach 1/2 Ergebnissen auf ein CAPTCHA.“ Dienste wie Bright Data, Oxylabs oder Decodo bieten Residential-Proxy-Pools ab etwa 1–5 $/GB.

Konfigurieren Sie Playwright mit einem realistischen User-Agent und Ihrem Proxy:

1from playwright.sync_api import sync_playwright
2> This paragraph contains content that cannot be parsed and has been skipped.
3### Schritt 2: Zu Google Shopping navigieren und Anti-Bot-Maßnahmen behandeln
4Bauen Sie die Google-Shopping-URL und rufen Sie sie auf:
5```python
6query = "wireless noise cancelling headphones"
7url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
8page.goto(url, wait_until="networkidle")

Falls das Cookie-Einwilligungsfenster für die EU erscheint, schließen Sie es:

1try:
2    page.click("button#L2AGLb", timeout=3000)
3except:
4    pass

Bauen Sie menschlich wirkende Pausen zwischen den Aktionen ein — 2 bis 5 Sekunden zufällige Wartezeit zwischen Seitenaufrufen. Googles Erkennungssysteme reagieren auf schnelle, gleichmäßige Muster.

Schritt 3: Scrollen, Paginieren und Produktdaten extrahieren

Google Shopping lädt Ergebnisse dynamisch. Scrollen Sie, um Lazy Loading auszulösen, und extrahieren Sie anschließend die Produktkarten:

1import time, random
2# Scrollen, um alle Ergebnisse zu laden
3for _ in range(3):
4    page.evaluate("window.scrollBy(0, 1000)")
5    time.sleep(random.uniform(1.5, 3.0))
6> This paragraph contains content that cannot be parsed and has been skipped.
7Wichtiger Hinweis: Die CSS-Selektoren oben sind nur ungefähr und **werden sich ändern**. Google rotiert Klassennamen häufig. Allein zwischen 2024 und 2026 wurden drei verschiedene Selektorsets dokumentiert. Verlassen Sie sich eher auf stabilere Attribute wie `jsname`, `data-cid`, `<h3>`-Tags und `img[alt]` statt auf Klassennamen.
8### Schritt 4: Als CSV oder JSON speichern
9```python
10import json
11from datetime import datetime
12filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
13with open(filename, "w") as f:
14    json.dump(results, f, indent=2)

Erwarten Sie, dieses Skript regelmäßig warten zu müssen. Wenn Google die Seitenstruktur ändert — was mehrmals pro Jahr passiert — brechen Ihre Selektoren, und die Fehlersuche beginnt von vorn.

Das größte Problem: CAPTCHAs und Anti-Bot-Sperren

Forum um Forum dieselbe Geschichte: „Ich habe ein paar Wochen investiert, aber gegen Googles Anti-Bot-Mechanismen aufgegeben.“ CAPTCHAs und IP-Blocks sind der häufigste Grund, warum Menschen DIY-Google-Shopping-Scraper wieder einstellen.

Wie Google Scraper blockiert (und was man dagegen tun kann)

This paragraph contains content that cannot be parsed and has been skipped.

Im Januar 2025 machte Google JavaScript-Ausführung für SERP- und Shopping-Ergebnisse obligatorisch und — darunter auch Pipelines von SemRush und SimilarWeb. Im September 2025 wurden die alten Produktseiten-URLs abgeschafft und auf eine neue „Immersive Product“-Ansicht umgeleitet, die per asynchronem AJAX geladen wird. Jede Anleitung vor Ende 2025 ist damit größtenteils veraltet.

Wie die einzelnen Methoden mit diesen Hürden umgehen

SERP APIs erledigen alles im Hintergrund — Proxies, Rendering, CAPTCHA-Lösung. Sie müssen sich darum nicht kümmern.

Thunderbit Cloud Scraping nutzt verteilte Cloud-Infrastruktur in den USA, der EU und Asien, um JavaScript-Rendering und Anti-Bot-Maßnahmen automatisch zu handhaben. Der Browser-Scraping-Modus verwendet Ihre eigene authentifizierte Chrome-Sitzung, was Erkennung praktisch umgeht, weil es wie normales Nutzerverhalten aussieht.

DIY Playwright legt die komplette Verantwortung bei Ihnen — Proxy-Management, Delay-Tuning, CAPTCHA-Lösung, Pflege der Selektoren und ständiges Monitoring auf Fehler.

Was Google Shopping-Daten wirklich kosten: ein ehrlicher Vergleich

„50 $ für rund 20.000 Requests … für mein Hobbyprojekt etwas happig.“ Diese Klage taucht in Foren ständig auf. Dabei wird meist der größte Kostenfaktor überhaupt übersehen.

Kostenvergleich

AnsatzVorabkostenKosten pro Anfrage (geschätzt)WartungsaufwandVersteckte Kosten
DIY-Python (ohne Proxy)Kostenlos$0HOCH (Fehler, CAPTCHAs)Ihre Debugging-Zeit
DIY-Python + Residential ProxiesKostenloser Codeca. 1–5 $/GBMITTEL-HOCHGebühren des Proxy-Anbieters
SERP API (SerpApi, ScraperAPI)Kostenloser Tarif begrenztca. 0,50–5,00 $/1.000 AnfragenNIEDRIGSkaliert bei hohem Volumen schnell
Thunderbit Chrome-ErweiterungKostenloser Tarif (6 Seiten)kreditbasiert, ca. 1 Kredit/ZelleSEHR NIEDRIGBezahlter Plan bei höherem Volumen
Thunderbit Open API (Extract)kreditbasiertca. 20 Credits/SeiteNIEDRIGBezahlung pro Extraktion

Die versteckten Kosten, die alle ignorieren: Ihre Zeit

Eine DIY-Lösung für 0 $, die 40 Stunden Debugging frisst, ist nicht kostenlos. Bei 50 $ pro Stunde sind das 2.000 $ Arbeitskosten — für einen Scraper, der nächsten Monat wieder brechen kann, wenn Google sein DOM ändert.

google-shopping-cost-vs (2).png

McKinseys Technology Outlook kommt zu dem Schluss, dass der liegt. Darunter „verbraucht Eigenentwicklung Budget, ohne ROI zu liefern“. Für die meisten E-Commerce-Teams, die ein paar Hundert bis ein paar Tausend Abfragen pro Woche machen, ist ein No-Code-Tool oder eine SERP API deutlich kosteneffizienter als Eigenbau.

So richten Sie automatisiertes Preis-Monitoring für Google Shopping ein

Die meisten Anleitungen behandeln Scraping als einmalige Aufgabe. Der eigentliche Anwendungsfall für E-Commerce-Teams ist laufendes, automatisiertes Monitoring. Sie brauchen nicht nur die heutigen Preise — sondern auch die von gestern, letzter Woche und morgen.

Geplantes Scraping mit Thunderbit einrichten

Mit Thunderbits Scheduled Scraper können Sie das Intervall in Klartext beschreiben — „jeden Tag um 9 Uhr“ oder „jeden Montag und Donnerstag um 12 Uhr“ — und die KI wandelt das in einen wiederkehrenden Zeitplan um. Geben Sie Ihre Google-Shopping-URLs ein, klicken Sie auf „Schedule“, fertig.

Jeder Lauf exportiert automatisch nach Google Sheets, Airtable oder Notion. Das Endergebnis: eine Tabelle, die sich täglich selbst mit Wettbewerberpreisen füllt und direkt für Pivot-Tabellen oder Alerts bereitsteht.

Keine Cron-Jobs. Kein Server-Management. Kein Lambda-Stress. (Ich habe Forenbeiträge von Entwicklern gesehen, die tagelang versucht haben, Selenium in AWS Lambda zum Laufen zu bringen — Thunderbits Scheduler erspart all das.)

Mehr zu finden Sie in unserem separaten Deep Dive.

Zeitplanung mit Python (für Entwickler)

Wenn Sie den SERP-API-Ansatz nutzen, können Sie Läufe mit Cron-Jobs (Linux/Mac), dem Windows-Taskplaner oder Cloud-Schedulern wie AWS Lambda oder Google Cloud Functions planen. Python-Bibliotheken wie APScheduler funktionieren ebenfalls.

Der Nachteil: Sie sind jetzt verantwortlich für die Überwachung der Skriptgesundheit, Fehlerbehandlung, planmäßige Proxy-Rotation und das Aktualisieren von Selektoren, wenn Google die Seite verändert. Für die meisten Teams übersteigen die Engineering-Kosten für die Pflege eines geplanten Python-Scrapers den Preis eines dedizierten Tools.

Tipps und Best Practices für das Scrapen von Google Shopping-Daten

Unabhängig von der Methode sparen Ihnen ein paar Dinge viel Ärger.

Rate Limits respektieren

Belasten Sie Google nicht mit Hunderten schneller Anfragen — Sie werden blockiert, und Ihre IP kann eine Zeit lang markiert bleiben. Bei DIY-Methoden: Anfragen im Abstand von 10–20 Sekunden und mit zufälligen Schwankungen senden. Tools und APIs übernehmen das für Sie.

Methode an Ihr Volumen anpassen

Eine schnelle Entscheidungshilfe:

  • < 10 Anfragen/Woche → Thunderbit Free-Tarif oder SerpApi Free-Tarif
  • 10–1.000 Anfragen/Woche → bezahlter SERP-API-Plan oder
  • 1.000+ Anfragen/Woche → SERP-API-Enterprise-Plan oder Thunderbit Open API

Daten bereinigen und validieren

Preise kommen mit Währungssymbolen, lokaler Formatierung (1.299,00 € vs. $1,299.00) und gelegentlich mit Sonderzeichen-Müll. Nutzen Sie Thunderbits Field AI Prompts, um bei der Extraktion zu normalisieren, oder bereinigen Sie die Daten danach mit pandas:

1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)

Prüfen Sie auf Duplikate zwischen organischen und gesponserten Einträgen — die überschneiden sich oft. Deduplizieren Sie anhand des Tupels (Titel, Preis, Händler).

Die rechtliche Lage kennen

Das Scrapen öffentlich verfügbarer Produktdaten gilt grundsätzlich als legal, doch die Rechtslage entwickelt sich schnell weiter. Die wichtigste jüngere Entwicklung: nach DMCA § 1201 wegen Umgehung von Googles Anti-Scraping-System „SearchGuard“. Das ist ein neuer Durchsetzungsweg, der die Verteidigungen aus früheren Fällen wie hiQ v. LinkedIn und Van Buren v. United States umgeht.

Praktische Richtlinien:

  • Nur öffentlich verfügbare Daten scrapen — keine Login-Bereiche für eingeschränkte Inhalte nutzen
  • Keine personenbezogenen Informationen extrahieren (Namen von Bewertern, Kontodaten)
  • Beachten Sie, dass Googles Nutzungsbedingungen automatisierten Zugriff verbieten — SERP APIs oder Browser-Erweiterungen reduzieren die rechtliche Grauzone, beseitigen sie aber nicht vollständig
  • Für EU-Vorhaben die DSGVO im Blick behalten, auch wenn Produktlisten überwiegend nicht-personenbezogene Geschäftsdaten sind
  • Ziehen Sie Rechtsberatung in Betracht, wenn Sie ein kommerzielles Produkt auf Basis gescrapter Daten bauen

Einen tieferen Blick auf finden Sie in unserem separaten Beitrag.

Welche Methode sollten Sie für Google Shopping-Daten verwenden?

Nachdem ich alle drei Ansätze auf dieselben Produktkategorien angewendet habe, ist mein Fazit klar:

Wenn Sie ein nicht-technischer Nutzer sind und schnell Daten brauchen — nehmen Sie Thunderbit. Google Shopping öffnen, zweimal klicken, exportieren. In unter 5 Minuten haben Sie eine saubere Tabelle. Der ermöglicht den Einstieg ohne Verpflichtung, und das Subpage-Scraping liefert reichere Daten als die meisten Python-Skripte.

Wenn Sie Entwickler sind und reproduzierbaren, programmatischen Zugriff brauchen — nutzen Sie eine SERP API. Die Zuverlässigkeit ist die Kosten pro Anfrage wert, und Sie sparen sich den gesamten Anti-Bot-Ärger. SerpApi hat die beste Dokumentation; ScraperAPI den großzügigsten Gratis-Tarif.

Wenn Sie maximale Kontrolle brauchen und eine eigene Pipeline bauen — Playwright funktioniert, aber nur mit offenem Blick. Planen Sie viel Zeit für Proxy-Management, Selektorpflege und CAPTCHA-Handling ein. In 2025–2026 ist der minimal brauchbare Umgehungs-Stack curl_cffi mit Chrome-Imitation + Residential Proxies + 10–20 Sekunden Taktung. Ein einfaches requests-Skript mit rotierenden User-Agents ist praktisch tot.

Die beste Methode ist die, mit der Sie verlässliche Daten bekommen, ohne Ihre ganze Woche zu verbrennen. Für die meisten Menschen ist das kein Python-Skript mit 60 Zeilen — sondern zwei Klicks.

Sehen Sie sich an, wenn Sie größere Mengen brauchen, oder schauen Sie sich unsere Tutorials auf dem an, um den Ablauf in Aktion zu sehen.

Thunderbit für Google Shopping-Scraping testen

FAQs

Das Scrapen öffentlich verfügbarer Produktdaten ist unter Präzedenzfällen wie hiQ v. LinkedIn und Van Buren v. United States grundsätzlich legal. Allerdings verbieten Googles Nutzungsbedingungen automatisierten Zugriff, und Googles Klage gegen SerpApi im Dezember 2025 führte eine neue DMCA-§1201-Theorie zur Umgehung ein. Die Nutzung seriöser Tools und APIs senkt das Risiko. Für kommerzielle Anwendungsfälle sollten Sie Rechtsberatung einholen.

Kann ich Google Shopping scrapen, ohne blockiert zu werden?

Ja, aber die Methode ist entscheidend. SERP APIs handhaben Anti-Bot-Maßnahmen automatisch. Thunderbits Cloud Scraping nutzt verteilte Infrastruktur, um Blocks zu vermeiden, während der Browser-Scraping-Modus Ihre eigene Chrome-Sitzung verwendet (was wie normales Browsing aussieht). DIY-Python-Skripte brauchen Residential Proxies, menschlich wirkende Verzögerungen und TLS-Fingerprint-Management — und selbst dann sind Blockaden häufig.

Was ist der einfachste Weg, Google Shopping-Daten zu scrapen?

Die Chrome-Erweiterung von Thunderbit. Google Shopping öffnen, auf „AI Suggest Fields“ klicken, auf „Scrape“ klicken und nach Google Sheets oder Excel exportieren. Kein Programmieren, keine API-Keys, keine Proxy-Konfiguration. Der gesamte Ablauf dauert etwa 2 Minuten.

Wie oft kann ich Google Shopping für Preis-Monitoring scrapen?

Mit Thunderbits Scheduled Scraper können Sie tägliche, wöchentliche oder benutzerdefinierte Intervalle in Klartext festlegen. Bei SERP APIs hängt die Frequenz von den Credit-Limits Ihres Plans ab — die meisten Anbieter bieten genug für tägliches Monitoring von einigen Hundert SKUs. DIY-Skripte können so oft laufen, wie es Ihre Infrastruktur zulässt, aber höhere Frequenzen bedeuten mehr Anti-Bot-Probleme.

Kann ich Google Shopping-Daten nach Google Sheets oder Excel exportieren?

Ja. Thunderbit exportiert kostenlos direkt nach Google Sheets, Excel, Airtable und Notion. Python-Skripte können nach CSV oder JSON exportieren, die Sie dann in jedes Tabellen-Tool importieren können. Für laufendes Monitoring erzeugen Thunderbits geplante Exporte nach Google Sheets einen Live-Datensatz, der sich automatisch aktualisiert.

Shuai Guan
Shuai Guan
Co-founder/CEO @ Thunderbit. Passionate about cross section of AI and Automation. He's a big advocate of automation and loves making it more accessible to everyone. Beyond tech, he channels his creativity through a passion for photography, capturing stories one picture at a time.
Topics
Google Shopping mit Python scrapenPython Google Shopping ScraperGoogle Shopping Datenextraktion mit PythonProduktpreise aus Google Shopping mit Python scrapen
Inhaltsverzeichnis

Thunderbit testen

Leads und andere Daten in nur 2 Klicks extrahieren. Mit KI.

Thunderbit holen Es ist kostenlos
Daten mit KI extrahieren
Daten einfach nach Google Sheets, Airtable oder Notion übertragen
PRODUCT HUNT#1 Product of the Week