10 beste Google-Shopping-Scraper: Was funktioniert, was scheitert

Zuletzt aktualisiert am April 23, 2026

Googles Shopping-Produktdatenbank umfasst inzwischen , und jede Stunde werden mehr als 2 Milliarden davon aktualisiert. Für E-Commerce-Teams ist das eine echte Goldgrube für Competitive Intelligence – Preise, Händler, Bewertungen, Verfügbarkeit, PLA-Positionen – alles öffentlich einsehbar.

Und trotzdem stößt man beim Versuch, Google Shopping wirklich zu scrapen, schnell an Grenzen. Ich entwickle seit Jahren Automatisierungstools bei , und eine der häufigsten Beschwerden von E-Commerce-Teams klingt ungefähr so: „Ich habe einen Google-Scraper gekauft, normale Suche klappt, und bei Shopping ... bricht er einfach weg.“ Auch Reddit-Threads zeigen genau diese Frustration. Ein Nutzer brachte es auf den Punkt: „Ich habe alle Scraper getestet ... die meisten sind bei Shopping gescheitert.“ Ein anderer berichtete, dass AWS-IPs schon nach .

Also habe ich die ehrlichste Gegenüberstellung zu Shopping zusammengestellt, die ich finden konnte: 10 Tools, getestet und bewertet an Google Shopping – nicht nur an generischen SERPs. Wenn ein Tool bei Shopping nicht wirklich funktioniert, sage ich das auch.

Warum die meisten „Google Scraper“ bei Google Shopping scheitern

Bevor wir zu den Tools kommen, lohnt es sich zu verstehen, warum Google Shopping ein ganz anderes Kaliber ist als die normale Google-Suche. Wenn Sie schon einmal einen generischen Scraper ausprobiert und leere Ergebnisse bekommen haben, sind Sie nicht allein – und es liegt nicht an Ihnen.

Shopping ist aus drei ganz konkreten Gründen schwieriger:

  1. JavaScript-lastige, asynchron geladene Produktkarten. Normale Google-Suchergebnisse lassen sich meist direkt aus dem initialen HTML auslesen. Shopping-Ergebnisse laden Produktkarten dagegen per Hintergrund-JavaScript nach. Eine einfache HTTP-Anfrage an eine Shopping-URL liefert oft nur eine leere Hülle ohne eigentliche Produkte.
  2. Versteckte Tokens und Backend-Parameter. Produkt-Overlays in Shopping nutzen kodierte Parameter wie catalogid, gpcid und ved – nichts davon ist in der Adresszeile sichtbar. Der zeigt, wie Shopping Produktdetails über /async/oapv-Endpunkte mit diesen versteckten Tokens abruft.
  3. Aggressive Bot-Erkennung. Google behandelt Shopping-Anfragen als kommerziell besonders wertvoll. Die Bot-Erkennung ist hier strenger als in der normalen SERP, und Cloud-/Rechenzentrums-IPs (wie AWS) werden schnell markiert. Ein sagt ausdrücklich, dass es Google Shopping nicht unterstützt.

Was Google Shopping von der normalen Google-Suche unterscheidet

DimensionNormale Google-SucheGoogle Shopping
SeitenstrukturMeist standardisierte Ergebnis-KartenProduktkarten, Händlerblöcke, Angebote, Filter, immersive Produktseiten
RenderingOft direkt aus dem zurückgegebenen HTML auslesbarViel JS, asynchrones Laden der Produktkarten, tokenisierte Detailanfragen
URL-VerhaltenStandard search?q=tbm=shop, udm=28, kodierte Filter-Links
DatenkomplexitätTitel, Snippets, LinksTitel, Preis, Händler, Verfügbarkeit, Bewertungen, Rezensionen, Versand, Produkt-IDs, PLA-/Sponsored-Flags
Bot-EmpfindlichkeitHoch, aber gut verstandenHöhere Hürden – kommerziell motivierte Anfragen werden stärker geschützt

Ein generischer Google-Scraper kann auf normalen SERPs perfekt funktionieren und bei Shopping trotzdem komplett versagen – und zwar systembedingt. Jedes Tool in diesem Artikel wurde speziell anhand von Shopping-Ergebnissen bewertet, nicht nur anhand der normalen Suche.

Google Shopping API vs. Google-Shopping-Scraper: Was brauchen Sie wirklich?

„Google Shopping API“ kann zwei völlig unterschiedliche Dinge meinen, und diese Verwechslung kostet Menschen echte Zeit:

TypGoogle Content API for Shopping (offiziell)Drittanbieter-Google-Shopping-Scraper
ZweckVerwalten IHRER Produktlisten im Merchant CenterProduktdaten von KOMPETITOREN aus Shopping-Ergebnissen extrahieren
ZugriffErfordert Merchant-Center-Konto + API-SchlüsselÖffentliche Daten; kein Google-Konto nötig
Gelieferte DatenIhr eigener Produkt-Feed, Status, DiagnosePreise, Händler, Bewertungen, PLA-Positionen für jede Suchanfrage
AnwendungsfallFeed-Management, BestandsabgleichPreisbeobachtung, Competitive Intelligence, Marktanalyse
KostenKostenlos (API-Zugriff)Je nach Tool unterschiedlich (0–300+ $/Monat)

Googles offizielle dient dazu, Ihren eigenen Shop-Katalog in Google Shopping zu verwalten. Sie liefert Ihnen keine Wettbewerberdaten. Wenn Sie beobachten möchten, was andere Händler verlangen, PLA-Positionen verfolgen oder Marktanalysen durchführen wollen, brauchen Sie einen Drittanbieter-Scraper. Darum geht es in diesem Artikel.

(Nebenbei: Die Content API wird am und durch die Merchant API ersetzt. Keine der beiden Varianten liefert Konkurrenz-Ergebnisse aus Shopping.)

Wie wir die besten Google-Shopping-Scraper bewertet haben

Kein anderer Vergleichsartikel bietet eine einheitliche, Shopping-spezifische Matrix. Hier sind die 8 Kriterien, die ich verwendet habe:

KriteriumWarum es wichtig ist
Google-Shopping-spezifische UnterstützungViele „Google Scraper“ können nur die normale SERP; bei Shopping scheitern die meisten
AnsatztypNo-Code (Browser-Erweiterung) vs. API vs. Python-Bibliothek – das sind völlig unterschiedliche Nutzergruppen
Preis (pro 1.000 Ergebnisse)Kosten werden von Nutzern als eines der größten Probleme genannt; für einen fairen Vergleich normalisieren
Anti-Bot-/CAPTCHA-HandlingDie Bot-Abwehr bei Google Shopping ist der häufigste genannte Blocker
Extrahierte DatenpunkteProdukttitel, Preis, Händler, Bild, Bewertung, Sponsored-/PLA-Flag, Verfügbarkeit
Pagination & ZeitplanungEntscheidend für laufende Überwachung; nur etwa ein Drittel der Tools deckt Scheduling ab
ExportformateCSV, JSON, Google Sheets, Airtable, Notion – Flexibilität ist wichtig
Benutzerfreundlichkeit (1–5)Die nicht-technische Zielgruppe wird von aktuellen Top-Rankings praktisch ignoriert

Für jedes Tool vermerke ich außerdem, ob die Unterstützung für Google Shopping Verifiziert ist (expliziter Shopping-Endpunkt, Vorlage oder Feldzuordnung), Teilweise (wahrscheinlich funktionsfähig, aber keine Shopping-spezifische Parser-Doku öffentlich vorhanden) oder Nicht verifiziert. Dieser Unterschied ist wichtiger als Marketing-Versprechen.

No-Code vs. API vs. Custom Code: Den richtigen Ansatz wählen

Die meisten Übersichten werfen Browser-Erweiterungen, APIs und Python-Bibliotheken in eine einzige Liste. Das ist, als würde man eine Mikrowelle mit einer Großküche vergleichen – beide erhitzen Essen, aber die Käufer sind komplett verschieden.

AnsatzKenntnisstandEinrichtungszeitAm besten für
Browser-Erweiterung (No-Code)EinsteigerUnter 2 Min.Einmalige Recherchen, kleine Kataloge, nicht-technische Teams
API (Low-Code)Fortgeschritten15–60 Min.Wiederkehrende Pipelines, mittlere Skalierung, Teams mit Entwicklern
Python/Custom (Full-Code)Fortgeschritten bis ExpertenStunden+Volle Anpassung, große Skalierung, Self-Hosted-Workflows

Dieser Artikel ist eine der wenigen Quellen, die die Browser-Erweiterungs-Ebene für Google-Shopping-Scraping wirklich abdeckt. Wenn Sie PPC-Manager oder E-Commerce-Verantwortliche sind und die Daten einfach in einer Tabellenkalkulation haben möchten, müssen Sie nicht erst Python lernen.

1. Thunderbit

thunderbit-ai-web-scraper.webp ist das Tool, das wir in unserem Unternehmen entwickelt haben, deshalb will ich das offen sagen – aber ich will auch klar benennen, was es bei Google Shopping gut kann und wo die Grenzen liegen.

Thunderbit ist eine Chrome-Erweiterung, die KI nutzt, um strukturierte Daten von jeder Website zu extrahieren, einschließlich Google Shopping. Es gibt eine mit spezifischen Felddefinitionen für Shopping – mehr, als die meisten Tools bieten. Der Workflow besteht wirklich aus zwei Klicks: Shopping-Ergebnisseite öffnen, KI-Felder vorschlagen klicken (die KI liest die Seite und empfiehlt Spalten wie Produktname, Preis, Händler, Bewertung) und dann Scrapen klicken. Keine API-Keys, kein Code, kein Backend-Setup.

Der browserbasierte Ansatz hat bei Shopping einen echten Vorteil: Weil Thunderbit in Ihrer echten Chrome-Sitzung läuft, sieht Google einen echten Browser mit echten Cookies – keine Rechenzentrums-IP, die verdächtige API-Calls sendet. Die KI liest außerdem die Seitenstruktur jedes Mal neu ein, sodass sie nicht bricht, wenn Google das Shopping-Layout anpasst (was öfter passiert, als man denkt).

Wichtige Funktionen für Google Shopping

  • KI-Felder vorschlagen: Erkennt und empfiehlt automatisch Shopping-spezifische Spalten (Produktname, Produkt-URL, aktueller Preis, Originalpreis, Bewertung, Anzahl der Rezensionen, Händler)
  • Subpage-Scraping: Einzelne Produktseiten öffnen und die Tabelle mit Detaildaten anreichern
  • Pagination-Scraping: Mehrseitige Shopping-Ergebnisse automatisch verarbeiten
  • Geplanter Scraper: Das Intervall in natürlicher Sprache beschreiben (z. B. „jeden Montag um 9 Uhr“), Shopping-URLs eingeben, und alles läuft automatisch
  • Browser- vs. Cloud-Scraping: Browser-Modus für bessere Bot-Resistenz, Cloud-Modus für Geschwindigkeit
  • Kostenloser Export: Excel, Google Sheets, Airtable, Notion, CSV, JSON – kein Export-Paywall

Preise

Thunderbit nutzt ein kreditbasiertes System, bei dem 1 Kredit = 1 Ausgabereihe ist:

  • Kostenloser Plan: 6 Seiten
  • Kostenlose Testversion: 10 Seiten
  • Starter: ca. 9 $/Monat (jährlich) oder ca. 15 $/Monat (monatlich) für 500 Credits
  • Für 1.000 Shopping-Zeilen sollten Sie je nach Plan mit etwa 18–30 $/Monat rechnen

Aktuelle Details finden Sie auf .

Vor- und Nachteile

  • Vorteile: Einfachstes Setup in dieser Liste, für Shopping verifiziert mit dedizierter Feldzuordnung, browserbasierte Anti-Blockier-Logik, KI passt sich Layoutänderungen an, kostenloser Export in Business-Tools, integriertes Scheduling
  • Nachteile: Benötigt Chrome, nicht ideal für riesige Enterprise-Pipelines (50K+ Ergebnisse/Tag), geringerer unabhängiger Review-Fußabdruck als einige API-Platzhirsche

2. SerpApi

serper-google-search-api.webp ist einer der etabliertesten SERP-API-Anbieter und bietet einen dedizierten , der strukturierte JSON-Daten für Shopping-Ergebnisse zurückgibt. Wenn Sie als Entwickler eine Datenpipeline bauen, ist das eine der stärksten Optionen.

Sie senden eine API-Anfrage mit engine=google_shopping, und SerpApi liefert shopping_results mit Feldern wie title, product_link, product_id, source, price, old_price, rating, reviews, delivery und thumbnail. Außerdem gibt es eine für schnellere und günstigere Anfragen, wenn nicht jedes Feld benötigt wird. Die Dokumentation ist hervorragend – eine der besten in diesem Bereich.

Wichtige Funktionen für Google Shopping

  • Dedizierter Shopping-Engine-Endpunkt mit strukturiertem JSON
  • Felder umfassen Titel, Preis, alter Preis, Händler, Bewertung, Rezensionen, Lieferung, Thumbnails, Produkt-ID
  • Geo-Targeting und Sprachparameter
  • Pagination-Unterstützung über serpapi_pagination.next
  • Playground-UI zum Testen von Anfragen vor dem Coden

Preise

SerpApi berechnet pro Suche, nicht pro Zeile:

  • Kostenlos:
  • Starter: 75 $/Monat für 5.000 Suchen
  • Developer: 150 $/Monat für 15.000 Suchen

Wenn eine Shopping-Anfrage etwa 10 Ergebnisse pro Seite liefert, benötigt man für 1.000 Zeilen ungefähr 100 Suchen – technisch also im kostenlosen Bereich, aber echte Pagination und Wiederholungsversuche treiben die meisten Nutzer schnell in kostenpflichtige Pläne.

Vor- und Nachteile

  • Vorteile: Zweckgebundene Shopping-Unterstützung, ausgereiftes Schema, exzellente Doku, strukturiertes JSON, hohe G2-Bewertungen
  • Nachteile: Nur API (keine visuelle UI für Nicht-Entwickler), kein nativer Tabellenexport, Suchpreis-Modell kann bei tiefer Pagination teurer werden

3. Oxylabs

oxylabs-data-for-ai-proxies.webp bietet Scraping auf Enterprise-Niveau mit expliziter Google-Shopping-Unterstützung über eine Quelle sowie eine separate Quelle . Dieser zweistufige Ansatz – Suchdaten plus Produktdetails – ist gründlicher als bei den meisten Wettbewerbern.

Die Felder auf Such-Ebene umfassen title, price, token, rating, currency, delivery, merchant.name, merchant.url und reviews_count. Auf Produkt-Ebene kommen description, images, pricing, reviews und variants hinzu. Die Proxy-Infrastruktur ist riesig, und CAPTCHA-Lösung sowie JavaScript-Rendering übernimmt Oxylabs selbst.

Wichtige Funktionen für Google Shopping

  • Dedizierte Shopping-Endpunkte für Suche und Produktdetails
  • Umfassende Feldabdeckung auf Such- und Detail-Ebene
  • Premium-Proxy-Pool (Residential + Datacenter)
  • JavaScript-Rendering, CAPTCHA-Umgehung, Geo-Targeting
  • Batch-Verarbeitung und Scheduler-Unterstützung
  • Ausgabeformate: JSON, CSV, TXT, Markdown, HTML, PNG

Preise

Die Preise von Oxylabs für Google-Ergebnisse beginnen bei etwa mit JavaScript-Rendering (genau die Stufe, die für Shopping nötig ist). Die kostenlose Testversion umfasst bis zu 2.000 Ergebnisse. Enterprise-Tarife senken die Kosten pro Ergebnis weiter.

Vor- und Nachteile

  • Vorteile: Explizite Shopping-Unterstützung auf zwei Ebenen, starke Anti-Bot-Infrastruktur, Enterprise-SLAs, Scheduler
  • Nachteile: Nur API, zweistufiger Workflow ist technischer, teurer als No-Code oder leichtere APIs, Mindestumsatz erforderlich

4. Bright Data

Screenshot 2026-04-22 at 12.27.50 PM_compressed.webp ist weniger ein einzelner Shopping-Endpunkt als vielmehr eine vollständige Datenplattform. Es gibt eine mit Shopping-Unterstützung, ein dediziertes (über 7,2 Mrd. Datensätze, 15 Felder) und sogar einen für laufende Überwachung.

Der Dataset-Ansatz ist interessant: Statt selbst zu scrapen, können Sie vorab gesammelte Shopping-Daten im großen Maßstab kaufen. Der Price Tracker unterstützt stündliche, tägliche oder wöchentliche Updates mit Benachrichtigungen per E-Mail, Slack oder Dateiversand. Für große Handelsunternehmen kann das praktischer sein als eine Scraping-Pipeline von Grund auf aufzubauen.

Wichtige Funktionen für Google Shopping

  • SERP-API mit Shopping-Unterstützung
  • Vorgefertigte Google-Shopping-Datasets (7,2 Mrd.+ Datensätze)
  • Google Shopping Price Tracker mit Alerts
  • zur Einhaltung von Mindestpreisen
  • 72 Mio.+ Residential IPs, CAPTCHA-Lösung, Browser-Rendering
  • Zustellung an JSON, NDJSON, CSV, Webhook, S3, GCS, Azure, Snowflake, SFTP

Preise

Die Dataset-Kosten liegen bei etwa , allerdings mit einem Mindestbestellwert von 50 $. Die SERP-API-Preise variieren je nach Volumen und Konfiguration. Der Price Tracker hat eine eigene Preisstufe. Im großen Maßstab kann das sehr kosteneffizient sein, aber die Komplexität ist real.

Vor- und Nachteile

  • Vorteile: Mehrere Produktoptionen (API, Datasets, Tracker), starke Zielsysteme für die Auslieferung, explizite Shopping-Datasets, Enterprise-Support
  • Nachteile: Komplexe Preisgestaltung, Mindestumsätze relevant, für kleine Jobs überdimensioniert, Einarbeitung für Nicht-Entwickler

5. Apify

apify-web-data-scrapers.webp verfolgt einen Marktplatz-Ansatz: Statt eines einzigen kanonischen Shopping-Scrapers gibt es mehrere „Actors“, die von Apify und Community-Entwicklern erstellt wurden. Aktive Shopping-Actors sind unter anderem , und , jeweils mit leicht unterschiedlicher Feldabdeckung und Preisgestaltung.

Diese Flexibilität hat zwei Seiten. Manche Actors funktionieren bei Shopping hervorragend; andere liefern je nach Suchanfrage, Geo und Googles aktueller Bot-Abwehr nur spärliche oder leere Ergebnisse. In der Actor-Dokumentation steht, dass Google Shopping oft bei an seine Grenze kommt und imageUrl leer sein kann, weil Bilder in Shopping verzögert geladen werden.

Wichtige Funktionen für Google Shopping

  • Marktplatz mit mehreren Shopping-Actors
  • No-Code-Konfigurations-UI plus API-Zugriff
  • Scheduling, Proxy-Management, Anti-Blocking
  • Export: JSON, CSV, XML, RSS, Excel, HTML
  • Integrationen mit Google Sheets und Webhooks

Preise

Die Preise variieren je nach Actor:

  • automation-lab: etwa im Free-Plan, etwa 3,94 $/1K in höheren Tarifen
  • burbn: etwa
  • SolidCode: ab etwa
  • Plattform-Freetier: 5 $/Monat in Compute-Guthaben

Vor- und Nachteile

  • Vorteile: Flexibler Marktplatz, Scheduling, viele Exportformate, ordentliche Wirtschaftlichkeit, UI- und API-Zugriff
  • Nachteile: Der Erfolg bei Shopping hängt vom gewählten Actor ab, Schemas variieren, mehr Fehlersuche als bei einer kanonischen API, unterschiedliche Wartungsqualität der Actors

6. ScrapingBee

scrapingbee-website-homepage.webp ist eine API der mittleren Preisklasse mit einer dedizierten , die Shopping-spezifische Felder explizit dokumentiert: name, price, rating, reviews, store, delivery, rank, product_link, features und product_id. Das ist mehr Shopping-spezifische Dokumentation, als viele größere Plattformen bieten.

Die API übernimmt Proxy-Rotation, Headless-Browser-Rendering und JavaScript-Ausführung. Pagination wird über start und next_start unterstützt. Die Einrichtung ist einfacher als bei Enterprise-Plattformen wie Oxylabs oder Bright Data, erfordert aber dennoch eine API-Integration.

Wichtige Funktionen für Google Shopping

  • Dedizierter Shopping-Parser mit strukturiertem Feld-Output
  • Headless-Browser-Rendering und Proxy-Rotation
  • Pagination-Unterstützung
  • zum Start
  • Integrationsfreundlich (n8n, Zapier usw.)

Preise

  • 1.000 kostenlose API-Calls
  • 100.000 für 99 $
  • 300.000 für 249 $
  • 800.000 für 599 $

Jede Shopping-Suche kostet etwa 10 Credits. Wenn eine Seite rund 20 Ergebnisse liefert, sind 1.000 Shopping-Zeilen ungefähr 50 Anfragen bzw. 500 Credits.

Vor- und Nachteile

  • Vorteile: Shopping-spezifischer Parser, einfacher als Enterprise-Stacks, Headless-Rendering integriert, großzügiges Freetier, integrationsfreundlich
  • Nachteile: Nur API, Credit-Rechnung ist weniger intuitiv als zeilenbasierte Modelle, kein eingebautes Scheduling (externe Orchestrierung nötig)

7. Serper.dev

serper-google-search-api.webp gehört zu den günstigsten Google-SERP-APIs auf dem Markt, mit Preisen von nur bei hoher Skalierung und 2.500 kostenlosen Anfragen zum Einstieg. Schnell, schlicht und entwicklerfreundlich.

Ein wichtiger Vorbehalt: In der aktuellen öffentlichen Dokumentation von Serper.dev konnte ich keinen dedizierten Google-Shopping-Endpunkt oder ein Shopping-spezifisches Feldschema finden. Normale Google-Suchen werden gut unterstützt, aber es gibt keinen öffentlichen Nachweis dafür, dass Shopping-spezifische Daten (Produktkarten, Händlernamen, PLA-Flags) in strukturierte Felder geparst werden. Deshalb ist das für Shopping nur eine Teilweise Empfehlung – gute Preise, aber Sie müssen möglicherweise selbst parsen oder mit generischen SERP-Feldern leben.

Wichtige Funktionen für Google Shopping

  • Schnelle, einfache REST-API
  • Sehr günstige Preise pro Anfrage
  • Standort- und Sprachparameter
  • JSON-Ausgabe

Preise

  • 50.000 Credits für 50 $
  • Skaliert auf 0,30 $/1K bei höheren Volumina

Vor- und Nachteile

  • Vorteile: Extrem günstig, schnell, leicht zu integrieren, großzügiges Freetier
  • Nachteile: Kein öffentlich dokumentierter Shopping-spezifischer Endpunkt oder Field Map, nur API, begrenzte erweiterte Funktionen, liefert möglicherweise generische SERP-Daten statt strukturierter Shopping-Felder

8. Scrapingdog

scrapingdog-web-scraping-api.webp ist eine preiswerte API mit einem dedizierten , der shopping_results mit Feldern wie title, product_link, product_id, source, price, extracted_price, old_price, rating, reviews, delivery, extensions und position zurückgibt. Auch Shopping-Filter und kodierte Filter-Links werden unterstützt.

Die Preise sind attraktiv – 1.000 kostenlose Credits zum Start, und Shopping-Anfragen kosten etwa . Ein Vorbehalt: Die Preisangaben auf den öffentlichen Seiten von Scrapingdog sind uneinheitlich, daher sollten Sie die aktuellen Tarife vor einer Entscheidung noch einmal prüfen.

Wichtige Funktionen für Google Shopping

  • Dedizierter Shopping-Endpunkt mit strukturiertem JSON
  • Filterverarbeitung für Shopping-spezifische Filter
  • Proxy-Rotation, JS-Rendering, Retries
  • Geo-Targeting-Unterstützung
  • Kostenloser Plan zum Testen

Preise

  • Shopping-Anfragen: etwa 10 Credits pro Stück
  • Bezahlte Tarife skalieren von dort aus, aber prüfen Sie die , da die öffentliche Doku teils widersprüchlich ist

Vor- und Nachteile

  • Vorteile: Explizite Shopping-Unterstützung, Filter-Handling, Freetier, preiswerte Positionierung
  • Nachteile: Preisangaben sind auf öffentlichen Seiten uneinheitlich, kleineres Proxy-Netzwerk als Enterprise-Anbieter, nur API, gemischte Bewertungs- und Vertrauenssignale

9. Firecrawl

Screenshot 2026-04-22 at 4.20.59 PM_compressed.webp ist ein KI-gestütztes Web-Scraping-Tool, das Webseiten in saubere, strukturierte Daten umwandelt. Es unterstützt Such-, Crawl- und Scrape-Modi mit Ausgaben in JSON, Markdown, HTML oder Screenshots.

Die KI-basierte Extraktion von Firecrawl liest und interpretiert Seiteninhalte, statt sich auf feste CSS-Selektoren zu verlassen – eine ähnliche Philosophie wie bei Thunderbit. Allerdings konnte ich in den aktuellen keinen dedizierten Google-Shopping-Parser oder ein Shopping-spezifisches Feldschema finden. Der Such-Endpunkt liefert generische Felder wie title, description und url. Damit ist es für Shopping nur eine Teilweise Empfehlung: Die KI-Extraktion könnte Shopping-Seiten verarbeiten, aber es gibt keine verifizierte Shopping-spezifische Unterstützung.

Wichtige Funktionen für Google Shopping

  • KI-gestützte Datenextraktion
  • Verarbeitet JavaScript-gerenderte Seiten
  • Such-, Crawl- und Scrape-Modi
  • Ausgaben: JSON, Markdown, HTML, Screenshots
  • Batch-Verarbeitung und API-Zugriff

Preise

  • Hobby: 16 $/Monat
  • Standard: 83 $/Monat
  • Growth: 333 $/Monat
  • Suche kostet 2 Credits pro 10 Ergebnisse; Scrape kostet 1 Credit pro Seite

Vor- und Nachteile

  • Vorteile: KI-Extraktion passt sich Layoutänderungen an, kommt gut mit dynamischen Inhalten klar, mehrere Ausgabeformate, gut für allgemeines Scraping
  • Nachteile: Kein verifizierter Shopping-Parser, API-/entwicklerorientiert, relativ neues Produkt, Kosten steigen bei Skalierung

10. Scrape.do

scrape-do-website-homepage.webp ist eine Entwickler-first-Web-Scraping-API mit einer der besten technischen Dokumentationen zum Google-Shopping-Scraping, die man finden kann. Der erklärt das asynchrone Laden, versteckte Tokens und Backend-Parameter, die Shopping schwierig machen – wirklich lesenswert.

Unter der Haube bietet es Proxy-Rotation, CAPTCHA-Lösung, JavaScript-Rendering und eine AI-Mode-API für strukturierte Ausgaben. Google-Ziele kosten , mit im Free-Plan. Allerdings gibt es in der kein sauberes Shopping-Feldschema – Sie sollen Ihren eigenen Parser auf ihrer Infrastruktur aufbauen.

Wichtige Funktionen für Google Shopping

  • Web-Scraping-API mit Proxy-Rotation und CAPTCHA-Lösung
  • JavaScript-Rendering und verwaltetes Browser-Verhalten
  • für strukturierte Ausgaben
  • Detaillierte Dokumentation zum Google-Shopping-Scraping
  • Starke Anti-Bot-Umgehung

Preise

  • Google-Ziele: 10 Credits pro Anfrage
  • Bezahlte Tarife skalieren von dort aus

Vor- und Nachteile

  • Vorteile: Tiefes Google-Shopping-Know-how (veröffentlichte Leitfäden), zuverlässiges Anti-Bot- und CAPTCHA-Handling, AI Mode API, flexibel und anpassbar
  • Nachteile: Erfordert Programmierkenntnisse, keine visuelle UI, steile Lernkurve, kein paketiertes Shopping-Feldschema – mehr Infrastruktur als Produkt

Die besten Google-Shopping-Scraper im Vergleich: Die vollständige Side-by-Side-Tabelle

Das ist die Tabelle, die in keinem Konkurrenzartikel vorkommt – eine einheitliche Matrix aller 10 Tools, speziell für Google Shopping bewertet.

ToolShopping-UnterstützungAnsatzGeschätzte Kosten pro 1K ErgebnisseAnti-BotWichtige DatenpunktePagination & SchedulingExportformateBenutzerfreundlichkeit
ThunderbitVerifiziertNo-Codeca. 18–30 $ (kreditbasiert)Browser-Modus + CloudProdukt, URL, Preis, Originalpreis, Bewertung, Rezensionen, HändlerJa / JaExcel, Sheets, Airtable, Notion, CSV, JSON5/5
SerpApiVerifiziertAPIca. 75 $ für 5K SuchenVerwalteter Browser + CAPTCHATitel, Link, Produkt-ID, Quelle, Preis, alter Preis, Bewertung, Rezensionen, LieferungJa / ExternJSON, Roh-HTML4/5
OxylabsVerifiziertAPIca. 1,35 $/1K (JS-Tier)Premium-Proxys, CAPTCHA-UmgehungSuch- und Produktdetail-FelderJa / JaJSON, CSV, TXT, Markdown, HTML, PNG3/5
Bright DataVerifiziertAPI / Plattformca. 0,50 $/1K Datensätze (50 $ Minimum)Proxys, CAPTCHA, ParsingProdukt-ID, Titel, Preis, Rezensionen, Bilder, VariantenJa / Ja (Tracker)JSON, NDJSON, CSV, Webhook, Cloud-Storage3/5
ApifyVerifiziertGemischtca. 0,50–7,04 $/1K (je nach Actor)Browser-Actors + Residential ProxiesJe nach Actor: Titel, Preis, Händler, Rezensionen, LieferungJa / JaJSON, CSV, XML, RSS, Excel, HTML3/5
ScrapingBeeVerifiziertAPIca. 500 Credits für 1K ZeilenProxy-Rotation, Headless-BrowserName, Preis, Bewertung, Rezensionen, Shop, Lieferung, Rang, ProduktlinkJa / Über IntegrationenJSON, Integrations-Exporte4/5
Serper.devTeilweiseAPIca. 1 $/1K AnfragenGenerischer Retry-StackNur generische SERP-FelderExtern / ExternJSON4/5
ScrapingdogVerifiziertAPIca. 500 Credits für 1K ZeilenProxy-Rotation, JS-RenderingTitel, Preis, alter Preis, Bewertung, Rezensionen, Lieferung, FilterJa / SchwachJSON4/5
FirecrawlTeilweiseAPI / KIca. 200 Credits für 1K ErgebnisseProxys, JS-RenderingGenerische Search- und Scrape-AusgabenExtern / ExternJSON, Markdown, HTML, Screenshots3/5
Scrape.doTeilweiseAPI / Codeca. 500 Credits für 1K ZeilenStarker Anti-Bot, verwalteter BrowserGenerische Google- und rohe Shopping-ExtraktionExtern / ExternJSON, rohe Workflows2/5

Wichtigste Erkenntnisse aus der Tabelle:

  • Verifizierte Shopping-Unterstützung bieten Thunderbit, SerpApi, Oxylabs, Bright Data, Apify, ScrapingBee und Scrapingdog.
  • Am einfachsten für nicht-technische Nutzer: Thunderbit (5/5 Benutzerfreundlichkeit, kein Code nötig).
  • Beste Entwickler-API: SerpApi (ausgereiftes Schema, starke Doku).
  • Beste Enterprise-Optionen: Oxylabs und Bright Data.
  • Budget-Tipps: Scrapingdog und Serper.dev (wobei Serper.dev keine verifizierte Shopping-Unterstützung hat).

Die echten Kosten für Google-Shopping-Scraping: Budgetstufen für jedes Team

Die Preisgestaltung in diesem Markt ist wirklich verwirrend. Tools rechnen pro Suche, pro Zeile, pro Credit, pro Datensatz oder mit Dataset-Mindestwerten ab – und die Einheiten passen selten sauber zusammen. Dieses Budgetmodell ordnet die echten Anwendungsfälle ein:

Monatliches VolumenEmpfohlene StufeBeispiel-ToolsGeschätzte monatliche Kosten
Unter 500 ErgebnisseKostenlos / Browser-ErweiterungThunderbit Free, SerpApi Free, Scrapingdog Free Credits0 $
500–5.000 ErgebnisseGünstige API oder Pro-Plan der ErweiterungThunderbit Pro, Serper.dev, Scrapingdog, ScrapingBee0–50 $
5.000–50.000 ErgebnisseAPI der mittleren PreisklasseSerpApi, ScrapingBee, Oxylabs, Apify Actors50–300 $
50.000+ ErgebnisseEnterprise-API oder DatenplattformBright Data, Oxylabs Enterprise300 $+

Ein paar Kostenfallen, auf die Sie achten sollten:

  • Suchbasierte APIs wirken günstig, bis Sie tief paginieren – jede Ergebnisseite zählt als separate Suche
  • Zeilenbasierte Tools (wie Thunderbit) lassen sich leichter budgetieren, weil Sie genau wissen, was 1.000 Zeilen kosten
  • Dataset-Tools (wie Bright Data) können niedrige Stückkosten haben, aber hohe Mindestbestellwerte ($50+)
  • Actor-Marktplätze (wie Apify) können sehr attraktiv sein, aber die Preise variieren stark je nach Actor

Der Nutzer, der sich darüber beschwerte, dass „50 $ für ungefähr 20K Requests“ für ein Hobbyprojekt zu teuer seien, hatte nicht Unrecht. Wählen Sie ein Tool passend zu Ihrem tatsächlichen Volumen – zahlen Sie keine Enterprise-Preise für einen kleinen Katalog.

Vom Einmal-Scrape zur laufenden Google-Shopping-Überwachung

Die meisten Scraping-Ratgeber bleiben bei „So scrapen Sie einmal“. E-Commerce-Teams brauchen aber kontinuierliche Überwachung: tägliche Preischecks, wöchentliches PLA-Tracking, Warnungen, wenn ein Wettbewerber seine Preise ändert. So richten Sie das ein.

Schritt 1: Den Überwachungsumfang definieren

Beginnen Sie mit den Basics: Welche Keywords sollen getrackt werden, welche Wettbewerber überwacht werden, welche Märkte oder Geos abgedeckt sein sollen. Google-Shopping-Ergebnisse variieren je nach Standort, daher ist Geo-Targeting wichtig. Tools wie SerpApi, Oxylabs und ScrapingBee unterstützen Standortparameter. Thunderbit läuft in Ihrem Browser, sodass Sie per VPN oder Proxy verschiedene Geos simulieren können.

Schritt 2: Geplantes Scraping einrichten

Hier trennen sich die Tools deutlich:

  • Thunderbit: Beschreiben Sie den Zeitplan in natürlicher Sprache (z. B. „jeden Dienstag um 8 Uhr“), geben Sie Ihre Google-Shopping-URLs ein, und der Scraper läuft automatisch. Keine Cron-Jobs, keine externe Orchestrierung.
  • Apify: Actors unterstützen den für wiederkehrende Läufe – täglich, wöchentlich oder in benutzerdefinierten Intervallen.
  • Bright Data: Der unterstützt stündliche, tägliche oder wöchentliche Updates mit Alerts per E-Mail, Slack oder Dateibenachrichtigung.
  • Nur-API-Tools (SerpApi, Serper.dev, ScrapingBee, Scrapingdog, Firecrawl, Scrape.do): Sie brauchen externe Scheduler – Cron-Jobs, Zapier, n8n oder Ähnliches.

Schritt 3: In Ihr Tracking-System exportieren

  • Google Sheets: Am besten für einfache Dashboards und kleine Teams. Thunderbit, Apify und ScrapingBee (über Integrationen) unterstützen direkten Sheets-Export.
  • Airtable oder Notion: Besser für Teamzusammenarbeit und reichhaltigere Datenansichten. Thunderbit exportiert direkt in beide.
  • API-Pipelines: Für größere Setups JSON-Ausgaben in Ihr Data Warehouse oder BI-Tool einspeisen.

Schritt 4: Auffälligkeiten erkennen und handeln

Darauf sollten Sie in Ihren Daten achten:

  • Preisrückgänge oder Preissprünge bestimmter Händler
  • Neue Händler für die beobachteten Produkte
  • Veränderungen bei PLA-Positionen (Ihre Anzeigen vs. die der Wettbewerber)
  • Out-of-stock-Warnungen
  • Änderungen bei Bewertungsanzahl oder Sternebewertung

Mini-Beispiel: 50 Wettbewerberprodukte wöchentlich überwachen

ToolEinrichtungsstilPraktische KostenAm besten passend für
ThunderbitZero-Code, browser-firstca. 50 Zeilen/Woche × 4 Wochen = 200 Zeilen/Monat; passt in einen günstigen PlanAm schnellsten für ein kleines Team
SerpApiAPI-Pipelineca. 50 Suchen/Woche × 4 = 200 Suchen/Monat; passt ins Free-Tier (mit Vorbehalten)Am besten für Dev-Teams mit leichter Skalierung
Bright DataEnterprise-TrackerÜberdimensioniert für 50 Produkte, außer Sie brauchen Alerts, Compliance und breitere MarktüberwachungAm besten für größere Retail-Operationen

Das kommt oft genug vor, um es kurz zu klären.

Google-Shopping-Ergebnisse sind öffentlich zugängliche Daten. Das Scrapen öffentlich zugänglicher Daten für legitime Geschäftszwecke – Preisbeobachtung, Wettbewerbsanalyse, Marktanalyse – gilt nach derzeitiger US-Rechtsprechung im Allgemeinen als legal. Das Urteil des Ninth Circuit von 2022 in bestätigte erneut, dass der Zugriff auf öffentliche Webseiten nicht automatisch zu einer CFAA-Haftung wegen „ohne Autorisierung“ führt.

Allerdings erwähnen Googles (gültig ab Mai 2024) auch Verbote für automatisierten Zugriff, der maschinenlesbare Anweisungen wie robots.txt verletzt. Enterprise-Nutzer sollten das mit Rechtsberatung für ihren konkreten Workflow prüfen.

Standard-Hinweis: Das ist keine Rechtsberatung. Für mehr zu den wenden Sie sich bitte an eine juristische Fachperson.

Welcher Google-Shopping-Scraper ist der richtige für Sie?

So würde ich die verschiedenen Käuferprofile einem Tool zuordnen:

  • Nicht-technische Teams (E-Commerce-Operations, PPC-Manager, Vertrieb): . Zwei-Klick-Scraping, kein Code, KI passt sich Layoutänderungen an, integriertes Scheduling, kostenloser Export nach Sheets/Airtable/Notion. Es ist das einzige Tool auf dieser Liste, das für Menschen gebaut wurde, die kein Terminal anfassen wollen.
  • Entwickler, die Datenpipelines bauen: SerpApi. Dedizierter Shopping-Endpunkt, ausgereiftes Schema, starke Doku, strukturiertes JSON. Der Goldstandard für API-first Shopping-Scraping.
  • Enterprise-Scale-Operationen: Oxylabs oder Bright Data. Riesige Proxy-Netzwerke, SLAs, bewältigen jedes Volumen. Bright Data ergänzt Datasets und Price Tracker für Teams, die fertiges Monitoring möchten.
  • Preisbewusste API-Nutzer: Scrapingdog oder Serper.dev. Niedrigste Kosten pro Anfrage und kostenlose Einstiegsstufen. Scrapingdog hat verifizierte Shopping-Unterstützung; Serper.dev ist günstiger, bietet aber keinen öffentlichen Shopping-spezifischen Nachweis.
  • KI-first-Extraktion: Thunderbit oder Firecrawl. Beide nutzen KI, um die Seitenstruktur statt feste Selektoren zu interpretieren. Nur Thunderbit hat eine starke öffentliche Verifizierung für Google Shopping.
  • Marktplatz-Flexibilität: Apify. Mehrere Shopping-Actors, Scheduling, viele Exportformate – aber die Ergebnisse hängen vom gewählten Actor ab.
  • Volle Entwicklerkontrolle: Scrape.do. Beste technische Dokumentation zu den Mechaniken von Shopping, starke Anti-Bot-Logik, aber erfordert Python und erheblichen Einrichtungsaufwand.

Wenn Sie No-Code-Google-Shopping-Scraping in Aktion sehen möchten, testen Sie die kostenlos. Zwei Klicks, echte Daten, keine API-Keys. Und falls Thunderbit nicht passt, hoffe ich, dass dieser Vergleich Ihnen hilft, das richtige Tool zu finden. Viel Erfolg beim Scraping – und mögen Ihre Shopping-Daten stets strukturiert, aktuell und einsatzbereit sein.

FAQs

Kann man Google Shopping kostenlos scrapen?

Ja, in begrenztem Umfang. Thunderbit bietet einen kostenlosen Plan (6 Seiten), SerpApi stellt bereit, Serper.dev gibt , Scrapingdog enthält , und Firecrawl startet mit . Kostenlose Pläne eignen sich gut für Tests und kleinere Recherchen, aber fortlaufende Überwachung bei realem Volumen erfordert einen bezahlten Plan.

Wie viel kostet es, Google-Shopping-Ergebnisse zu scrapen?

Das hängt von Ihrem Volumen und dem gewählten Tool ab. Für unter 500 Ergebnisse pro Monat: 0 $ (kostenlose Pläne). Für 500–5.000 Ergebnisse: rechnen Sie mit 0–50 $/Monat bei Tools wie Thunderbit Pro, Serper.dev oder Scrapingdog. Die Nutzung von APIs im mittleren Segment (5.000–50.000 Ergebnisse) liegt bei 50–300 $/Monat mit SerpApi, ScrapingBee oder Oxylabs. Enterprise-Setups (50.000+ Ergebnisse) kosten typischerweise 300 $+ mit Bright Data oder Oxylabs Enterprise.

Welche Daten kann man aus Google Shopping extrahieren?

Bei verifizierten Tools sind die häufigsten Felder: Produkttitel, Preis (aktuell und ursprünglich), Händler-/Retailer-Name, Produktlink, Produkt-ID, Bewertung, Anzahl der Rezensionen, Liefer-/Versandinfos, Bild- oder Thumbnail-URL und Verfügbarkeit. Einige Tools erfassen außerdem Sponsored-/PLA-Flags, Produktmerkmale und Filterdaten. Die genauen Felder variieren je nach Tool – siehe die Vergleichstabelle oben.

Brauche ich Programmierkenntnisse, um Google Shopping zu scrapen?

Nein. Browser-Erweiterungen wie Thunderbit kommen ganz ohne Programmieren aus – Sie klicken auf einen Button und erhalten strukturierte Daten. API-Tools (SerpApi, ScrapingBee, Scrapingdog) erfordern grundlegende Entwicklerkenntnisse oder eine Integration über Plattformen wie Zapier oder n8n. Vollständig benutzerdefinierte Scraper (Scrape.do, Firecrawl) erfordern Python oder vergleichbares Programmierwissen. Wenn Sie nicht technisch arbeiten, beginnen Sie mit einem No-Code-Tool und wechseln Sie nur dann zu einer API, wenn Ihr Umfang es verlangt.

Wie oft sollte man Google Shopping für Preisbeobachtung scrapen?

Für schnelllebige Kategorien wie Elektronik, Mode oder stark rabattgetriebene Segmente ist tägliches Monitoring ein sinnvoller Ausgangspunkt – Preise können sich während Aktionen mehrfach am Tag ändern. Für langsamer bewegliche Segmente (Möbel, Industriebedarf) kann wöchentlich reichen. Tools mit integriertem Scheduling (Thunderbit, Apify, Bright Datas Price Tracker) machen wiederkehrende Scrapes besonders einfach. Starten Sie wöchentlich und erhöhen Sie die Frequenz, wenn Sie feststellen, dass Ihnen wichtige Preisänderungen entgehen.

KI-Web-Scraper für Google Shopping testen

Mehr erfahren

Inhaltsverzeichnis

Thunderbit ausprobieren

Leads und andere Daten in nur 2 Klicks scrapen. Mit KI.

Thunderbit holen Es ist kostenlos
Daten mit KI extrahieren
Daten einfach zu Google Sheets, Airtable oder Notion übertragen
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week