Google Shopping verwerkt elke maand meer dan . Dat is een gigantische hoeveelheid prijsinformatie, producttrends en verkopersdata — allemaal meteen beschikbaar in je browser, verzameld uit duizenden webshops.
Die data uit Google Shopping halen en netjes in een spreadsheet krijgen? Dát is waar de ellende begint. Ik heb behoorlijk wat tijd gestoken in het testen van verschillende aanpakken — van no-code browserextensies tot complete Python-scripts — en de ervaring loopt uiteen van “wow, dat ging makkelijk” tot “ik ben al drie dagen CAPTCHA’s aan het debuggen en wil ermee stoppen.” De meeste handleidingen gaan ervan uit dat je een Python-ontwikkelaar bent, maar in mijn ervaring is een groot deel van de mensen die Google Shopping-data nodig hebben gewoon e-commercebeheerder, pricing analyst of marketeer die de cijfers wil zonder code te schrijven. Daarom behandelt deze gids drie methoden, van het makkelijkst tot het meest technisch, zodat je kunt kiezen wat past bij jouw kennis en tijd.
Wat is Google Shopping-data?
Google Shopping is een productzoekmachine. Typ “draadloze noise-cancelling koptelefoon” in en Google laat aanbiedingen zien van tientallen online winkels — met producttitels, prijzen, verkopers, beoordelingen, afbeeldingen en links. Het is eigenlijk een live catalogus die constant wordt bijgewerkt met alles wat online te koop is.
Waarom Google Shopping-data scrapen?
Eén productpagina zegt je bijna niets. Maar honderden productpagina’s, overzichtelijk in een spreadsheet gezet — daar ga je patronen in zien.

Dit zijn de meest voorkomende use cases die ik zie:
| Gebruikssituatie | Wie heeft hier voordeel van? | Waar let je op? | |---|---|---|---| | Concurrentieanalyse van prijzen | E-commerce teams, pricing analysts | Prijzen van concurrenten, kortingspatronen, prijswijzigingen door de tijd heen | | Producttrend-onderzoek | Marketingteams, productmanagers | Nieuwe producten, snelgroeiende categorieën, review-activiteit | | Advertentie-inzicht | PPC-managers, growth teams | Gesponsorde vermeldingen, welke verkopers bieden mee, advertentiefrequentie | | Verkoper-/leadonderzoek | Salesteams, B2B | Actieve verkopers, nieuwe aanbieders in een categorie | | MAP-monitoring | Brand managers | Retailers die minimum advertised price-beleid overtreden | | Voorraad- en assortimentsmonitoring | Category managers | Beschikbaarheid, hiaten in het assortiment |
gebruikt inmiddels AI-gestuurde prijstools. Bedrijven die investeren in prijsconcurrentie-informatie rapporteren rendementen tot wel 29x. Amazon past prijzen ongeveer elke 10 minuten aan. Als je de prijzen van concurrenten nog handmatig controleert, ben je simpelweg te laat.
Thunderbit is een AI Web Scraper Chrome-extensie waarmee zakelijke gebruikers data van websites kunnen scrapen met behulp van AI. Vooral handig voor e-commerce teams, pricing analysts en marketeers die gestructureerde Google Shopping-data willen zonder code te schrijven.
Welke data kun je eigenlijk uit Google Shopping halen?
Voordat je een tool kiest of ook maar één regel code schrijft, is het slim om precies te weten welke velden beschikbaar zijn — en welke extra moeite kosten om erbij te komen.
Velden uit Google Shopping zoekresultaten
Wanneer je zoekt in Google Shopping, bevat elke productkaart op de resultatenpagina:
| Veld | Type | Voorbeeld | Opmerkingen |
|---|---|---|---|
| Producttitel | Tekst | "Sony WH-1000XM5 Wireless Headphones" | Altijd aanwezig |
| Prijs | Getal | $278.00 | Kan verkoopprijs + originele prijs tonen |
| Verkoper/Winkel | Tekst | "Best Buy" | Per product kunnen meerdere verkopers bestaan |
| Beoordeling | Getal | 4.7 | Van de 5 sterren; niet altijd zichtbaar |
| Aantal reviews | Getal | 12,453 | Soms ontbreekt dit bij nieuwere producten |
| Productafbeelding-URL | URL | https://... | Kan bij eerste laadmoment een base64-placeholder zijn |
| Productlink | URL | https://... | Verwijst naar Google’s productpagina of direct naar de winkel |
| Verzendinformatie | Tekst | "Free shipping" | Niet altijd aanwezig |
| Gesponsorde tag | Boolean | Ja/Nee | Geeft betaalde plaatsing aan — nuttig voor advertentie-inzicht |
Velden van productdetailpagina’s (subpagedata)
Als je doorklikt naar de detailpagina van een individueel product in Google Shopping, kun je rijkere data ophalen:
| Veld | Type | Opmerkingen |
|---|---|---|
| Volledige beschrijving | Tekst | Vereist het openen van de productpagina |
| Alle verkopersprijzen | Getal (meerdere) | Prijsvergelijking naast elkaar tussen retailers |
| Specificaties | Tekst | Verschilt per productcategorie (afmetingen, gewicht, enz.) |
| Individuele reviewtekst | Tekst | Volledige inhoud van beoordelingen van kopers |
| Samenvattingen van plus- en minpunten | Tekst | Google genereert deze soms automatisch |
Om deze velden op te halen, moet je na het scrapen van de zoekresultaten ook de subpagina’s van elk product bezoeken. Tools met -functionaliteit doen dat automatisch — hieronder laat ik je de workflow zien.
Drie manieren om Google Shopping-data te scrapen (kies jouw route)

Drie methoden, van simpel tot technisch. Kies de aanpak die past bij jouw situatie en sla door naar het juiste stuk:
| Methode | Niveau | Insteltijd | Anti-botafhandeling | Het meest geschikt voor |
|---|---|---|---|---|
| No-code (Thunderbit Chrome-extensie) | Beginner | ~2 minuten | Automatisch afgehandeld | E-commerce operations, marketeers, eenmalig onderzoek |
| Python + SERP API | Gemiddeld | ~30 minuten | Afgehandeld door de API | Developers die programmatische, herhaalbare toegang nodig hebben |
| Python + Playwright (browserautomatisering) | Gevorderd | ~1 uur+ | Zelf beheren | Aangepaste pipelines, edge cases |
Methode 1: Google Shopping-data scrapen zonder code (met Thunderbit)
- Moeilijkheid: Beginner
- Benodigde tijd: ~2–5 minuten
- Wat je nodig hebt: Chrome-browser, (gratis versie werkt), een Google Shopping-zoekopdracht
De snelste route van “ik heb Google Shopping-data nodig” naar “hier is mijn spreadsheet”. Geen code, geen API-sleutels, geen proxy-instellingen. Ik heb deze workflow tientallen keren uitgelegd aan niet-technische collega’s — niemand bleef vastlopen.
Stap 1: Installeer Thunderbit en open Google Shopping
Installeer de vanuit de Chrome Web Store en maak een gratis account aan.
Ga daarna naar Google Shopping. Je kunt rechtstreeks naar shopping.google.com gaan of het Shopping-tabblad gebruiken in een normale Google-zoekopdracht. Zoek naar het product of de categorie die je wilt bekijken — bijvoorbeeld “draadloze noise-cancelling koptelefoon”.
Je zou een raster met productvermeldingen moeten zien, inclusief prijzen, verkopers en beoordelingen.
Stap 2: Klik op "AI Suggest Fields" om kolommen automatisch te laten herkennen
Klik op het Thunderbit-extensie-icoon om de zijbalk te openen en klik vervolgens op "AI Suggest Fields." De AI scant de Google Shopping-pagina en stelt kolommen voor zoals: Producttitel, Prijs, Verkoper, Beoordeling, Aantal reviews, Afbeeldings-URL en Productlink.
Controleer de voorgestelde velden. Je kunt kolomnamen aanpassen, velden verwijderen die je niet nodig hebt of eigen velden toevoegen. Als je iets specifieks wilt — bijvoorbeeld “alleen de numerieke prijs zonder valutasymbool extraheren” — kun je aan die kolom een Field AI Prompt toevoegen.
Je zou in het Thunderbit-paneel een voorbeeld van de kolomstructuur moeten zien.
Stap 3: Klik op "Scrape" en bekijk de resultaten
Klik op de blauwe "Scrape"-knop. Thunderbit haalt elke zichtbare productvermelding op in een gestructureerde tabel.
Meerdere pagina’s? Thunderbit handelt paginering automatisch af — door door pagina’s te klikken of te scrollen om meer resultaten te laden, afhankelijk van de lay-out. Heb je veel resultaten, dan kun je kiezen tussen Cloud Scraping (sneller, verwerkt tot 50 pagina’s tegelijk, draait op Thunderbit’s gedistribueerde infrastructuur) of Browser Scraping (gebruikt je eigen Chrome-sessie — handig als Google regiogebonden resultaten toont of inloggen vereist).
Bij mijn tests duurde het scrapen van 50 productvermeldingen ongeveer 30 seconden. Dezelfde taak handmatig — elke vermelding openen, titel, prijs, verkoper en beoordeling kopiëren — had me meer dan 20 minuten gekost.
Stap 4: Verrijk data met subpage scraping
Na de eerste scrape klik je op "Scrape Subpages" in het Thunderbit-paneel. De AI bezoekt de detailpagina van elk product en voegt extra velden toe — volledige beschrijvingen, alle verkopersprijzen, specificaties en reviews — aan de oorspronkelijke tabel.
Je hoeft hiervoor niets extra’s in te stellen — de AI herkent vanzelf de structuur van elke detailpagina en haalt de relevante data op. Zo heb ik in minder dan 5 minuten een complete matrix voor prijsvergelijking gebouwd (product + alle verkopersprijzen + specificaties) voor 40 producten.
Stap 5: Exporteer naar Google Sheets, Excel, Airtable of Notion
Klik op "Export" en kies je bestemming — , Excel, Airtable of Notion. Helemaal gratis. CSV- en JSON-downloads zijn ook beschikbaar.
Twee klikken om te scrapen, één klik om te exporteren. De vergelijkbare Python-scriptversie? Ongeveer 60 regels code, proxyconfiguratie, CAPTCHA-afhandeling en doorlopend onderhoud.
Methode 2: Google Shopping-data scrapen met Python + een SERP API
- Moeilijkheid: Gemiddeld
- Benodigde tijd: ~30 minuten
- Wat je nodig hebt: Python 3.10+, de libraries
requestsenpandas, een SERP API-sleutel (bijv. ScraperAPI, SerpApi of vergelijkbaar)
Als je programmatische, herhaalbare toegang tot Google Shopping-data nodig hebt, is een SERP API de meest betrouwbare Python-aanpak. Anti-botmaatregelen, JavaScript-rendering, proxyrotatie — alles wordt op de achtergrond afgehandeld. Jij stuurt een HTTP-request en krijgt gestructureerde JSON terug.
Stap 1: Stel je Python-omgeving in
Installeer Python 3.12 (de veiligste productiestandaard in 2025–2026) en de benodigde pakketten:
1pip install requests pandas
Meld je aan bij een SERP API-provider. biedt 100 gratis zoekopdrachten per maand; geeft 5.000 gratis credits. Haal je API-sleutel uit het dashboard.
Stap 2: Configureer je API-aanroep
Hier is een minimaal voorbeeld met het Google Shopping-endpoint van ScraperAPI:
1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5resp = requests.get(
6 "https://api.scraperapi.com/structured/google/shopping",
7 params={"api_key": API_KEY, "query": query, "country_code": "us"}
8)
9data = resp.json()
De API geeft gestructureerde JSON terug met velden zoals title, price, link, thumbnail, source (verkoper) en rating.
Stap 3: Parse de JSON-response en haal velden eruit
1products = data.get("shopping_results", [])
2rows = []
3for p in products:
4 rows.append({
5 "title": p.get("title"),
6 "price": p.get("price"),
7 "seller": p.get("source"),
8 "rating": p.get("rating"),
9 "reviews": p.get("reviews"),
10 "link": p.get("link"),
11 "thumbnail": p.get("thumbnail"),
12 })
13df = pd.DataFrame(rows)
Stap 4: Exporteer naar CSV of JSON
1df.to_csv("google_shopping_results.csv", index=False)
Dit werkt goed voor batchgebruik: loop door 50 zoekwoorden en bouw in één script-run een volledige dataset op. De afweging is de kosten — SERP API’s rekenen per query, en bij duizenden queries per dag loopt de rekening snel op. Meer daarover hieronder.
Methode 3: Google Shopping-data scrapen met Python + Playwright (browserautomatisering)
- Moeilijkheid: Gevorderd
- Benodigde tijd: ~1 uur+ (plus doorlopend onderhoud)
- Wat je nodig hebt: Python 3.10+, Playwright, residential proxies, geduld
De aanpak met “maximale controle”. Je start een echte browser, gaat naar Google Shopping en haalt data uit de gerenderde pagina. Het meest flexibel, maar ook het meest kwetsbaar — Google’s anti-botsystemen zijn streng, en de paginastuctuur verandert meerdere keren per jaar.
Eerlijk gezegd: ik heb gebruikers gesproken die wekenlang hebben gevochten tegen CAPTCHA’s en IP-blokkades met deze aanpak. Het werkt, maar reken op doorlopend onderhoud.
Stap 1: Installeer Playwright en proxies
1pip install playwright
2playwright install chromium
Je hebt residential proxies nodig. Datacenter-IP’s worden vrijwel meteen geblokkeerd — een forumgebruiker zei het kort maar krachtig: “Alle AWS-IP’s worden geblokkeerd of krijgen CAPTCHA na 1/2 resultaten.” Diensten zoals Bright Data, Oxylabs of Decodo bieden residential proxy-pools vanaf ongeveer $1–5/GB.
Configureer Playwright met een realistische user-agent en je proxy:
1from playwright.sync_api import sync_playwright
2with sync_playwright() as p:
3 browser = p.chromium.launch(
4 headless=True,
5 proxy={"server": "http://your-proxy:port", "username": "user", "password": "pass"}
6 )
7 context = browser.new_context(
8 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ..."
9 )
10 page = context.new_page()
Stap 2: Ga naar Google Shopping en ga om met anti-botmaatregelen
Bouw de Google Shopping-URL en open die:
1query = "wireless noise cancelling headphones"
2url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
3page.goto(url, wait_until="networkidle")
Als de EU-cookiebanner verschijnt, verwerk die dan:
1try:
2 page.click("button#L2AGLb", timeout=3000)
3except:
4 pass
Gebruik menselijke vertragingen tussen acties — 2–5 seconden willekeurige wachttijd tussen pagina’s. Google’s detectiesystemen herkennen snelle, uniforme requestpatronen.
Stap 3: Scroll, navigeer door pagina’s en haal productdata op
Google Shopping laadt resultaten dynamisch. Scroll om lazy loading te activeren en haal daarna productkaarten op:
1import time, random
2# Scroll om alle resultaten te laden
3for _ in range(3):
4 page.evaluate("window.scrollBy(0, 1000)")
5 time.sleep(random.uniform(1.5, 3.0))
6# Productkaarten ophalen
7cards = page.query_selector_all("[jsname='ZvZkAe']")
8results = []
9for card in cards:
10 title = card.query_selector("h3")
11 price = card.query_selector("span.a8Pemb")
12 # ... haal andere velden op
13 results.append({
14 "title": title.inner_text() if title else None,
15 "price": price.inner_text() if price else None,
16 })
Belangrijke kanttekening: de CSS-selectors hierboven zijn slechts benaderingen en zullen veranderen. Google wisselt classnamen vaak. Alleen al in 2024–2026 zijn drie verschillende sets selectors gedocumenteerd. Richt je liever op stabielere attributen zoals jsname, data-cid, <h3>-tags en img[alt] dan op classnamen.
Stap 4: Sla op als CSV of JSON
1import json
2from datetime import datetime
3filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
4with open(filename, "w") as f:
5 json.dump(results, f, indent=2)
Reken erop dat je dit script regelmatig moet onderhouden. Wanneer Google de paginastuctuur aanpast — en dat gebeurt meerdere keren per jaar — breken je selectors en kun je opnieuw beginnen met debuggen.
De grootste frustratie: CAPTCHA’s en anti-botblokkades
Forum na forum zie je steeds hetzelfde verhaal: “Ik heb er een paar weken aan besteed, maar gaf het op tegen de anti-botmethoden van Google.” CAPTCHA’s en IP-blokkades zijn de belangrijkste reden waarom mensen hun doe-het-zelf Google Shopping-scrapers opgeven.
Hoe Google scrapers blokkeert (en wat je eraan kunt doen)
| Anti-botuitdaging | Wat Google doet | Workaround |
|---|---|---|---|
| IP-fingerprinting | Blokkeert datacenter-IP’s na een paar requests | Residential proxies of browser-gebaseerd scrapen |
| CAPTCHA’s | Worden geactiveerd door snelle of geautomatiseerde requestpatronen | Rate limiting (10–20 sec tussen requests), menselijke vertragingen, CAPTCHA-oplossingsdiensten |
| JavaScript-rendering | Shopping-resultaten laden dynamisch via JS | Headless browser (Playwright) of API die JS rendert |
| User-agent-detectie | Blokkeert veelgebruikte bot-user-agents | Realistische, actuele user-agent strings roteren |
| TLS-fingerprinting | Detecteert TLS-signatures die niet op een browser lijken | Gebruik curl_cffi met browser-imitatie of een echte browser |
| AWS/cloud-IP-blokkering | Blokkeert bekende IP-ranges van cloudproviders | Vermijd datacenter-IP’s helemaal |
In januari 2025 maakte Google JavaScript-uitvoering verplicht voor SERP- en Shopping-resultaten, waardoor — waaronder pipelines die werden gebruikt door SemRush en SimilarWeb. In september 2025 zette Google de oude productdetail-URL’s uit en verwees ze door naar een nieuwe “Immersive Product”-weergave die via async AJAX laadt. Elke tutorial van vóór eind 2025 is daardoor grotendeels verouderd.
Hoe elke methode met deze uitdagingen omgaat
SERP API’s regelen alles achter de schermen — proxies, rendering, CAPTCHA-oplossing. Je hoeft er niet over na te denken.
Thunderbit Cloud Scraping gebruikt gedistribueerde cloudinfrastructuur in de VS, EU en Azië om JS-rendering en anti-botmaatregelen automatisch af te handelen. De Browser Scraping-modus gebruikt je eigen geauthenticeerde Chrome-sessie, waardoor detectie wordt omzeild omdat het eruitziet als normaal surfgedrag.
DIY Playwright legt de volledige verantwoordelijkheid bij jou neer — proxybeheer, afstelling van vertragingen, CAPTCHA-oplossing, onderhoud van selectors en voortdurende monitoring op fouten.
Wat kost Google Shopping-data scrapen nu echt? Een eerlijke vergelijking
“$50 voor ongeveer 20k requests… best prijzig voor mijn hobbyproject.” Die klacht zie je vaak in forums. Maar in die discussie wordt meestal de grootste kostenpost vergeten.
Kostenvergelijking
| Aanpak | Opstartkosten | Kosten per query (geschat) | Onderhoudslast | Verborgen kosten |
|---|---|---|---|---|
| DIY Python (zonder proxy) | Gratis | $0 | HOOG (storingen, CAPTCHA’s) | Jouw tijd voor debuggen |
| DIY Python + residential proxies | Gratis code | ~$1–5/GB | MIDDEL-HOOG | Kosten van de proxyprovider |
| SERP API (SerpApi, ScraperAPI) | Gratis tier beperkt | ~$0.50–5.00 per 1K queries | LAAG | Loopt snel op bij volume |
| Thunderbit Chrome-extensie | Gratis tier (6 pagina’s) | Gebaseerd op credits, ~1 credit/rij | ZEER LAAG | Betaald plan voor volume |
| Thunderbit Open API (Extract) | Gebaseerd op credits | ~20 credits/pagina | LAAG | Betalen per extractie |
De verborgen kosten die iedereen negeert: je tijd
Een DIY-oplossing van $0 die 40 uur aan debuggen opeet, is niet gratis. Tegen $50 per uur is dat $2.000 aan arbeid — voor een scraper die volgende maand alweer kan breken zodra Google zijn DOM wijzigt.

McKinsey’s Technology Outlook stelt dat het . Onder die grens “slokt zelf bouwen budget op zonder ROI op te leveren.” Voor de meeste e-commerce teams die wekelijks enkele honderden tot enkele duizenden zoekopdrachten uitvoeren, is een no-code tool of SERP API een stuk kostenefficiënter dan zelf iets bouwen.
Hoe je geautomatiseerde Google Shopping-prijsmonitoring instelt
De meeste handleidingen behandelen scrapen als een eenmalige taak. De echte use case voor e-commerce teams is doorlopende, geautomatiseerde monitoring. Je hebt niet alleen de prijzen van vandaag nodig — ook die van gisteren, vorige week en morgen.
Geplande scraping instellen met Thunderbit
Thunderbit’s Scheduled Scraper laat je het tijdsinterval in gewone taal beschrijven — “elke dag om 9 uur” of “elke maandag en donderdag om 12 uur” — en de AI zet dat om in een terugkerend schema. Voer je Google Shopping-URL’s in, klik op "Schedule", en je bent klaar.
Elke run exporteert automatisch naar Google Sheets, Airtable of Notion. Het eindresultaat: een spreadsheet die dagelijks automatisch wordt aangevuld met prijzen van concurrenten, klaar voor draaitabellen of alerts.
Geen cronjobs. Geen serverbeheer. Geen gedoe met Lambda-functies. (Ik heb forumposts gezien van developers die dagen bezig waren om Selenium werkend te krijgen in AWS Lambda — Thunderbit’s scheduler slaat dat hele circus over.)
Meer over het bouwen van vind je in onze aparte deep dive.
Plannen met Python (voor developers)
Als je de SERP API-aanpak gebruikt, kun je runs plannen met cronjobs (Linux/Mac), Windows Task Scheduler of cloud schedulers zoals AWS Lambda of Google Cloud Functions. Python-bibliotheken zoals APScheduler werken ook.
De afweging: jij bent nu verantwoordelijk voor het monitoren van de gezondheid van het script, foutafhandeling, het op schema roteren van proxies en het updaten van selectors wanneer Google de pagina wijzigt. Voor de meeste teams kost de engineeringtijd voor het onderhoud van een geplande Python-scraper meer dan een dedicated tool.
Tips en best practices voor het scrapen van Google Shopping-data
Welke methode je ook gebruikt, een paar dingen besparen je veel frustratie.
Respecteer rate limits
Bestook Google niet met honderden snelle requests — dan word je geblokkeerd en kan je IP nog een tijd gemarkeerd blijven. Bij DIY-methodes: spreid requests met 10–20 seconden ertussen en gebruik willekeurige variatie. Tools en API’s regelen dit voor je.
Kies de methode op basis van volume
Een snelle beslisgids:
- < 10 queries per week → Thunderbit gratis tier of SerpApi gratis tier
- 10–1.000 queries per week → betaald SERP API-plan of
- 1.000+ queries per week → SERP API enterprise-plan of Thunderbit Open API
Schoon je data op en valideer die
Prijzen bevatten valutasymbolen, lokale notatie (1.299,00 € vs $1,299.00) en soms rommeltekens. Gebruik Thunderbit’s Field AI Prompts om tijdens het extraheren te normaliseren, of maak het achteraf schoon met pandas:
1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)
Controleer op duplicaten tussen organische en gesponsorde vermeldingen — die overlappen vaak. Ontdubbel op basis van de combinatie (title, price, seller).
Ken het juridische landschap
Het scrapen van publiek beschikbare productdata wordt over het algemeen als legaal gezien, maar het juridische landschap verandert snel. De belangrijkste recente ontwikkeling: onder DMCA § 1201 vanwege het omzeilen van Google’s “SearchGuard”-anti-scrapingsysteem. Dit is een nieuwe handhavingsroute die verder gaat dan eerdere zaken zoals hiQ v. LinkedIn en Van Buren v. United States.
Praktische richtlijnen:
- Scrape alleen publiek beschikbare data — log niet in om afgeschermde content te bekijken
- Haal geen persoonlijke informatie op (namen van reviewers, accountgegevens)
- Houd er rekening mee dat Google’s Servicevoorwaarden geautomatiseerde toegang verbieden — het gebruik van een SERP API of browserextensie verlaagt de juridische grijze zone, maar neemt die niet volledig weg
- Houd voor EU-activiteiten rekening met de GDPR, al gaat het bij productvermeldingen meestal om niet-persoonlijke commerciële data
- Overweeg juridisch advies als je een commercieel product bouwt op basis van gescrapete data
Voor een diepere blik op hebben we daar apart over geschreven.
Welke methode moet je gebruiken om Google Shopping-data te scrapen?
Na alle drie de aanpakken op dezelfde productcategorieën getest te hebben, kwam ik hierop uit:
Ben je niet-technisch en heb je snel data nodig — gebruik Thunderbit. Open Google Shopping, klik twee keer, exporteer. Binnen 5 minuten heb je een nette spreadsheet. De laat je het zonder verplichtingen proberen, en de subpage scraping-functie geeft je rijkere data dan de meeste Python-scripts opleveren.
Ben je developer en heb je herhaalbare, programmatische toegang nodig — gebruik een SERP API. De betrouwbaarheid is de kosten per query waard, en je omzeilt alle anti-botfrustratie. SerpApi heeft de beste documentatie; ScraperAPI heeft de ruimhartigste gratis tier.
Heb je maximale controle nodig en bouw je een custom pipeline — Playwright werkt, maar begin met open ogen. Reserveer genoeg tijd voor proxybeheer, onderhoud van selectors en CAPTCHA-afhandeling. In 2025–2026 is de minimale werkbare bypass-stack curl_cffi met Chrome-imitatie + residential proxies + 10–20 seconden vertraging. Een simpele requests-script met roterende user-agents is dood.
De beste methode is degene die je nauwkeurige data oplevert zonder je hele week op te slokken. Voor de meeste mensen is dat geen Python-script van 60 regels — het zijn twee klikken.
Bekijk als je volume nodig hebt, of bekijk onze tutorials op het om de workflow in actie te zien.
FAQs
Is het legaal om Google Shopping-data te scrapen?
Het scrapen van publiek beschikbare productdata is over het algemeen legaal volgens precedenten zoals hiQ v. LinkedIn en Van Buren v. United States. Maar Google’s Servicevoorwaarden verbieden geautomatiseerde toegang, en Google’s rechtszaak tegen SerpApi in december 2025 introduceerde een nieuwe DMCA § 1201-redenering rond het omzeilen van beveiliging. Het gebruik van gerenommeerde tools en API’s verlaagt het risico. Voor commerciële toepassingen is juridisch advies verstandig.
Kan ik Google Shopping scrapen zonder geblokkeerd te worden?
Ja, maar de methode maakt uit. SERP API’s handelen anti-botmaatregelen automatisch af. Thunderbit’s Cloud Scraping gebruikt gedistribueerde infrastructuur om blokkades te vermijden, terwijl de Browser Scraping-modus je eigen Chrome-sessie gebruikt (die eruitziet als normaal browsegedrag). DIY Python-scripts hebben residential proxies, menselijke vertragingen en TLS-fingerprintbeheer nodig — en zelfs dan komen blokkades vaak voor.
Wat is de makkelijkste manier om Google Shopping-data te scrapen?
Thunderbit’s Chrome-extensie. Ga naar Google Shopping, klik op "AI Suggest Fields", klik op "Scrape" en exporteer naar Google Sheets of Excel. Geen code, geen API-sleutels, geen proxyconfiguratie. Het hele proces duurt ongeveer 2 minuten.
Hoe vaak kan ik Google Shopping scrapen voor prijsmonitoring?
Met Thunderbit’s Scheduled Scraper kun je dagelijkse, wekelijkse of aangepaste monitoring instellen met beschrijvingen in gewone taal. Bij SERP API’s hangt de frequentie af van de creditlimieten van je plan — de meeste providers bieden genoeg voor dagelijkse monitoring van enkele honderden SKU’s. DIY-scripts kunnen zo vaak draaien als je infrastructuur aankan, maar hogere frequentie betekent meer anti-botproblemen.
Kan ik Google Shopping-data exporteren naar Google Sheets of Excel?
Ja. Thunderbit exporteert gratis rechtstreeks naar Google Sheets, Excel, Airtable en Notion. Python-scripts kunnen exporteren naar CSV of JSON, die je daarna kunt importeren in elke spreadsheettool. Voor doorlopende monitoring maken Thunderbit’s geplande exports naar Google Sheets een live dataset die automatisch wordt bijgewerkt.