Google Maps-scraper GitHub: wat werkt en wat stukgaat in 2026

Laatst bijgewerkt op April 22, 2026

Er zijn op GitHub grofweg die overeenkomen met “google maps scraper”. De meeste zijn kapot.

Dat klinkt dramatisch, maar als je ooit repos hebt gekloond, hebt geworsteld met Playwright-afhankelijkheden en om 2 uur ’s nachts hebt gezien hoe je scraper lege CSV-bestanden terugstuurt, dan ken je dat gevoel al. Google Maps heeft wereldwijd — het is een van de rijkste databases met lokale bedrijfsgegevens ter wereld. Logisch dus dat iedereen, van salesmedewerkers tot bureau-eigenaren, die data wil extraheren. Het probleem is dat Google de Maps-interface om de paar weken tot maanden aanpast, en elke wijziging kan de scraper die je net een uur hebt opgezet stilletjes breken. Zoals een GitHub-gebruiker het in een issue uit maart 2026 verwoordde: de tool Dat is geen zeldzaam randgeval. Dat is de kernstroom die faalt. Ik heb deze repos dit jaar nauwlettend gevolgd, en het verschil tussen “ziet er actief uit op GitHub” en “levert vandaag echt data op” is groter dan de meeste mensen verwachten. Deze gids is mijn eerlijke poging om de signalen van de ruis te scheiden — met welke repos werken, welke stukgaan, wanneer je GitHub helemaal moet overslaan en wat je moet doen nadat je je data hebt gescraped.

Wat is een Google Maps-scraper op GitHub (en waarom gebruiken mensen ze)?

Een Google Maps-scraper op GitHub is meestal een Python- of Go-script (soms verpakt in Docker) dat Google Maps opent in een headless browser, een zoekopdracht uitvoert zoals “tandartsen in Chicago” en de bedrijfsvermeldingsgegevens eruit haalt: namen, adressen, telefoonnummers, websites, beoordelingen, aantal reviews, categorieën, openingstijden en soms breedte-/lengtecoördinaten.

GitHub is de standaard thuisbasis voor deze tools omdat de code gratis, open source en (in theorie) aanpasbaar is. Je kunt een repo forken, de zoekparameters aanpassen, je eigen proxylogica toevoegen en exporteren naar welk formaat je ook nodig hebt. Gemini_Generated_Image_i0rxr6i0rxr6i0rx_compressed.webp

De gebruikelijke gegevensvelden die mensen willen ophalen, zien er zo uit:

VeldHoe vaak voorkomt in repos
BedrijfsnaamBijna universeel
AdresBijna universeel
TelefoonnummerBijna universeel
Website-URLBijna universeel
SterrenratingBijna universeel
Aantal reviewsZeer vaak
Categorie / typeVaak
OpeningstijdenVaak
Latitude / longitudeVaak in sterkere repos
E-mail / sociale linksAlleen wanneer de scraper ook de bedrijfswebsite bezoekt
Volledige reviewtekstVaak in gespecialiseerde review-scrapers, minder betrouwbaar in bulk-scrapers

Wie gebruiken deze tools? Salesteams die outbound leadlijsten opbouwen. Vastgoedprofessionals die lokale markten in kaart brengen. E-commerce teams die concurrentieanalyses doen. Marketeers die lokale SEO-audits uitvoeren. De gemene deler: ze hebben allemaal gestructureerde lokale bedrijfsdata nodig, en ze willen die liever niet één vermelding tegelijk handmatig uit een browser kopiëren.

Waarom sales- en operations-teams zoeken naar Google Maps-scraper GitHub-repos

Google Maps is om een simpele reden aantrekkelijk: daar leeft lokale bedrijfsinformatie echt. Niet in een obscure directory. Niet achter een betaalmuur. Gewoon in de zoekresultaten.

De zakelijke waarde valt grofweg uiteen in drie hoofdgebieden.

Leadgeneratie en prospecting

Dit is de grote. Een oprichter die een Google Maps-scraper bouwde voor freelancers en bureaus heel direct: leads vinden in specifieke steden en niches, contactgegevens verzamelen voor cold outreach, en CSV’s genereren met naam, adres, telefoon, website, ratings, aantal reviews, categorie, openingstijden, e-mails en sociale accounts. Een van de meest actieve repos (gosom/google-maps-scraper) vertelt gebruikers letterlijk dat ze de agent kunnen vragen: Dat is geen hobbyproject — dat is een salespipeline.

Marktonderzoek en concurrentieanalyse

Operations- en strategieteams gebruiken gescrapete Maps-data om concurrenten per wijk te tellen, reviewsentiment te analyseren en gaten te ontdekken. Een local SEO-specialist in één niche door publieke gegevens uit Google Maps te halen. Dat soort analyse is handmatig op schaal vrijwel onmogelijk.

Lokale SEO-audits en het bouwen van directories

Marketeers scrapen Google Maps om de lokale zichtbaarheid in zoekresultaten te auditen, NAP-consistentie te controleren (Name, Address, Phone) en directorywebsites op te bouwen. Een gebruiker importeerde in WordPress met WP All Import.

De rekensom die scrapen verleidelijk maakt

Handmatig verzamelen is niet gratis alleen omdat het in een browservenster gebeurt. Upwork zet administratieve data-entry-VA’s op . Als een mens 1 minuut per bedrijf nodig heeft om de basis vast te leggen, kost 1.000 bedrijven ongeveer 16,7 uur — grofweg $200–$334 aan arbeid vóór QA. Bij 2 minuten per bedrijf kost diezelfde lijst $400–$668. Dat is de echte benchmark waar elke “gratis GitHub-scraper” tegenop moet boksen.

Google Maps API vs. GitHub-scraperrepos vs. no-code tools: een beslisboom voor 2026

Kies je route voordat je iets kloont. Volume, budget, technische skills en tolerantie voor onderhoud spelen hier allemaal mee.

CriteriaGoogle Places APIGitHub-scraperNo-code tool (bijv. Thunderbit)
Kosten per 1.000 zoekopdrachten$7–32 (gebruikelijke Pro-calls)Gratis software + proxykosten + tijdGratis laag, daarna op credits
GegevensveldenGestructureerd, beperkt tot API-schemaFlexibel, afhankelijk van de repoAI-geconfigureerd per site
Toegang tot reviewsMaximaal 5 reviews per plekVolledig (als de scraper dit ondersteunt)Hangt af van de tool
Rate limitsGratis limieten per SKU, daarna betaaldZelf te beheren (afhankelijk van proxies)Beheerd door de provider
Juridische duidelijkheidExpliciete licentieGrijs gebied (risico op ToS-schending)Provider regelt compliance operationeel
OnderhoudDoor Google onderhoudenJij onderhoudt hetProvider onderhoudt het
Complexiteit van setupAPI-sleutel + codePython + afhankelijkheden + proxiesExtensie installeren, scrapen

Wanneer de Google Places API logisch is

Voor kleine tot middelgrote aantallen zoekopdrachten, waarbij je officiële licentie en voorspelbare facturatie nodig hebt, is de API de voor de hand liggende keuze. Google’s verving de universele maandelijkse tegoedregeling door gratis limieten per SKU: voor veel Essentials-SKU’s, 5.000 voor Pro en 1.000 voor Enterprise. Daarna kost Text Search Pro en Place Details Enterprise + Atmosphere $5 per 1.000.

De grootste beperking: reviews. De API geeft maximaal terug. Als je alle reviews nodig hebt, schiet de API tekort.

Wanneer een GitHub-scraper logisch is

Bulkontdekking op basis van keyword plus regio, browser-zichtbare data buiten de API-velden, volledige reviewtekst, aangepaste parslogica — als je een van deze dingen nodig hebt en je hebt de Python/Docker-skills om een scraper te onderhouden, dan zijn GitHub-repos de juiste keuze. De ruil is dat “gratis” de rekening verplaatst naar tijd, proxies, retries en breuk. Alleen al proxykosten kunnen oplopen: , en .

Wanneer een no-code tool zoals Thunderbit logisch is

Niet-technisch team? Prioriteit is om data snel in Sheets, Airtable, Notion of CSV te krijgen? Een no-code tool slaat de hele Python/Docker/proxy-setup over. Met installeer je de Chrome-extensie, open je Google Maps, klik je op “AI Suggest Fields” en vervolgens op “Scrape” — en je kunt . Cloud-scraping regelt anti-botbescherming automatisch en zonder proxyconfiguratie.

De simpele beslisregel: heb je minder dan 500 bedrijven nodig en budget? Gebruik de API. Heb je duizenden nodig en kun je met Python werken? Kies een GitHub-repo. Heb je snel data nodig zonder technische setup? Neem een no-code tool.

De freshnes-audit van 2026: welke Google Maps-scraper GitHub-repos werken vandaag echt?

Dit is de sectie die ik zelf wilde hebben toen ik begon met onderzoek. De meeste “beste Google Maps-scraper”-artikelen noemen alleen repos met een korte beschrijving en aantallen sterren. Geen ervan vertelt je of het ding deze maand echt data teruggeeft.

Hoe je ziet of een Google Maps-scraper GitHub-repo nog leeft

Voordat je iets kloont, loop deze checklist af:

  • Recente codepush: kijk of er in de afgelopen 3–6 maanden een echte commit is geweest (niet alleen issue-comments).
  • Gezondheid van issues: lees de 3 meest recent bijgewerkte issues. Gaan ze over kernfouten (lege velden, selectorfouten, browsercrashes) of om feature requests?
  • Kwaliteit van de README: documenteert die de huidige browserstack, Docker-setup en proxyconfiguratie?
  • Rode vlaggen in issues: zoek op “search box”, “reviews_count = 0”, “driver”, “Target page”, “selector”, “empty”.
  • Fork- en PR-activiteit: actieve forks en samengevoegde PR’s wijzen op een levende community.

Geen recente codeactiviteit, onopgeloste kernbugs en geen uitleg over proxies of browseronderhoud? Dan is die repo waarschijnlijk niet levend genoeg voor zakelijk gebruik — zelfs als het aantal sterren indrukwekkend oogt.

Beoordeelde top Google Maps-scraper GitHub-repos

github-google-maps-scrapers-evaluation.webp

Ik heb de repos met de meeste sterren geëvalueerd op basis van de bovenstaande methode. Hier is eerst de samenvattingstabel, daarna per repo wat opmerkingen.

RepoSterrenLaatste pushWerkt het in 2026?Gaat het om met UI-wijzigingen?Proxy-ondersteuningStack
gosom/google-maps-scraper3,7k2026-04-19⚠️ Kernextractie leeft; reviewvelden zijn wisselvalligActief onderhoudJa, explicietGo + Playwright
omkarcloud/google-maps-scraper2,6k2026-04-10⚠️ Actieve app, maar crash-/ondersteuningsproblemenOnderhouden door leverancierNiet duidelijk gedocumenteerdDesktop-app / binary
gaspa93/googlemaps-scraper4982026-03-26⚠️ Smalle niche van review-scraperBeperkte aanwijzingenGeen sterk proxyverhaalPython
conor-is-my-name/google-maps-scraper2842026-04-14⚠️ Veelbelovende Docker-flow, maar selectorproblemen in maartEnige aanwijzingen voor fixesGecontaineriseerd, proxy onduidelijkPython + Docker
Zubdata/Google-Maps-Scraper1202025-01-19❌ Te veel verouderde/null-veldproblemenWeinig bewijsNiet benadruktPython GUI
patxijuaristi/google_maps_scraper1132025-02-24❌ Lage signaalwaarde, oud Chrome-driverprobleemWeinig bewijsGeen sterk bewijsPython

gosom/google-maps-scraper

Momenteel de sterkste open-source allround-optie in het veld. De README is opvallend volwassen: CLI, web-UI, REST API, Docker-instructies, proxyconfiguratie, grid-/bounding-box-modus, e-mailextractie en meerdere exportdoelen. De repo claimt en documenteert proxies expliciet omdat “voor grotere scrapingjobs proxies helpen om rate limiting te vermijden.”

Het nadeel is niet dat de repo is opgegeven — het is dat randvelden wat achterlopen op de werkelijkheid. Recente issues uit 2026 laten zien dat , , en . Dus het is geloofwaardig voor extractie van bedrijfsvermeldingen, maar voor rijke review- en openingstijdgegevens is het nog wankel totdat er fixes zijn geland.

omkarcloud/google-maps-scraper

Zeer zichtbaar door het aantal sterren en de lange aanwezigheid, maar het leest minder als transparante OSS en meer als een verpakt extractorproduct — supportkanalen, desktop-installers, upsells voor enrichment. Een gebruiker in april 2026 zei dat de app startte en vervolgens de terminal vulde met totdat alles vastliep. Een ander open issue klaagt dat de tool Niet dood, maar ook niet het schoonste antwoord voor lezers die inspecteerbare OSS willen die ze zelf met vertrouwen kunnen patchen.

gaspa93/googlemaps-scraper

Geen algemene bulkzoek-leadgen scraper. Het is een gerichte die start vanaf een specifieke Google Maps POI-review-URL en recente reviews ophaalt, met opties voor metadata-scraping en sortering van reviews. Dat smallere bereik is juist een kracht voor bepaalde workflows — maar het lost niet het belangrijkste probleem op waar de meeste zakelijke gebruikers aan denken: het ontdekken van zoekresultaten.

conor-is-my-name/google-maps-scraper

De juiste insteek voor moderne operations-teams: Docker-first installatie, JSON API, zakelijke velden en community-zichtbaarheid in . Maar het issue uit maart 2026 is een perfect voorbeeld van waarom deze categorie breekbaar is: een gebruiker had de container bijgewerkt en de output meldde dat de scraper Dat is een storing in de kernflow, geen cosmetisch randgeval.

Zubdata/Google-Maps-Scraper

Op papier is de set velden breed: e-mail, reviews, ratings, adres, website, telefoon, categorie, openingstijden. In de praktijk vertelt het publieke issue-overzicht een ander verhaal: gebruikers melden , en . In combinatie met de oudere pushgeschiedenis is dit in 2026 moeilijk aan te raden.

patxijuaristi/google_maps_scraper

Makkelijk te vinden in GitHub-zoekresultaten, maar het sterkste publieke signaal is een in plaats van actief onderhoud. Het staat in dit artikel vooral als voorbeeld van wat “ziet er levend uit in zoekresultaten maar is risicovol in de praktijk” betekent.

Stap voor stap: een Google Maps-scraper vanaf GitHub opzetten

Besloten dat een GitHub-repo de juiste weg is? Zo ziet de setup er in de praktijk uit. Ik houd het hier algemeen in plaats van repo-specifiek — de stappen zijn opvallend vergelijkbaar tussen de actieve opties.

Stap 1: kloon de repository en installeer de afhankelijkheden

De gebruikelijke route:

  1. git clone de repo
  2. Maak een Python-virtual environment aan (of haal een Docker-image binnen)
  3. Installeer afhankelijkheden via pip install -r requirements.txt of docker-compose up
  4. Soms moet je ook een browserruntime installeren (Chromium voor Playwright, ChromeDriver voor Selenium)

Docker-first repos zoals en verminderen de dependency-ellende, maar maken die niet helemaal weg — Docker moet nog steeds draaien en je hebt genoeg schijfruimte nodig voor browserimages.

Stap 2: configureer je zoekparameters

De meeste generalistische scrapers willen:

  • Zoekwoord + locatie (bijv. “loodgieters in Austin TX”)
  • Resultaatlimiet (hoeveel vermeldingen je wilt extraheren)
  • Uitvoerformaat (CSV, JSON, database)
  • Soms geografische bounding boxes of een radius voor grid-gebaseerde ontdekking

De sterkere repos bieden dit aan via CLI-vlaggen of JSON-request bodies. Oudere repos vereisen mogelijk dat je direct een Python-bestand aanpast.

Stap 3: stel proxies in (indien nodig)

Alles boven een kleine test run? Dan wil je proxies. en positioneert proxies expliciet als de standaardoplossing voor grotere jobs. Zonder proxies kun je na een paar dozijn requests CAPTCHAs of IP-blokkades verwachten.

Stap 4: run de scraper en exporteer je data

Start het script, kijk hoe de browser langs result cards beweegt en wacht op de CSV- of JSON-output. Het ideale pad duurt minuten. Het minder ideale pad — en dat komt vaker voor dan iemand toegeeft — bestaat uit:

  • Browser sluit onverwacht
  • Versieverschil in Chrome-driver
  • Selector-/search-box-fout
  • Reviewaantallen of openingstijden komen leeg terug

Alle vier de patronen komen voor in .

Stap 5: handel fouten en breuken af

Als de scraper lege resultaten of fouten teruggeeft:

  1. Check de GitHub Issues van de repo op vergelijkbare meldingen
  2. Zoek naar Google Maps-UI-wijzigingen (nieuwe selectors, andere paginastructuur)
  3. Update de repo naar de nieuwste commit
  4. Als de maintainer het niet heeft opgelost, check forks op community-patches
  5. Overweeg of de tijd die je aan debuggen besteedt het waard is vergeleken met overstappen op een andere tool

Realistische setup-tijd voor de eerste keer: voor iemand die comfortabel is met terminals maar nog geen werkende Playwright/Docker/proxy-setup heeft, is 30–90 minuten tot de eerste geslaagde scrape een realistische bandbreedte. Niet vijf minuten.

Hoe je bans en rate limits voorkomt bij het scrapen van Google Maps

Er is geen gepubliceerde Google Maps-webdrempel die zegt: “je wordt geblokkeerd bij X requests.” Google houdt het bewust onduidelijk. Sommige gebruikers melden CAPTCHAs na ongeveer op servergebaseerde Playwright-setups. Een andere gebruiker beweerde voor een door een bedrijf gebouwde Maps-scraper. De drempels zijn niet hoog of laag. Ze zijn instabiel en contextafhankelijk.

Hier is een praktische strategiesset:

StrategieMoeilijkheidEffectiviteitKosten
Willekeurige vertragingen (2–5s tussen requests)MakkelijkGemiddeldGratis
Lagere concurrency (minder parallelle sessies)MakkelijkGemiddeldGratis
Residential proxy-rotatieGemiddeldHoog$1–6/GB
Datacenter-proxies (voor simpele targets)GemiddeldGemiddeld$0,02–0,6/GB
Fingerprint-randomisatie van headless browsersMoeilijkHoogGratis
Browserpersistentie / ingewerkte sessiesGemiddeldGemiddeldGratis
Cloudgebaseerd scrapen (het probleem uitbesteden)MakkelijkHoogWisselend

Voeg willekeurige vertragingen toe tussen requests

Vaste intervallen van 1 seconde zijn een rode vlag. Gebruik willekeurige jitter — 2 tot 5 seconden tussen acties, met af en toe langere pauzes. Dit is het makkelijkste wat je kunt doen, en het kost niets.

Roteer proxies (residential vs. datacenter)

Residential proxies werken beter omdat ze op echte gebruikers lijken, maar ze zijn duurder. Huidige prijzen: , , . Datacenter-proxies werken voor lichtere scraping, maar worden op Google-eigendommen sneller gemarkeerd.

Randomiseer browserfingerprints

Voor headless browser-scrapers: roteer user agents, viewportgroottes en andere fingerprint-signalen. Standaard Playwright/Puppeteer-configuraties zijn gemakkelijk te detecteren. Dit is lastiger te implementeren maar gratis en zeer effectief.

Gebruik cloudgebaseerd scrapen om het probleem uit te besteden

Tools zoals regelen anti-botbescherming, IP-rotatie en rate limiting automatisch via cloud-scrapinginfrastructuur. Thunderbit in cloudmodus — zonder proxy-setup of vertraagconfiguratie. Voor teams die niet parttime anti-bot-engineers willen worden, is dit de meest praktische route.

Hoe Google’s rate-limitdrempels er echt uitzien

Tekenen dat je rate-limited wordt:

  • CAPTCHAs die midden in het scrapen verschijnen
  • Lege resultaatsets na eerder succesvolle zoekopdrachten
  • Tijdelijke IP-blokkades (meestal 1–24 uur)
  • Slechter ladende pagina’s (trager, gedeeltelijke inhoud)

Herstel: stop met scrapen, roteer IP’s, wacht 15–60 minuten en hervat dan met lagere concurrency. Als je regelmatig limieten raakt, heeft je setup proxies nodig of een fundamenteel andere aanpak.

De no-code escape hatch: wanneer een Google Maps-scraper GitHub-repo je tijd niet waard is

Ongeveer 90% van de artikelen over Google Maps-scraping gaat ervan uit dat je Python beheerst. Maar een groot deel van het publiek — bureau-eigenaren, salesmedewerkers, lokale SEO-teams, onderzoekers — heeft gewoon rijen in een spreadsheet nodig. Geen browserautomatiseringsproject. Als jij dat bent, is deze sectie eerlijk over de afwegingen.

De echte prijs van “gratis” GitHub-scrapers

FactorAanpak met GitHub-repoNo-code alternatief (bijv. Thunderbit)
Setup-tijd30–90 min (Python/Docker/proxies)~2 minuten (browser-extensie)
OnderhoudHandmatig (jij fixt breuken)Automatisch (provider onderhoudt)
AanpasbaarheidHoog (volledige toegang tot code)Gemiddeld (AI-geconfigureerde velden)
KostenGratis software, maar tijd + proxiesGratis laag beschikbaar, daarna op credits
SchaalAfhankelijk van je infrastructuurCloudgebaseerde opschaling

“Gratis” GitHub-scrapers schuiven de rekening door naar tijd. Als je jouw tijd op $50/uur waardeert en 2 uur kwijt bent aan setup + 1 uur troubleshooting + 30 minuten proxyconfiguratie, dan ben je $175 kwijt voordat je ook maar één vermelding hebt gescraped. Tel daar proxykosten en doorlopend onderhoud bij op wanneer Google zijn UI wijzigt, en de “gratis” optie wordt ineens duur.

Hoe Thunderbit Google Maps-scraping vereenvoudigt

Dit is de echte workflow met :

  1. Installeer de
  2. Navigeer naar Google Maps en voer je zoekopdracht uit
  3. Klik op “AI Suggest Fields” — Thunderbit’s AI leest de pagina en stelt kolommen voor (bedrijfsnaam, adres, telefoon, beoordeling, website, enz.)
  4. Klik op “Scrape” en de data wordt automatisch gestructureerd
  5. Gebruik subpage scraping om vanaf de gescrapete URL’s naar de website van elk bedrijf te gaan en extra contactgegevens te extraheren (e-mails, telefoonnummers) — waarmee je automatiseert wat GitHub-repo-gebruikers handmatig doen
  6. Exporteer naar — zonder betaalmuur op exports

Geen Python. Geen Docker. Geen proxies. Geen onderhoud. Voor sales- en marketingteams die leadgeneratie doen, haalt dit de hele setup-last weg die GitHub-repos vereisen.

Prijscontext: Thunderbit gebruikt een creditmodel waarbij . De gratis laag dekt 6 pagina’s per maand, de gratis proefperiode 10 pagina’s en het starterplan is .

Na de scrape: je Google Maps-data opschonen en verrijken

De meeste gidsen stoppen bij ruwe extractie. Ruwe data is nog geen leadlijst. Forumgebruikers melden regelmatig en vragen: “Hoe ga je met duplicaten om in deze setup?” Dit gebeurt er ná de scrape.

Je resultaten dedupliceren

Duplicaten sluipen binnen door overlap in paginering, herhaalde zoekopdrachten over overlappende gebieden, grid-/bounding-box-strategieën die dezelfde bedrijven dekken en bedrijven met meerdere vermeldingen.

Beste volgorde voor deduplicatie:

  1. Match op place_id als je scraper dat veld beschikbaar stelt (meest betrouwbaar)
  2. Exacte match op genormaliseerde bedrijfsnaam + adres
  3. Fuzzy matching op naam + adres, bevestigd via telefoon of website

Simpele Excel-/Sheets-formules (COUNTIF, Dubbele waarden verwijderen) vangen de meeste gevallen af. Voor grotere datasets werkt een snel Python-dedupscript met pandas goed.

Telefoonnummers en adressen normaliseren

Gescrapete telefoonnummers komen in elk denkbaar formaat: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. Voor CRM-import normaliseer je alles naar E.164-formaat — dat is + landcode + nationaal nummer, bijvoorbeeld +15551234567.

tijdens het scrapen — één opschoningsstap minder.

Voor adressen: standaardiseer naar een consistent formaat: straat, stad, staat, postcode. Verwijder extra witruimte, corrigeer afkortingsverschillen (St vs Street) en valideer tegen een geocodingservice als nauwkeurigheid belangrijk is.

Verrijken met e-mails, websites en sociale profielen

Google Maps-vermeldingen bevatten bijna altijd een website-URL. Ze bevatten bijna nooit direct een e-mailadres. Het winnende patroon:

  1. Scrape Maps voor bedrijfsontdekking (naam, adres, telefoon, website-URL)
  2. Bezoek de website van elk bedrijf om e-mailadressen, sociale links en andere contactgegevens te extraheren

Hier komen de beste GitHub-repos en no-code tools samen:

  • door bedrijfswebsites te bezoeken
  • kan vanaf de gescrapete URL’s de website van elk bedrijf bezoeken en e-mailadressen en telefoonnummers extraheren — allemaal toegevoegd aan je oorspronkelijke tabel

Voor GitHub-repo-gebruikers zonder ingebouwde enrichment betekent dit: een tweede scraper schrijven of handmatig elke site bezoeken. Thunderbit voegt beide stappen samen in één workflow.

Exporteren naar je CRM of workflowtools

De meest praktische exportbestemmingen:

  • Google Sheets voor gezamenlijke opschoning en delen
  • Airtable voor gestructureerde databases met filters en views
  • Notion voor lichtgewicht operations-databases
  • CSV/JSON voor CRM-import of downstream-automatisering

Thunderbit ondersteunt . De meeste GitHub-repos exporteren alleen naar CSV of JSON — de CRM-koppeling moet je dan apart regelen. Zoek je meer manieren om gescrapete data in spreadsheets te krijgen, bekijk dan onze gids over .

Google Maps-scraper GitHub-repos: de volledige vergelijking naast elkaar

Hier is de samenvattingstabel die je kunt bookmarken en die alle benaderingen dekt:

Tool / repoTypeKostenmodelSetup-tijdProxybeheerOnderhoudExportoptiesWerkt het in 2026?
Google Places APIOfficiële API$7–32 / 1K calls (Pro)LaagNiet nodigLaagJSON / app-integratie
gosom/google-maps-scraperGitHub OSSGratis + proxies + tijdGemiddeldJa, gedocumenteerdHoogCSV, JSON, DB, API⚠️
omkarcloud/google-maps-scraperGitHub verpaktVrijwel gratis, productizedGemiddeldOnduidelijkGemiddeld-hoogApp-output⚠️
gaspa93/googlemaps-scraperGitHub review-scraperGratis + tijdGemiddeldBeperktGemiddeld-hoogCSV⚠️ (niche)
conor-is-my-name/google-maps-scraperGitHub Docker APIGratis + tijdGemiddeldMogelijkHoogJSON / Docker-service⚠️
Zubdata/Google-Maps-ScraperGitHub GUI-appGratis + tijdGemiddeldBeperktHoogApp-output
ThunderbitNo-code extensieCredits / rijenLaagGeabstraheerd (cloud)Laag-middelSheets, Excel, Airtable, Notion, CSV, JSON

Voor meer context over het kiezen tussen scrapingbenaderingen vind je onze roundup van misschien ook nuttig, of onze vergelijking van .

Juridische en ToS-overwegingen

Korte sectie, maar belangrijk.

De huidige Maps Platform-voorwaarden van Google zijn expliciet: klanten mogen Google Maps-content niet inclusief het kopiëren en opslaan van bedrijfsnamen, adressen of gebruikersreviews buiten het toegestane gebruik van de service. De servicespecifieke voorwaarden van Google staan ook slechts beperkte caching toe voor bepaalde API’s, meestal .

De juridische hiërarchie is duidelijk:

  • API-gebruik heeft de duidelijkste contractuele basis
  • GitHub-scrapers opereren in een veel grijs gebied
  • No-code tools verlagen je operationele last, maar halen jouw eigen complianceverplichtingen niet weg

Raadpleeg je eigen juridisch adviseur voor jouw specifieke use case. Voor een dieper kijkje in het juridische landschap hebben we apart behandeld.

Belangrijkste inzichten: de juiste Google Maps-scraper-aanpak kiezen in 2026

Na het doorspitten van repos, issues, fora en prijspagina’s is dit waar de zaken nu staan:

  1. Controleer altijd hoe recent een repo is vóórdat je tijd in setup steekt. Het aantal sterren is geen garantie dat iets vandaag werkt. Lees de drie recentste issues. Zoek naar code-commits in de afgelopen 3–6 maanden.

  2. De beste open-source optie van dit moment is gosom/google-maps-scraper — maar zelfs die laat verse veldregressies uit 2026 zien. Zie het als een levend systeem dat monitoring nodig heeft, niet als een instellen-en-vergeten-tool.

  3. De Google Places API is de juiste keuze voor stabiliteit en juridische duidelijkheid — maar hij is beperkt (maximaal 5 reviews, per-call pricing) en lost bulkontdekking niet goed op.

  4. Voor niet-technische teams zijn no-code tools zoals het praktische alternatief. De kloof tussen setup en eerste data is minuten in plaats van uren, en je schrijft je niet in om parttime scraper-onderhouder te worden.

  5. Ruwe data is maar de helft van het werk. Reserveer tijd voor deduplicatie, normalisatie van telefoonnummers, verrijking met e-mail en export naar CRM. Tools die deze stappen automatisch afhandelen (zoals Thunderbit’s subpage scraping en E.164-normalisatie) besparen meer tijd dan de meeste mensen verwachten.

  6. “Gratis scraper” betekent in de praktijk: software met onbetaald onderhoud eraan vast. Dat is prima als je de skills hebt en het werk leuk vindt. Het is een slechte deal als je een salesmedewerker bent die gewoon voor vrijdag 500 tandartsleads in Phoenix nodig heeft.

Als je meer opties wilt verkennen om bedrijfsdata te extraheren, bekijk dan onze gidsen over , en . Je kunt ook tutorials bekijken op het .

FAQ’s

Is het gratis om een Google Maps-scraper van GitHub te gebruiken?

De software is gratis. Het werk niet. Je investeert 30–90 minuten in setup, doorlopende tijd in het oplossen van breuken en vaak $10–100+/maand aan proxykosten bij serieus volume. Als je tijd waarde heeft, is “gratis” een verkeerde term.

Heb ik Python-skills nodig om een Google Maps-scraper van GitHub te gebruiken?

De meeste populaire repos vereisen basiskennis van Python en de commandoregel. Docker-first repos verlagen de drempel, maar nemen hem niet weg — je moet nog steeds containerproblemen debuggen, zoekparameters configureren en proxies instellen. Voor niet-technische gebruikers bieden no-code tools zoals een alternatief met 2 klikken, zonder code.

Hoe vaak gaan Google Maps-scraper GitHub-repos stuk?

Er is geen vast schema, maar de huidige issuegeschiedenis op GitHub laat zien dat kernbreuken en veldregressies op een cyclus van weken tot maanden verschijnen. Google werkt de Maps-UI regelmatig bij, wat selectors en parslogica ’s nachts kan breken. Actieve repos lossen dat snel op; verlaten repos blijven eindeloos kapot.

Kan ik Google Maps-reviews scrapen met een GitHub-scraper?

Sommige repos ondersteunen volledige review-extractie (gaspa93/googlemaps-scraper is daar specifiek voor gemaakt), terwijl andere alleen samenvattende data ophalen zoals rating en aantal reviews. Reviews zijn ook een van de eerste veldgroepen die afwijken wanneer Google het pagina-gedrag wijzigt — dus zelfs repos die reviews ondersteunen, kunnen na een UI-update onvolledige data teruggeven.

Wat is het beste alternatief als ik geen GitHub-scraper wil gebruiken?

Twee hoofdopties: de Google Places API voor officiële, gestructureerde toegang (met kosten- en veldbeperkingen), of een no-code tool zoals voor snelle, AI-gestuurde extractie zonder code. De API is het beste voor ontwikkelaars die compliancezekerheid nodig hebben. Thunderbit is het beste voor zakelijke gebruikers die snel data in een spreadsheet nodig hebben.

Meer lezen

Inhoudsopgave

Probeer Thunderbit

Scrape leads en andere data in slechts 2 klikken. Aangedreven door AI.

Haal Thunderbit Het is gratis
Extraheer data met AI
Zet data eenvoudig over naar Google Sheets, Airtable of Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week