Det finnes omtrent på GitHub som matcher «google maps scraper». De fleste er ødelagte.
Det høres dramatisk ut, men hvis du har brukt tid på å klone repos, slite med Playwright-avhengigheter og sett scraperen din returnere tomme CSV-filer klokken 02:00, kjenner du nok igjen følelsen. Google Maps har globalt — det er en av de rikeste lokale bedriftsdatabasene i verden. Ikke overraskende vil alle fra selgere til byråeiere hente ut disse dataene. Problemet er at Google endrer Maps-grensesnittet sitt med noen ukers til måneders mellomrom, og hver endring kan stille ødelegge scraperen du nettopp brukte en time på å sette opp. Som en GitHub-bruker skrev i en sak i mars 2026: verktøyet Det er ikke et smalt hjørnetilfelle. Det er selve kjerdeflyten som feiler. Jeg har fulgt disse reposene tett i år, og gapet mellom «ser aktiv ut på GitHub» og «faktisk returnerer data i dag» er større enn de fleste tror. Denne guiden er mitt ærlige forsøk på å skille signal fra støy — hvilke repos som fungerer, hvilke som bryter, når du bør hoppe over GitHub helt, og hva du bør gjøre etter at du har samlet inn dataene.
Hva er en Google Maps Scraper på GitHub, og hvorfor bruker folk dem?
En Google Maps Scraper på GitHub er vanligvis et Python- eller Go-skript (noen ganger pakket i Docker) som åpner Google Maps i en headless nettleser, kjører et søk som «tannleger i Chicago», og henter ut bedriftsoppføringene som vises — navn, adresser, telefonnumre, nettsteder, vurderinger, antall anmeldelser, kategorier, åpningstider og noen ganger bredde-/lengdegrad.
GitHub er standardhjemmet for disse verktøyene fordi koden er gratis, åpen kildekode og i teorien kan tilpasses. Du kan forke et repo, justere søkeparametrene, legge til egen proxy-logikk og eksportere til det formatet du trenger.

De typiske datafeltene folk vil hente ut ser slik ut:
| Felt | Hvor vanlig på tvers av repos |
|---|---|
| Bedriftsnavn | Nesten universelt |
| Adresse | Nesten universelt |
| Telefonnummer | Nesten universelt |
| Nettadresse | Nesten universelt |
| Stjernevurdering | Nesten universelt |
| Antall anmeldelser | Svært vanlig |
| Kategori / type | Vanlig |
| Åpningstider | Vanlig |
| Bredde-/lengdegrad | Vanlig i sterkere repos |
| E-post / sosiale lenker | Bare når scraperen også besøker bedriftens nettsted |
| Fullstendig anmeldelsestekst | Vanlig i spesialiserte anmeldelses-scrapere, mindre pålitelig i bulk-scrapere |
Hvem bruker disse? Salgsteam som bygger outbound-leadlister. Eiendomsmeglere som kartlegger lokale markeder. E-handels팀 som gjør konkurrentanalyse. Markedsførere som kjører lokale SEO-revisjoner. Fellesnevneren: alle trenger strukturerte lokale bedriftsdata, og de vil heller slippe å kopiere dem inn fra en nettleser én oppføring om gangen.
Hvorfor salg- og driftsteam søker etter Google Maps Scraper GitHub-repos
Google Maps er attraktivt av en enkel grunn: det er her lokal bedriftsinformasjon faktisk finnes. Ikke i en nisjekatalog. Ikke bak en betalingsmur. Rett der, i søkeresultatene.
Forretningsverdien kan deles inn i tre hovedområder.
Leadgenerering og prospektering
Dette er den store. En gründer som bygde en Google Maps Scraper for frilansere og byråer ganske direkte: finn leads i bestemte byer og nisjer, samle kontaktinfo for kald outreach, og lag CSV-filer med navn, adresse, telefon, nettsted, vurderinger, antall anmeldelser, kategori, åpningstider, e-poster og sosiale brukernavn. Et av de mest aktive reposene (gosom/google-maps-scraper) forteller faktisk brukerne at de kan be agenten om å Det er ikke et hobbybrukstilfelle — det er en salgspipeline.
Markedsundersøkelser og konkurrentanalyse
Drifts- og strategi-team bruker uttrukne Maps-data til å telle konkurrenter per nabolag, analysere sentiment i anmeldelser og finne hull i markedet. En lokal SEO-praktiker i én enkelt nisje ved å hente offentlige data fra Google Maps. Den typen analyse er nesten umulig å gjøre manuelt i stor skala.
Lokale SEO-revisjoner og katalogbygging
Markedsførere skraper Google Maps for å revidere lokal synlighet, sjekke konsistens i NAP (Name, Address, Phone) og bygge katalognettsteder. En bruker inn i WordPress med WP All Import.
Arbeidsmengden som gjør scraping fristende
Manuell innsamling er ikke gratis bare fordi det skjer i et nettleservindu. Upwork anslår administrative VA-er til . Hvis et menneske bruker 1 minutt per bedrift på å hente basisopplysninger, tar 1 000 bedrifter omtrent 16,7 timer — rundt $200–$334 i lønnskostnader før kvalitetssikring. Ved 2 minutter per bedrift koster samme liste $400–$668. Det er den reelle målestokken enhver «gratis GitHub scraper» konkurrerer mot.
Google Maps API vs. GitHub Scraper-repos vs. no-code-verktøy: et beslutningstre for 2026
Velg retning før du kloner noe som helst. Volum, budsjett, tekniske ferdigheter og toleranse for vedlikehold betyr alt her.
| Kriterium | Google Places API | GitHub Scraper | No-code-verktøy (f.eks. Thunderbit) |
|---|---|---|---|
| Kostnad per 1 000 oppslag | $7–32 (vanlige Pro-kall) | Gratis programvare + proxykostnader + tid | Gratis nivå, deretter kredittbasert |
| Datafelt | Strukturert, begrenset til API-skjemaet | Fleksibelt, avhenger av repo | AI-konfigurert per nettsted |
| Tilgang til anmeldelser | Maks 5 anmeldelser per sted | Fullt, hvis scraperen støtter det | Avhenger av verktøyet |
| Ratelimits | Gratis tak per SKU, deretter betalt | Selvstyrt (avhenger av proxy) | Håndteres av leverandøren |
| Juridisk klarhet | Tydelig lisens | Gråsone (risiko knyttet til vilkår) | Leverandøren håndterer compliance operativt |
| Vedlikehold | Vedlikeholdes av Google | Du vedlikeholder | Leverandøren vedlikeholder |
| Oppsettskompleksitet | API-nøkkel + kode | Python + avhengigheter + proxies | Installer utvidelse, klikk skrap |
Når Google Places API gir mening
For små til mellomstore volumer der du trenger offisiell lisensiering og forutsigbar fakturering, er API-et det åpenbare valget. Googles erstattet den universelle månedlige kreditten med gratisgrenser per SKU: for mange Essentials-SKU-er, 5 000 for Pro og 1 000 for Enterprise. Etter det koster Text Search Pro , og Place Details Enterprise + Atmosphere koster $5 per 1 000.
Den største begrensningen: anmeldelser. API-et returnerer . Hvis du trenger hele anmeldelsesbildet, holder ikke API-et.
Når en GitHub Scraper gir mening
Bulk-oppdagelse basert på nøkkelord + geografi, data som er synlig i nettleseren utover API-feltene, full anmeldelsestekst, egendefinert parsingslogikk — hvis du trenger noe av dette og har Python-/Docker-ferdighetene som trengs for å vedlikeholde en scraper, er GitHub-repos riktig valg. Avveiningen er at «gratis» flytter kostnaden over i tid, proxies, retries og feilretting. Proxykostnader alene kan bli betydelige: , , og .
Når et no-code-verktøy som Thunderbit gir mening
Ikke-teknisk team? Prioriteten er å få data inn i Sheets, Airtable, Notion eller CSV raskt? Et no-code-verktøy hopper over hele Python-/Docker-/proxy-oppsettet. Med installerer du Chrome-utvidelsen, åpner Google Maps, klikker «AI Suggest Fields», deretter «Scrape» — og . Skybasert scraping håndterer anti-bot-beskyttelse automatisk, og uten proxykonfigurasjon.
Den enkle beslutningsflyten: Hvis du trenger <500 bedrifter og har budsjett → API. Hvis du trenger tusenvis og kan Python → GitHub-repo. Hvis du trenger data raskt uten teknisk oppsett → no-code-verktøy.
Friskhetskontrollen for 2026: hvilke Google Maps Scraper GitHub-repos fungerer faktisk i dag?
Dette er delen jeg skulle ønske fantes da jeg begynte å undersøke. De fleste artikler om «beste Google Maps scraper» lister bare opp repos med énlinjes beskrivelser og stjernetall. Ingen sier om tingen faktisk returnerer data denne måneden.
Slik ser du om et Google Maps Scraper GitHub-repo fortsatt er aktivt
Før du kloner noe som helst, kjør denne sjekklisten:
- Nylig kodepush: Se etter en reell commit de siste 3–6 månedene (ikke bare kommentarer i issues).
- Issue-helse: Les de 3 siste oppdaterte issues. Handler de om kjerdefeil (tomme felter, selector-feil, nettleserkrasj) eller funksjonsønsker?
- README-kvalitet: Dokumenterer den nåværende nettleserstakken, Docker-oppsett og proxykonfigurasjon?
- Varselord i issues: Søk etter «search box», «reviews_count = 0», «driver», «Target page», «selector», «empty».
- Aktivitet i forks og PR-er: Aktive forks og flettede PR-er tyder på et levende miljø.
Ingen nylig kodeaktivitet, uløste kjernebugs i scraping og ingen veiledning for proxy eller nettleservedlikehold? Da er repoet sannsynligvis ikke levende nok til forretningsbruk — selv om stjernetallet ser imponerende ut.
Gjennomgang av de beste Google Maps Scraper GitHub-reposene

Jeg evaluerte de mest stjernemerkede reposene basert på metodikken over. Her er oppsummeringstabellen, etterfulgt av individuelle notater.
| Repo | Stjerner | Siste push | Fungerer i 2026? | Håndterer UI-endringer? | Proxy-støtte | Stack |
|---|---|---|---|---|---|---|
| gosom/google-maps-scraper | 3,7k | 2026-04-19 | ⚠️ Kjerneekstraksjon lever; anmeldelsesfeltene er ustabile | Aktivt vedlikehold | Ja, eksplisitt | Go + Playwright |
| omkarcloud/google-maps-scraper | 2,6k | 2026-04-10 | ⚠️ Aktiv app, men krasj-/støtteproblemer | Vedlikeholdes av leverandør | Ikke tydelig dokumentert | Skrivebordsapp / binærfil |
| gaspa93/googlemaps-scraper | 498 | 2026-03-26 | ⚠️ Smal nisje for anmeldelses-scraping | Begrenset bevis | Ingen sterk proxy-historikk | Python |
| conor-is-my-name/google-maps-scraper | 284 | 2026-04-14 | ⚠️ Lovende Docker-flyt, men marsbrudd i selector | Noe bevis på fiksing | Docker-basert, proxy uklart | Python + Docker |
| Zubdata/Google-Maps-Scraper | 120 | 2025-01-19 | ❌ For mange gamle/nullfelt-problemer | Lite bevis | Ikke vektlagt | Python GUI |
| patxijuaristi/google_maps_scraper | 113 | 2025-02-24 | ❌ Lavt signal, gammelt Chrome-driver-problem | Lite bevis | Ingen sterk dokumentasjon | Python |
gosom/google-maps-scraper
Akkurat nå det sterkeste åpen kildekode-alternativet for generell bruk. README-en er uvanlig moden: CLI, nettgrensesnitt, REST API, Docker-instruksjoner, proxykonfigurasjon, grid-/bounding-box-modus, e-postekstraksjon og flere eksportmål. Den hevder og dokumenterer eksplisitt proxies fordi «for larger scraping jobs, proxies help avoid rate limiting.»
Ulempen er ikke at prosjektet er forlatt — det er at nøyaktigheten sklir på kantfeltene. Nye issues fra 2026 viser , , og . Så den er troverdig for uttrekk av bedriftsoppføringer, men svakere på rike anmeldelses- og åpningstidsdata inntil det fikses.
omkarcloud/google-maps-scraper
Svært synlig på grunn av stjernetallet og lang fartstid, men leses mindre som transparent åpen kildekode og mer som et pakket extractor-produkt — supportkanaler, desktopinstallere, upsell på berikelse. En bruker i april 2026 skrev at appen startet og deretter fylte terminalen med før den frøs. Et annet åpent issue klager på at verktøyet er Ikke dødt, men heller ikke det ryddigste valget for lesere som vil ha inspeksjonsbar åpen kildekode de trygt kan rette selv.
gaspa93/googlemaps-scraper
Ikke en generell leadgenererings-scraper for bulk-søk. Det er en fokusert som starter fra en spesifikk Google Maps POI-anmeldelses-URL og henter nylige anmeldelser, med støtte for metadatauttrekk og sortering av anmeldelser. Det smalere omfanget er faktisk en styrke for enkelte arbeidsflyter — men det løser ikke hovedproblemet de fleste bedriftsbrukere tenker på: å oppdage nye steder.
conor-is-my-name/google-maps-scraper
Riktig tankesett for moderne driftsteam: Docker-først installasjon, JSON API, forretningsvennlige felt og synlighet i . Men mars 2026-saken er et perfekt eksempel på hvorfor denne kategorien er skjør: en bruker oppdaterte containeren, og outputen sa at scraperen Det er en feil i kjerdeflyten, ikke et kosmetisk hjørnetilfelle.
Zubdata/Google-Maps-Scraper
På papiret er feltene mange: e-post, anmeldelser, vurderinger, adresse, nettsted, telefon, kategori, åpningstider. I praksis forteller den offentlige issues-flaten en annen historie: brukere rapporterer , og . Kombinert med den eldre push-historikken er det vanskelig å anbefale den for bruk i 2026.
patxijuaristi/google_maps_scraper
Enkel å finne i GitHub-søk, men det sterkeste offentlige signalet er et snarere enn aktivt vedlikehold. Den hører mest hjemme i denne artikkelen som et eksempel på hva «ser levende ut i søk, men er risikabelt i praksis» betyr.
Steg for steg: Sette opp en Google Maps Scraper fra GitHub
Har du bestemt at et GitHub-repo er riktig vei? Slik ser oppsettet faktisk ut. Jeg holder dette generelt heller enn repospesifikt — stegene er overraskende like på tvers av de aktive alternativene.
Steg 1: Klon repositoriet og installer avhengigheter
Den vanlige veien:
git clonerepoet- Opprett et Python-virtuelt miljø (eller hent et Docker-image)
- Installer avhengigheter via
pip install -r requirements.txtellerdocker-compose up - Noen ganger må du også installere en nettleser-runtime (Chromium for Playwright, ChromeDriver for Selenium)
Docker-først-repos som og reduserer avhengighetsproblemer, men fjerner dem ikke — du må fortsatt ha Docker kjørende og nok diskplass til nettleserimage-ene.
Steg 2: Konfigurer søkeparametrene dine
De fleste generelle scrapere vil ha:
- Nøkkelord + sted (f.eks. «rørleggere i Austin TX»)
- Resultatgrense (hvor mange oppføringer som skal hentes)
- Output-format (CSV, JSON, database)
- Noen ganger geografiske bounding boxes eller radius for grid-basert oppdagelse
De sterkere reposene eksponerer dette som CLI-flagg eller JSON-forespørselskropper. Eldre repos kan kreve at du redigerer en Python-fil direkte.
Steg 3: Sett opp proxies, hvis nødvendig
Noe utover en liten testkjøring? Da vil du ha proxies. og beskriver eksplisitt proxies som standardløsningen for større jobber. Uten dem må du regne med CAPTCHA-er eller IP-blokkering etter noen dusin forespørsler.
Steg 4: Kjør scraperen og eksporter dataene dine
Kjør skriptet, se nettleseren navigere gjennom resultatkortene, og vent på CSV- eller JSON-output. Den lykkelige veien tar minutter. Den ulykkelige veien — som er vanligere enn noen innrømmer — innebærer:
- Nettleseren lukkes uventet
- Chrome driver-versjon matcher ikke
- Selector-/søkefeltfeil
- Anmeldelsestall eller åpningstider kommer tilbake tomme
Alle fire mønstrene dukker opp i .
Steg 5: Håndter feil og brudd
Når scraperen returnerer tomme resultater eller feil:
- Sjekk repoets GitHub Issues for lignende rapporter
- Se etter UI-endringer i Google Maps (nye selectors, annerledes sidestruktur)
- Oppdater repoet til siste commit
- Hvis vedlikeholderen ikke har fikset det, sjekk forks for community-patcher
- Vurder om tiden du bruker på feilsøking er verdt det sammenlignet med å bytte verktøy
Realistisk oppsettstid første gang: For noen som er komfortable med terminaler, men ikke allerede har et fungerende Playwright-/Docker-/proxy-oppsett, er 30–90 minutter til første vellykkede scraping et realistisk spenn. Ikke fem minutter.
Slik unngår du bannlysning og rate limits når du scraper Google Maps
Det finnes ingen offentlig Google Maps-grense som sier «du blir blokkert ved X forespørsler». Google holder det bevisst uklart. Noen brukere rapporterer CAPTCHA-er etter omtrent på serverbaserte Playwright-oppsett. En annen bruker hevdet for en Maps-scraper bygget for et selskap. Tersklene er verken høye eller lave. De er ustabile og kontekstavhengige.
Her er en praktisk strategitabell:
| Strategi | Vanskelighetsgrad | Effektivitet | Kostnad |
|---|---|---|---|
| Tilfeldige forsinkelser (2–5 s mellom forespørsler) | Enkel | Middels | Gratis |
| Lavere samtidighet (færre parallelle økter) | Enkel | Middels | Gratis |
| Rotasjon av residential-proxies | Middels | Høy | $1–6/GB |
| Datacenter-proxies (for enkle mål) | Middels | Middels | $0.02–0.6/GB |
| Fingeravtrykksrandomisering i headless-nettleser | Vanskelig | Høy | Gratis |
| Nettleser-persistens / oppvarmede økter | Middels | Middels | Gratis |
| Skybasert scraping (flytt problemet ut) | Enkel | Høy | Varierer |
Legg inn tilfeldige forsinkelser mellom forespørsler
Faste intervaller på 1 sekund er et rødt flagg. Bruk tilfeldig jitter — 2 til 5 sekunder mellom handlinger, med av og til lengre pauser. Det enkleste du kan gjøre, og det koster ingenting.
Roter proxies (residential vs. datacenter)
Residential-proxies er mer effektive fordi de ser ut som ekte brukere, men de er dyrere. Nåværende priser: , , . Datacenter-proxies fungerer for lettere scraping, men blir raskere flagget på Google-tjenester.
Randomiser nettleserfingeravtrykk
For headless-browser-scrapere: roter user agents, viewport-størrelser og andre fingerprint-signaler. Standardkonfigurasjoner i Playwright/Puppeteer er trivielt detekterbare. Dette er vanskeligere å implementere, men gratis og svært effektivt.
Bruk skybasert scraping for å flytte problemet ut
Verktøy som håndterer anti-bot-beskyttelse, IP-rotasjon og rate limiting automatisk gjennom skybasert scraping-infrastruktur. Thunderbit i sky-modus — ingen proxyoppsett eller forsinkelseskonfigurasjon er nødvendig. For team som ikke vil bli deltids anti-bot-ingeniører, er dette den mest praktiske veien.
Hvordan Googles rate limit-terskler faktisk ser ut
Tegn på at du blir rate-limited:
- CAPTCHA-er dukker opp midt i scraping
- Tomme resultatsett etter tidligere vellykkede søk
- Midlertidige IP-blokker (vanligvis 1–24 timer)
- Tregere sideinnlasting (langsommere, delvis innhold)
Gjenoppretting: stopp scraping, roter IP-er, vent 15–60 minutter, og fortsett deretter med lavere samtidighet. Hvis du treffer grensene regelmessig, trenger oppsettet ditt proxies eller en grunnleggende annen tilnærming.
No-code-utveien: når et Google Maps Scraper GitHub-repo ikke er verdt tiden din
Omtrent 90 % av artikler om Google Maps-scraping antar at du kan Python. Men en stor del av publikum — byråeiere, selgere, lokale SEO-team, forskere — trenger bare rader i et regneark. Ikke et prosjekt for nettleserautomatisering. Hvis det er deg, er denne delen ærlig om avveiningene.
Den reelle kostnaden av «gratis» GitHub-scrapere
| Faktor | GitHub-repo-tilnærming | No-code-alternativ (f.eks. Thunderbit) |
|---|---|---|
| Oppsettstid | 30–90 min (Python/Docker/proxies) | ~2 minutter (nettleserutvidelse) |
| Vedlikehold | Manuelt (du fikser brudd) | Automatisk (leverandøren vedlikeholder) |
| Tilpasning | Høy (full tilgang til kode) | Moderat (AI-konfigurerte felt) |
| Kostnad | Gratis programvare, men tid + proxies | Gratis nivå tilgjengelig, deretter kredittbasert |
| Skala | Avhenger av infrastrukturen din | Skybasert skalering |
«Gratis» GitHub-scrapere flytter regningen over i tid. Hvis du verdsetter tiden din til $50/t og bruker 2 timer på oppsett + 1 time på feilsøking + 30 minutter på proxykonfigurasjon, er du på $175 før du har skrapet én eneste oppføring. Legg til proxykostnader og løpende vedlikehold når Google endrer UI-et sitt, og «gratis»-alternativet begynner å se dyrt ut.
Slik forenkler Thunderbit Google Maps-scraping
Slik ser den faktiske arbeidsflyten ut med :
- Installer
- Gå til Google Maps og kjør søket ditt
- Klikk «AI Suggest Fields» — Thunderbits AI leser siden og foreslår kolonner (bedriftsnavn, adresse, telefon, vurdering, nettsted osv.)
- Klikk «Scrape», og dataene struktureres automatisk
- Bruk undersidescraping for å besøke hvert bedriftsnettsted fra de uttrukne URL-ene og hente ytterligere kontaktinfo (e-poster, telefonnumre) — og automatiser det GitHub-repo-brukere gjør manuelt
- Eksporter til — ingen betalingsmur på eksport
Ingen Python. Ingen Docker. Ingen proxies. Ingen vedlikehold. For salg- og markedsføringsteam som gjør leadgenerering, fjerner dette hele oppsettbyrden GitHub-repos krever.
Priskontekst: Thunderbit bruker en kredittmodell der . Gratisnivået dekker 6 sider per måned, gratisprøven dekker 10 sider, og startplanen er .
Etter scraping: rydding og berikelse av Google Maps-dataene dine
De fleste guider stopper ved rå uttrekk. Rådata er ikke en leadliste. Brukere på forum rapporterer jevnlig og spør «How do you handle duplicates with this setup?» Slik ser det ut etter scraping.
Fjerne duplikater i resultatene
Duplikater kommer inn via overlapp i paginering, gjentatte søk over overlappende områder, grid-/bounding-box-strategier som dekker de samme bedriftene, og bedrifter med flere oppføringer.
Beste rekkefølge for deduplisering:
- Match på place_id hvis scraperen eksponerer det (mest pålitelig)
- Eksakt match på normalisert bedriftsnavn + adresse
- Fuzzy matching på navn + adresse, bekreftet av telefon eller nettsted
Enkle Excel-/Sheets-formler (COUNTIF, Fjern duplikater) håndterer de fleste tilfeller. For større datasett fungerer et raskt Python-dedupliseringsskript med pandas godt.
Normalisere telefonnumre og adresser
Uttrukne telefonnumre kommer i alle mulige formater: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. For CRM-import bør alt normaliseres til E.164-format — altså + landskode + nasjonalt nummer, for eksempel +15551234567.
under scraping — ett ryddepunkt mindre.
For adresser bør du standardisere til et konsistent format: gate, by, delstat/fylke, postnummer. Fjern ekstra mellomrom, rett opp i forkortelser (St vs Street), og valider mot en geokodingstjeneste hvis nøyaktighet er viktig.
Berike med e-poster, nettsteder og sosiale profiler
Google Maps-oppføringer inkluderer nesten alltid en nettadresse. De inkluderer nesten aldri en e-postadresse direkte. Vinneroppskriften er:
- Skrap Maps for å oppdage bedrifter (navn, adresse, telefon, nettadresse)
- Besøk hvert bedriftsnettsted for å hente e-postadresser, sosiale lenker og annen kontaktinfo
Det er her de beste GitHub-reposene og no-code-verktøyene møtes:
- ved å besøke bedriftsnettsteder
- kan besøke hvert bedriftsnettsted fra de uttrukne URL-ene og hente e-postadresser og telefonnumre — alt lagt til i den opprinnelige tabellen
For GitHub-repo-brukere uten innebygd berikelse betyr dette å skrive en ny scraper eller besøke hvert nettsted manuelt. Thunderbit slår sammen begge trinnene til én arbeidsflyt.
Eksport til CRM eller arbeidsflytverktøy
De mest praktiske eksportmålene:
- Google Sheets for samarbeid om rydding og deling
- Airtable for strukturerte databaser med filtrering og visninger
- Notion for lettvekts driftsdatabaser
- CSV/JSON for CRM-import eller videre automatisering
Thunderbit støtter . De fleste GitHub-repos eksporterer bare til CSV eller JSON — du må håndtere CRM-integrasjonen separat. Hvis du vil ha flere måter å få skrapede data inn i regneark på, se guiden vår om .
Google Maps Scraper GitHub-repos: full sammenligning side om side
Her er den bokmerkbare oppsummeringstabellen som dekker alle tilnærmingene:
| Verktøy / repo | Type | Kostnadsmodell | Oppsettstid | Proxyhåndtering | Vedlikehold | Eksportalternativer | Fungerer i 2026? |
|---|---|---|---|---|---|---|---|
| Google Places API | Offisiell API | $7–32 / 1K kall (Pro) | Lav | Ikke nødvendig | Lav | JSON / app-integrasjon | ✅ |
| gosom/google-maps-scraper | GitHub OSS | Gratis + proxies + tid | Middels | Ja, dokumentert | Høy | CSV, JSON, DB, API | ⚠️ |
| omkarcloud/google-maps-scraper | GitHub-pakket | Nesten gratis, produktifisert | Middels | Uklart | Middels-høy | App-output | ⚠️ |
| gaspa93/googlemaps-scraper | GitHub-anmeldelses-scraper | Gratis + tid | Middels | Begrenset | Middels-høy | CSV | ⚠️ (nisje) |
| conor-is-my-name/google-maps-scraper | GitHub Docker API | Gratis + tid | Middels | Mulig | Høy | JSON / Docker-tjeneste | ⚠️ |
| Zubdata/Google-Maps-Scraper | GitHub GUI-app | Gratis + tid | Middels | Begrenset | Høy | App-output | ❌ |
| Thunderbit | No-code-utvidelse | Kreditter / rader | Lav | Abstrahert (sky) | Lav-middels | Sheets, Excel, Airtable, Notion, CSV, JSON | ✅ |
For mer kontekst om å velge mellom scraping-metoder, kan du også ha nytte av vår oppsummering av , eller sammenligningen vår av .
Juridiske forhold og vilkår for bruk
Kort seksjon, men viktig.
Googles nåværende Maps Platform-vilkår er tydelige: kunder får ikke inkludert å kopiere og lagre bedriftsnavn, adresser eller brukeranmeldelser utenfor tillatt tjenestebruk. Googles tjenestespesifikke vilkår tillater også bare begrenset caching for visse API-er, vanligvis .
Den juridiske hierarkien er tydelig:
- API-bruk har det klareste kontraktsmessige grunnlaget
- GitHub-scrapere opererer i et langt mer uklart landskap
- No-code-verktøy reduserer den operasjonelle byrden, men fjerner ikke dine egne compliance-forpliktelser
Rådfør deg med egen jurist for din konkrete bruk. For en dypere gjennomgang av det juridiske landskapet har vi dekket separat.
Viktige konklusjoner: Slik velger du riktig Google Maps Scraper-tilnærming i 2026
Etter å ha gått gjennom repos, issues, forum og prissider, ser bildet slik ut:
-
Sjekk alltid friskheten til repoet før du bruker tid på oppsett. Stjernetall er ikke et mål på om noe fungerer i dag. Les de tre nyeste issues. Se etter kodecommits de siste 3–6 månedene.
-
Det beste nåværende åpen kildekode-alternativet er gosom/google-maps-scraper — men selv det viser ferske feltregresjoner i 2026. Se på det som et levende system som må overvåkes, ikke et verktøy du setter opp én gang og glemmer.
-
Google Places API er riktig svar for stabilitet og juridisk klarhet — men det er begrenset (maks 5 anmeldelser, pris per kall) og løser ikke bulk-oppdagelse særlig godt.
-
For ikke-tekniske team er no-code-verktøy som det praktiske alternativet. Tiden fra oppsett til første data er minutter i stedet for timer, og du binder deg ikke til å bli deltids vedlikeholder av en scraper.
-
Rådata er bare halvparten av jobben. Sett av tid til deduplisering, normalisering av telefonnumre, beriking av e-poster og eksport til CRM. Verktøy som håndterer disse trinnene automatisk (som Thunderbits undersidescraping og E.164-normalisering) sparer mer tid enn de fleste tror.
-
«Gratis scraper» bør forstås som programvare med ubetalt vedlikehold på slep. Det er helt greit hvis du har ferdighetene og liker arbeidet. Det er en dårlig deal hvis du er en selger som bare trenger 500 tannlegeleads i Phoenix innen fredag.
Hvis du vil utforske flere alternativer for å hente ut bedriftsdata, se guidene våre om , og . Du kan også se veiledninger på .
Vanlige spørsmål
Er det gratis å bruke en Google Maps Scraper fra GitHub?
Programvaren er gratis. Jobben er ikke det. Du vil bruke 30–90 minutter på oppsett, fortløpende tid på å feilsøke brudd, og ofte $10–100+/måned i proxykostnader for seriøst volum. Hvis tiden din har verdi, er «gratis» en feilbeskrivelse.
Trenger jeg Python-ferdigheter for å bruke en Google Maps Scraper fra GitHub?
De fleste populære repoer krever grunnleggende Python- og kommandolinjekunnskap. Docker-først-repos reduserer byrden, men fjerner den ikke — du må fortsatt feilsøke containerproblemer, konfigurere søkeparametere og håndtere proxyoppsett. For ikke-tekniske brukere tilbyr no-code-verktøy som et alternativ med 2 klikk og ingen koding.
Hvor ofte bryter Google Maps Scraper GitHub-repos?
Det finnes ingen fast tidsplan, men nåværende issue-historikk på GitHub viser at kjernebryting og feltregresjoner dukker opp på en uker-til-måneder-syklus. Google oppdaterer Maps-grensesnittet regelmessig, noe som kan ødelegge selectors og parsingslogikk over natten. Aktive repos fikser dette raskt; forlatte repos forblir ødelagte.
Kan jeg skrape Google Maps-anmeldelser med en GitHub-scraper?
Noen repos støtter full anmeldelsesekstraksjon (gaspa93/googlemaps-scraper er laget spesifikt for dette), mens andre bare henter oppsummeringsdata som vurdering og antall anmeldelser. Anmeldelser er også en av de første felttypene som endrer seg når Google justerer sideoppførselen — så selv repos som støtter anmeldelser kan returnere ufullstendige data etter en UI-oppdatering.
Hva er det beste alternativet hvis jeg ikke vil bruke en GitHub-scraper?
To hovedveier: Google Places API for offisiell, strukturert tilgang (med kostnads- og feltbegrensninger), eller et no-code-verktøy som for rask, AI-drevet utvinning uten koding. API-et er best for utviklere som trenger compliance-sikkerhet. Thunderbit er best for forretningsbrukere som trenger data i et regneark raskt.
Les mer