Google Maps Scraper GitHub: Hva som fungerer, og hva som bryter i 2026

Sist oppdatert April 22, 2026

Det finnes omtrent på GitHub som matcher «google maps scraper». De fleste er ødelagte.

Det høres dramatisk ut, men hvis du har brukt tid på å klone repos, slite med Playwright-avhengigheter og sett scraperen din returnere tomme CSV-filer klokken 02:00, kjenner du nok igjen følelsen. Google Maps har globalt — det er en av de rikeste lokale bedriftsdatabasene i verden. Ikke overraskende vil alle fra selgere til byråeiere hente ut disse dataene. Problemet er at Google endrer Maps-grensesnittet sitt med noen ukers til måneders mellomrom, og hver endring kan stille ødelegge scraperen du nettopp brukte en time på å sette opp. Som en GitHub-bruker skrev i en sak i mars 2026: verktøyet Det er ikke et smalt hjørnetilfelle. Det er selve kjerdeflyten som feiler. Jeg har fulgt disse reposene tett i år, og gapet mellom «ser aktiv ut på GitHub» og «faktisk returnerer data i dag» er større enn de fleste tror. Denne guiden er mitt ærlige forsøk på å skille signal fra støy — hvilke repos som fungerer, hvilke som bryter, når du bør hoppe over GitHub helt, og hva du bør gjøre etter at du har samlet inn dataene.

Hva er en Google Maps Scraper på GitHub, og hvorfor bruker folk dem?

En Google Maps Scraper på GitHub er vanligvis et Python- eller Go-skript (noen ganger pakket i Docker) som åpner Google Maps i en headless nettleser, kjører et søk som «tannleger i Chicago», og henter ut bedriftsoppføringene som vises — navn, adresser, telefonnumre, nettsteder, vurderinger, antall anmeldelser, kategorier, åpningstider og noen ganger bredde-/lengdegrad.

GitHub er standardhjemmet for disse verktøyene fordi koden er gratis, åpen kildekode og i teorien kan tilpasses. Du kan forke et repo, justere søkeparametrene, legge til egen proxy-logikk og eksportere til det formatet du trenger. Gemini_Generated_Image_i0rxr6i0rxr6i0rx_compressed.webp

De typiske datafeltene folk vil hente ut ser slik ut:

FeltHvor vanlig på tvers av repos
BedriftsnavnNesten universelt
AdresseNesten universelt
TelefonnummerNesten universelt
NettadresseNesten universelt
StjernevurderingNesten universelt
Antall anmeldelserSvært vanlig
Kategori / typeVanlig
ÅpningstiderVanlig
Bredde-/lengdegradVanlig i sterkere repos
E-post / sosiale lenkerBare når scraperen også besøker bedriftens nettsted
Fullstendig anmeldelsestekstVanlig i spesialiserte anmeldelses-scrapere, mindre pålitelig i bulk-scrapere

Hvem bruker disse? Salgsteam som bygger outbound-leadlister. Eiendomsmeglere som kartlegger lokale markeder. E-handels팀 som gjør konkurrentanalyse. Markedsførere som kjører lokale SEO-revisjoner. Fellesnevneren: alle trenger strukturerte lokale bedriftsdata, og de vil heller slippe å kopiere dem inn fra en nettleser én oppføring om gangen.

Hvorfor salg- og driftsteam søker etter Google Maps Scraper GitHub-repos

Google Maps er attraktivt av en enkel grunn: det er her lokal bedriftsinformasjon faktisk finnes. Ikke i en nisjekatalog. Ikke bak en betalingsmur. Rett der, i søkeresultatene.

Forretningsverdien kan deles inn i tre hovedområder.

Leadgenerering og prospektering

Dette er den store. En gründer som bygde en Google Maps Scraper for frilansere og byråer ganske direkte: finn leads i bestemte byer og nisjer, samle kontaktinfo for kald outreach, og lag CSV-filer med navn, adresse, telefon, nettsted, vurderinger, antall anmeldelser, kategori, åpningstider, e-poster og sosiale brukernavn. Et av de mest aktive reposene (gosom/google-maps-scraper) forteller faktisk brukerne at de kan be agenten om å Det er ikke et hobbybrukstilfelle — det er en salgspipeline.

Markedsundersøkelser og konkurrentanalyse

Drifts- og strategi-team bruker uttrukne Maps-data til å telle konkurrenter per nabolag, analysere sentiment i anmeldelser og finne hull i markedet. En lokal SEO-praktiker i én enkelt nisje ved å hente offentlige data fra Google Maps. Den typen analyse er nesten umulig å gjøre manuelt i stor skala.

Lokale SEO-revisjoner og katalogbygging

Markedsførere skraper Google Maps for å revidere lokal synlighet, sjekke konsistens i NAP (Name, Address, Phone) og bygge katalognettsteder. En bruker inn i WordPress med WP All Import.

Arbeidsmengden som gjør scraping fristende

Manuell innsamling er ikke gratis bare fordi det skjer i et nettleservindu. Upwork anslår administrative VA-er til . Hvis et menneske bruker 1 minutt per bedrift på å hente basisopplysninger, tar 1 000 bedrifter omtrent 16,7 timer — rundt $200–$334 i lønnskostnader før kvalitetssikring. Ved 2 minutter per bedrift koster samme liste $400–$668. Det er den reelle målestokken enhver «gratis GitHub scraper» konkurrerer mot.

Google Maps API vs. GitHub Scraper-repos vs. no-code-verktøy: et beslutningstre for 2026

Velg retning før du kloner noe som helst. Volum, budsjett, tekniske ferdigheter og toleranse for vedlikehold betyr alt her.

KriteriumGoogle Places APIGitHub ScraperNo-code-verktøy (f.eks. Thunderbit)
Kostnad per 1 000 oppslag$7–32 (vanlige Pro-kall)Gratis programvare + proxykostnader + tidGratis nivå, deretter kredittbasert
DatafeltStrukturert, begrenset til API-skjemaetFleksibelt, avhenger av repoAI-konfigurert per nettsted
Tilgang til anmeldelserMaks 5 anmeldelser per stedFullt, hvis scraperen støtter detAvhenger av verktøyet
RatelimitsGratis tak per SKU, deretter betaltSelvstyrt (avhenger av proxy)Håndteres av leverandøren
Juridisk klarhetTydelig lisensGråsone (risiko knyttet til vilkår)Leverandøren håndterer compliance operativt
VedlikeholdVedlikeholdes av GoogleDu vedlikeholderLeverandøren vedlikeholder
OppsettskompleksitetAPI-nøkkel + kodePython + avhengigheter + proxiesInstaller utvidelse, klikk skrap

Når Google Places API gir mening

For små til mellomstore volumer der du trenger offisiell lisensiering og forutsigbar fakturering, er API-et det åpenbare valget. Googles erstattet den universelle månedlige kreditten med gratisgrenser per SKU: for mange Essentials-SKU-er, 5 000 for Pro og 1 000 for Enterprise. Etter det koster Text Search Pro , og Place Details Enterprise + Atmosphere koster $5 per 1 000.

Den største begrensningen: anmeldelser. API-et returnerer . Hvis du trenger hele anmeldelsesbildet, holder ikke API-et.

Når en GitHub Scraper gir mening

Bulk-oppdagelse basert på nøkkelord + geografi, data som er synlig i nettleseren utover API-feltene, full anmeldelsestekst, egendefinert parsingslogikk — hvis du trenger noe av dette og har Python-/Docker-ferdighetene som trengs for å vedlikeholde en scraper, er GitHub-repos riktig valg. Avveiningen er at «gratis» flytter kostnaden over i tid, proxies, retries og feilretting. Proxykostnader alene kan bli betydelige: , , og .

Når et no-code-verktøy som Thunderbit gir mening

Ikke-teknisk team? Prioriteten er å få data inn i Sheets, Airtable, Notion eller CSV raskt? Et no-code-verktøy hopper over hele Python-/Docker-/proxy-oppsettet. Med installerer du Chrome-utvidelsen, åpner Google Maps, klikker «AI Suggest Fields», deretter «Scrape» — og . Skybasert scraping håndterer anti-bot-beskyttelse automatisk, og uten proxykonfigurasjon.

Den enkle beslutningsflyten: Hvis du trenger <500 bedrifter og har budsjett → API. Hvis du trenger tusenvis og kan Python → GitHub-repo. Hvis du trenger data raskt uten teknisk oppsett → no-code-verktøy.

Friskhetskontrollen for 2026: hvilke Google Maps Scraper GitHub-repos fungerer faktisk i dag?

Dette er delen jeg skulle ønske fantes da jeg begynte å undersøke. De fleste artikler om «beste Google Maps scraper» lister bare opp repos med énlinjes beskrivelser og stjernetall. Ingen sier om tingen faktisk returnerer data denne måneden.

Slik ser du om et Google Maps Scraper GitHub-repo fortsatt er aktivt

Før du kloner noe som helst, kjør denne sjekklisten:

  • Nylig kodepush: Se etter en reell commit de siste 3–6 månedene (ikke bare kommentarer i issues).
  • Issue-helse: Les de 3 siste oppdaterte issues. Handler de om kjerdefeil (tomme felter, selector-feil, nettleserkrasj) eller funksjonsønsker?
  • README-kvalitet: Dokumenterer den nåværende nettleserstakken, Docker-oppsett og proxykonfigurasjon?
  • Varselord i issues: Søk etter «search box», «reviews_count = 0», «driver», «Target page», «selector», «empty».
  • Aktivitet i forks og PR-er: Aktive forks og flettede PR-er tyder på et levende miljø.

Ingen nylig kodeaktivitet, uløste kjernebugs i scraping og ingen veiledning for proxy eller nettleservedlikehold? Da er repoet sannsynligvis ikke levende nok til forretningsbruk — selv om stjernetallet ser imponerende ut.

Gjennomgang av de beste Google Maps Scraper GitHub-reposene

github-google-maps-scrapers-evaluation.webp

Jeg evaluerte de mest stjernemerkede reposene basert på metodikken over. Her er oppsummeringstabellen, etterfulgt av individuelle notater.

RepoStjernerSiste pushFungerer i 2026?Håndterer UI-endringer?Proxy-støtteStack
gosom/google-maps-scraper3,7k2026-04-19⚠️ Kjerneekstraksjon lever; anmeldelsesfeltene er ustabileAktivt vedlikeholdJa, eksplisittGo + Playwright
omkarcloud/google-maps-scraper2,6k2026-04-10⚠️ Aktiv app, men krasj-/støtteproblemerVedlikeholdes av leverandørIkke tydelig dokumentertSkrivebordsapp / binærfil
gaspa93/googlemaps-scraper4982026-03-26⚠️ Smal nisje for anmeldelses-scrapingBegrenset bevisIngen sterk proxy-historikkPython
conor-is-my-name/google-maps-scraper2842026-04-14⚠️ Lovende Docker-flyt, men marsbrudd i selectorNoe bevis på fiksingDocker-basert, proxy uklartPython + Docker
Zubdata/Google-Maps-Scraper1202025-01-19❌ For mange gamle/nullfelt-problemerLite bevisIkke vektlagtPython GUI
patxijuaristi/google_maps_scraper1132025-02-24❌ Lavt signal, gammelt Chrome-driver-problemLite bevisIngen sterk dokumentasjonPython

gosom/google-maps-scraper

Akkurat nå det sterkeste åpen kildekode-alternativet for generell bruk. README-en er uvanlig moden: CLI, nettgrensesnitt, REST API, Docker-instruksjoner, proxykonfigurasjon, grid-/bounding-box-modus, e-postekstraksjon og flere eksportmål. Den hevder og dokumenterer eksplisitt proxies fordi «for larger scraping jobs, proxies help avoid rate limiting.»

Ulempen er ikke at prosjektet er forlatt — det er at nøyaktigheten sklir på kantfeltene. Nye issues fra 2026 viser , , og . Så den er troverdig for uttrekk av bedriftsoppføringer, men svakere på rike anmeldelses- og åpningstidsdata inntil det fikses.

omkarcloud/google-maps-scraper

Svært synlig på grunn av stjernetallet og lang fartstid, men leses mindre som transparent åpen kildekode og mer som et pakket extractor-produkt — supportkanaler, desktopinstallere, upsell på berikelse. En bruker i april 2026 skrev at appen startet og deretter fylte terminalen med før den frøs. Et annet åpent issue klager på at verktøyet er Ikke dødt, men heller ikke det ryddigste valget for lesere som vil ha inspeksjonsbar åpen kildekode de trygt kan rette selv.

gaspa93/googlemaps-scraper

Ikke en generell leadgenererings-scraper for bulk-søk. Det er en fokusert som starter fra en spesifikk Google Maps POI-anmeldelses-URL og henter nylige anmeldelser, med støtte for metadatauttrekk og sortering av anmeldelser. Det smalere omfanget er faktisk en styrke for enkelte arbeidsflyter — men det løser ikke hovedproblemet de fleste bedriftsbrukere tenker på: å oppdage nye steder.

conor-is-my-name/google-maps-scraper

Riktig tankesett for moderne driftsteam: Docker-først installasjon, JSON API, forretningsvennlige felt og synlighet i . Men mars 2026-saken er et perfekt eksempel på hvorfor denne kategorien er skjør: en bruker oppdaterte containeren, og outputen sa at scraperen Det er en feil i kjerdeflyten, ikke et kosmetisk hjørnetilfelle.

Zubdata/Google-Maps-Scraper

På papiret er feltene mange: e-post, anmeldelser, vurderinger, adresse, nettsted, telefon, kategori, åpningstider. I praksis forteller den offentlige issues-flaten en annen historie: brukere rapporterer , og . Kombinert med den eldre push-historikken er det vanskelig å anbefale den for bruk i 2026.

patxijuaristi/google_maps_scraper

Enkel å finne i GitHub-søk, men det sterkeste offentlige signalet er et snarere enn aktivt vedlikehold. Den hører mest hjemme i denne artikkelen som et eksempel på hva «ser levende ut i søk, men er risikabelt i praksis» betyr.

Steg for steg: Sette opp en Google Maps Scraper fra GitHub

Har du bestemt at et GitHub-repo er riktig vei? Slik ser oppsettet faktisk ut. Jeg holder dette generelt heller enn repospesifikt — stegene er overraskende like på tvers av de aktive alternativene.

Steg 1: Klon repositoriet og installer avhengigheter

Den vanlige veien:

  1. git clone repoet
  2. Opprett et Python-virtuelt miljø (eller hent et Docker-image)
  3. Installer avhengigheter via pip install -r requirements.txt eller docker-compose up
  4. Noen ganger må du også installere en nettleser-runtime (Chromium for Playwright, ChromeDriver for Selenium)

Docker-først-repos som og reduserer avhengighetsproblemer, men fjerner dem ikke — du må fortsatt ha Docker kjørende og nok diskplass til nettleserimage-ene.

Steg 2: Konfigurer søkeparametrene dine

De fleste generelle scrapere vil ha:

  • Nøkkelord + sted (f.eks. «rørleggere i Austin TX»)
  • Resultatgrense (hvor mange oppføringer som skal hentes)
  • Output-format (CSV, JSON, database)
  • Noen ganger geografiske bounding boxes eller radius for grid-basert oppdagelse

De sterkere reposene eksponerer dette som CLI-flagg eller JSON-forespørselskropper. Eldre repos kan kreve at du redigerer en Python-fil direkte.

Steg 3: Sett opp proxies, hvis nødvendig

Noe utover en liten testkjøring? Da vil du ha proxies. og beskriver eksplisitt proxies som standardløsningen for større jobber. Uten dem må du regne med CAPTCHA-er eller IP-blokkering etter noen dusin forespørsler.

Steg 4: Kjør scraperen og eksporter dataene dine

Kjør skriptet, se nettleseren navigere gjennom resultatkortene, og vent på CSV- eller JSON-output. Den lykkelige veien tar minutter. Den ulykkelige veien — som er vanligere enn noen innrømmer — innebærer:

  • Nettleseren lukkes uventet
  • Chrome driver-versjon matcher ikke
  • Selector-/søkefeltfeil
  • Anmeldelsestall eller åpningstider kommer tilbake tomme

Alle fire mønstrene dukker opp i .

Steg 5: Håndter feil og brudd

Når scraperen returnerer tomme resultater eller feil:

  1. Sjekk repoets GitHub Issues for lignende rapporter
  2. Se etter UI-endringer i Google Maps (nye selectors, annerledes sidestruktur)
  3. Oppdater repoet til siste commit
  4. Hvis vedlikeholderen ikke har fikset det, sjekk forks for community-patcher
  5. Vurder om tiden du bruker på feilsøking er verdt det sammenlignet med å bytte verktøy

Realistisk oppsettstid første gang: For noen som er komfortable med terminaler, men ikke allerede har et fungerende Playwright-/Docker-/proxy-oppsett, er 30–90 minutter til første vellykkede scraping et realistisk spenn. Ikke fem minutter.

Slik unngår du bannlysning og rate limits når du scraper Google Maps

Det finnes ingen offentlig Google Maps-grense som sier «du blir blokkert ved X forespørsler». Google holder det bevisst uklart. Noen brukere rapporterer CAPTCHA-er etter omtrent på serverbaserte Playwright-oppsett. En annen bruker hevdet for en Maps-scraper bygget for et selskap. Tersklene er verken høye eller lave. De er ustabile og kontekstavhengige.

Her er en praktisk strategitabell:

StrategiVanskelighetsgradEffektivitetKostnad
Tilfeldige forsinkelser (2–5 s mellom forespørsler)EnkelMiddelsGratis
Lavere samtidighet (færre parallelle økter)EnkelMiddelsGratis
Rotasjon av residential-proxiesMiddelsHøy$1–6/GB
Datacenter-proxies (for enkle mål)MiddelsMiddels$0.02–0.6/GB
Fingeravtrykksrandomisering i headless-nettleserVanskeligHøyGratis
Nettleser-persistens / oppvarmede økterMiddelsMiddelsGratis
Skybasert scraping (flytt problemet ut)EnkelHøyVarierer

Legg inn tilfeldige forsinkelser mellom forespørsler

Faste intervaller på 1 sekund er et rødt flagg. Bruk tilfeldig jitter — 2 til 5 sekunder mellom handlinger, med av og til lengre pauser. Det enkleste du kan gjøre, og det koster ingenting.

Roter proxies (residential vs. datacenter)

Residential-proxies er mer effektive fordi de ser ut som ekte brukere, men de er dyrere. Nåværende priser: , , . Datacenter-proxies fungerer for lettere scraping, men blir raskere flagget på Google-tjenester.

Randomiser nettleserfingeravtrykk

For headless-browser-scrapere: roter user agents, viewport-størrelser og andre fingerprint-signaler. Standardkonfigurasjoner i Playwright/Puppeteer er trivielt detekterbare. Dette er vanskeligere å implementere, men gratis og svært effektivt.

Bruk skybasert scraping for å flytte problemet ut

Verktøy som håndterer anti-bot-beskyttelse, IP-rotasjon og rate limiting automatisk gjennom skybasert scraping-infrastruktur. Thunderbit i sky-modus — ingen proxyoppsett eller forsinkelseskonfigurasjon er nødvendig. For team som ikke vil bli deltids anti-bot-ingeniører, er dette den mest praktiske veien.

Hvordan Googles rate limit-terskler faktisk ser ut

Tegn på at du blir rate-limited:

  • CAPTCHA-er dukker opp midt i scraping
  • Tomme resultatsett etter tidligere vellykkede søk
  • Midlertidige IP-blokker (vanligvis 1–24 timer)
  • Tregere sideinnlasting (langsommere, delvis innhold)

Gjenoppretting: stopp scraping, roter IP-er, vent 15–60 minutter, og fortsett deretter med lavere samtidighet. Hvis du treffer grensene regelmessig, trenger oppsettet ditt proxies eller en grunnleggende annen tilnærming.

No-code-utveien: når et Google Maps Scraper GitHub-repo ikke er verdt tiden din

Omtrent 90 % av artikler om Google Maps-scraping antar at du kan Python. Men en stor del av publikum — byråeiere, selgere, lokale SEO-team, forskere — trenger bare rader i et regneark. Ikke et prosjekt for nettleserautomatisering. Hvis det er deg, er denne delen ærlig om avveiningene.

Den reelle kostnaden av «gratis» GitHub-scrapere

FaktorGitHub-repo-tilnærmingNo-code-alternativ (f.eks. Thunderbit)
Oppsettstid30–90 min (Python/Docker/proxies)~2 minutter (nettleserutvidelse)
VedlikeholdManuelt (du fikser brudd)Automatisk (leverandøren vedlikeholder)
TilpasningHøy (full tilgang til kode)Moderat (AI-konfigurerte felt)
KostnadGratis programvare, men tid + proxiesGratis nivå tilgjengelig, deretter kredittbasert
SkalaAvhenger av infrastrukturen dinSkybasert skalering

«Gratis» GitHub-scrapere flytter regningen over i tid. Hvis du verdsetter tiden din til $50/t og bruker 2 timer på oppsett + 1 time på feilsøking + 30 minutter på proxykonfigurasjon, er du på $175 før du har skrapet én eneste oppføring. Legg til proxykostnader og løpende vedlikehold når Google endrer UI-et sitt, og «gratis»-alternativet begynner å se dyrt ut.

Slik forenkler Thunderbit Google Maps-scraping

Slik ser den faktiske arbeidsflyten ut med :

  1. Installer
  2. Gå til Google Maps og kjør søket ditt
  3. Klikk «AI Suggest Fields» — Thunderbits AI leser siden og foreslår kolonner (bedriftsnavn, adresse, telefon, vurdering, nettsted osv.)
  4. Klikk «Scrape», og dataene struktureres automatisk
  5. Bruk undersidescraping for å besøke hvert bedriftsnettsted fra de uttrukne URL-ene og hente ytterligere kontaktinfo (e-poster, telefonnumre) — og automatiser det GitHub-repo-brukere gjør manuelt
  6. Eksporter til — ingen betalingsmur på eksport

Ingen Python. Ingen Docker. Ingen proxies. Ingen vedlikehold. For salg- og markedsføringsteam som gjør leadgenerering, fjerner dette hele oppsettbyrden GitHub-repos krever.

Priskontekst: Thunderbit bruker en kredittmodell der . Gratisnivået dekker 6 sider per måned, gratisprøven dekker 10 sider, og startplanen er .

Etter scraping: rydding og berikelse av Google Maps-dataene dine

De fleste guider stopper ved rå uttrekk. Rådata er ikke en leadliste. Brukere på forum rapporterer jevnlig og spør «How do you handle duplicates with this setup?» Slik ser det ut etter scraping.

Fjerne duplikater i resultatene

Duplikater kommer inn via overlapp i paginering, gjentatte søk over overlappende områder, grid-/bounding-box-strategier som dekker de samme bedriftene, og bedrifter med flere oppføringer.

Beste rekkefølge for deduplisering:

  1. Match på place_id hvis scraperen eksponerer det (mest pålitelig)
  2. Eksakt match på normalisert bedriftsnavn + adresse
  3. Fuzzy matching på navn + adresse, bekreftet av telefon eller nettsted

Enkle Excel-/Sheets-formler (COUNTIF, Fjern duplikater) håndterer de fleste tilfeller. For større datasett fungerer et raskt Python-dedupliseringsskript med pandas godt.

Normalisere telefonnumre og adresser

Uttrukne telefonnumre kommer i alle mulige formater: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. For CRM-import bør alt normaliseres til E.164-format — altså + landskode + nasjonalt nummer, for eksempel +15551234567.

under scraping — ett ryddepunkt mindre.

For adresser bør du standardisere til et konsistent format: gate, by, delstat/fylke, postnummer. Fjern ekstra mellomrom, rett opp i forkortelser (St vs Street), og valider mot en geokodingstjeneste hvis nøyaktighet er viktig.

Berike med e-poster, nettsteder og sosiale profiler

Google Maps-oppføringer inkluderer nesten alltid en nettadresse. De inkluderer nesten aldri en e-postadresse direkte. Vinneroppskriften er:

  1. Skrap Maps for å oppdage bedrifter (navn, adresse, telefon, nettadresse)
  2. Besøk hvert bedriftsnettsted for å hente e-postadresser, sosiale lenker og annen kontaktinfo

Det er her de beste GitHub-reposene og no-code-verktøyene møtes:

  • ved å besøke bedriftsnettsteder
  • kan besøke hvert bedriftsnettsted fra de uttrukne URL-ene og hente e-postadresser og telefonnumre — alt lagt til i den opprinnelige tabellen

For GitHub-repo-brukere uten innebygd berikelse betyr dette å skrive en ny scraper eller besøke hvert nettsted manuelt. Thunderbit slår sammen begge trinnene til én arbeidsflyt.

Eksport til CRM eller arbeidsflytverktøy

De mest praktiske eksportmålene:

  • Google Sheets for samarbeid om rydding og deling
  • Airtable for strukturerte databaser med filtrering og visninger
  • Notion for lettvekts driftsdatabaser
  • CSV/JSON for CRM-import eller videre automatisering

Thunderbit støtter . De fleste GitHub-repos eksporterer bare til CSV eller JSON — du må håndtere CRM-integrasjonen separat. Hvis du vil ha flere måter å få skrapede data inn i regneark på, se guiden vår om .

Google Maps Scraper GitHub-repos: full sammenligning side om side

Her er den bokmerkbare oppsummeringstabellen som dekker alle tilnærmingene:

Verktøy / repoTypeKostnadsmodellOppsettstidProxyhåndteringVedlikeholdEksportalternativerFungerer i 2026?
Google Places APIOffisiell API$7–32 / 1K kall (Pro)LavIkke nødvendigLavJSON / app-integrasjon
gosom/google-maps-scraperGitHub OSSGratis + proxies + tidMiddelsJa, dokumentertHøyCSV, JSON, DB, API⚠️
omkarcloud/google-maps-scraperGitHub-pakketNesten gratis, produktifisertMiddelsUklartMiddels-høyApp-output⚠️
gaspa93/googlemaps-scraperGitHub-anmeldelses-scraperGratis + tidMiddelsBegrensetMiddels-høyCSV⚠️ (nisje)
conor-is-my-name/google-maps-scraperGitHub Docker APIGratis + tidMiddelsMuligHøyJSON / Docker-tjeneste⚠️
Zubdata/Google-Maps-ScraperGitHub GUI-appGratis + tidMiddelsBegrensetHøyApp-output
ThunderbitNo-code-utvidelseKreditter / raderLavAbstrahert (sky)Lav-middelsSheets, Excel, Airtable, Notion, CSV, JSON

For mer kontekst om å velge mellom scraping-metoder, kan du også ha nytte av vår oppsummering av , eller sammenligningen vår av .

Juridiske forhold og vilkår for bruk

Kort seksjon, men viktig.

Googles nåværende Maps Platform-vilkår er tydelige: kunder får ikke inkludert å kopiere og lagre bedriftsnavn, adresser eller brukeranmeldelser utenfor tillatt tjenestebruk. Googles tjenestespesifikke vilkår tillater også bare begrenset caching for visse API-er, vanligvis .

Den juridiske hierarkien er tydelig:

  • API-bruk har det klareste kontraktsmessige grunnlaget
  • GitHub-scrapere opererer i et langt mer uklart landskap
  • No-code-verktøy reduserer den operasjonelle byrden, men fjerner ikke dine egne compliance-forpliktelser

Rådfør deg med egen jurist for din konkrete bruk. For en dypere gjennomgang av det juridiske landskapet har vi dekket separat.

Viktige konklusjoner: Slik velger du riktig Google Maps Scraper-tilnærming i 2026

Etter å ha gått gjennom repos, issues, forum og prissider, ser bildet slik ut:

  1. Sjekk alltid friskheten til repoet før du bruker tid på oppsett. Stjernetall er ikke et mål på om noe fungerer i dag. Les de tre nyeste issues. Se etter kodecommits de siste 3–6 månedene.

  2. Det beste nåværende åpen kildekode-alternativet er gosom/google-maps-scraper — men selv det viser ferske feltregresjoner i 2026. Se på det som et levende system som må overvåkes, ikke et verktøy du setter opp én gang og glemmer.

  3. Google Places API er riktig svar for stabilitet og juridisk klarhet — men det er begrenset (maks 5 anmeldelser, pris per kall) og løser ikke bulk-oppdagelse særlig godt.

  4. For ikke-tekniske team er no-code-verktøy som det praktiske alternativet. Tiden fra oppsett til første data er minutter i stedet for timer, og du binder deg ikke til å bli deltids vedlikeholder av en scraper.

  5. Rådata er bare halvparten av jobben. Sett av tid til deduplisering, normalisering av telefonnumre, beriking av e-poster og eksport til CRM. Verktøy som håndterer disse trinnene automatisk (som Thunderbits undersidescraping og E.164-normalisering) sparer mer tid enn de fleste tror.

  6. «Gratis scraper» bør forstås som programvare med ubetalt vedlikehold på slep. Det er helt greit hvis du har ferdighetene og liker arbeidet. Det er en dårlig deal hvis du er en selger som bare trenger 500 tannlegeleads i Phoenix innen fredag.

Hvis du vil utforske flere alternativer for å hente ut bedriftsdata, se guidene våre om , og . Du kan også se veiledninger på .

Vanlige spørsmål

Er det gratis å bruke en Google Maps Scraper fra GitHub?

Programvaren er gratis. Jobben er ikke det. Du vil bruke 30–90 minutter på oppsett, fortløpende tid på å feilsøke brudd, og ofte $10–100+/måned i proxykostnader for seriøst volum. Hvis tiden din har verdi, er «gratis» en feilbeskrivelse.

Trenger jeg Python-ferdigheter for å bruke en Google Maps Scraper fra GitHub?

De fleste populære repoer krever grunnleggende Python- og kommandolinjekunnskap. Docker-først-repos reduserer byrden, men fjerner den ikke — du må fortsatt feilsøke containerproblemer, konfigurere søkeparametere og håndtere proxyoppsett. For ikke-tekniske brukere tilbyr no-code-verktøy som et alternativ med 2 klikk og ingen koding.

Hvor ofte bryter Google Maps Scraper GitHub-repos?

Det finnes ingen fast tidsplan, men nåværende issue-historikk på GitHub viser at kjernebryting og feltregresjoner dukker opp på en uker-til-måneder-syklus. Google oppdaterer Maps-grensesnittet regelmessig, noe som kan ødelegge selectors og parsingslogikk over natten. Aktive repos fikser dette raskt; forlatte repos forblir ødelagte.

Kan jeg skrape Google Maps-anmeldelser med en GitHub-scraper?

Noen repos støtter full anmeldelsesekstraksjon (gaspa93/googlemaps-scraper er laget spesifikt for dette), mens andre bare henter oppsummeringsdata som vurdering og antall anmeldelser. Anmeldelser er også en av de første felttypene som endrer seg når Google justerer sideoppførselen — så selv repos som støtter anmeldelser kan returnere ufullstendige data etter en UI-oppdatering.

Hva er det beste alternativet hvis jeg ikke vil bruke en GitHub-scraper?

To hovedveier: Google Places API for offisiell, strukturert tilgang (med kostnads- og feltbegrensninger), eller et no-code-verktøy som for rask, AI-drevet utvinning uten koding. API-et er best for utviklere som trenger compliance-sikkerhet. Thunderbit er best for forretningsbrukere som trenger data i et regneark raskt.

Les mer

Innholdsfortegnelse

Prøv Thunderbit

Hent leads og andre data med bare 2 klikk. Drevet av AI.

Få Thunderbit Det er gratis
Hent data med AI
Overfør enkelt data til Google Sheets, Airtable eller Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week