Google Maps Scraper GitHub: Hvad virker, og hvad går i stykker i 2026

Sidst opdateret den April 22, 2026

Der er omkring på GitHub, der matcher "google maps scraper." De fleste er defekte.

Det lyder dramatisk, men hvis du har brugt tid på at klone repos, kæmpe med Playwright-afhængigheder og se din scraper returnere tomme CSV-filer kl. 2 om natten, kender du allerede følelsen. Google Maps har globalt — det er en af verdens rigeste databaser over lokale virksomheder. Selvfølgelig vil alle fra sælgere til bureauejere gerne udtrække de data. Problemet er, at Google ændrer Maps-brugerfladen med nogle ugers til nogle måneders mellemrum, og hver ændring kan uden varsel ødelægge den scraper, du lige har brugt en time på at sætte op. Som en GitHub-bruger skrev i en issue i marts 2026: værktøjet Det er ikke et nichetilfælde. Det er selve kerneflowet, der fejler. Jeg har fulgt disse repos tæt i år, og kløften mellem "ser aktiv ud på GitHub" og "faktisk leverer data i dag" er større, end de fleste tror. Denne guide er mit ærlige forsøg på at skille signal fra støj — med fokus på, hvilke repos der virker, hvilke der går i stykker, hvornår du skal springe GitHub helt over, og hvad du gør, når du har scrappet dine data.

Hvad er en Google Maps-scraper på GitHub, og hvorfor bruger folk dem?

En Google Maps-scraper på GitHub er typisk et Python- eller Go-script (nogle gange pakket i Docker), som åbner Google Maps i en headless browser, kører en søgning som "tandlæger i Chicago" og udtrækker de virksomhedsdata, der vises — navne, adresser, telefonnumre, websites, vurderinger, antal anmeldelser, kategorier, åbningstider og nogle gange bredde-/længdegrad.

GitHub er standardhjemmet for disse værktøjer, fordi koden er gratis, open source og (i teorien) kan tilpasses. Du kan forke et repo, justere søgeparametrene, tilføje din egen proxylogik og eksportere til det format, du har brug for. Gemini_Generated_Image_i0rxr6i0rxr6i0rx_compressed.webp

De typiske datafelter, folk vil udtrække, ser sådan ud:

FeltHvor almindeligt på tværs af repos
VirksomhedsnavnNæsten universelt
AdresseNæsten universelt
TelefonnummerNæsten universelt
Website-URLNæsten universelt
StjerneratingNæsten universelt
Antal anmeldelserMeget almindeligt
Kategori / typeAlmindeligt
ÅbningstiderAlmindeligt
Breddegrad / længdegradAlmindeligt i stærkere repos
E-mail / sociale linksKun når scraperen også besøger virksomhedens website
Fuld anmeldelsestekstAlmindeligt i specialiserede review-scrapers, mindre pålideligt i bulk-scrapers

Hvem bruger dem? Salgsteams, der bygger outbound-leadlister. Ejendomsmæglere og -folk, der kortlægger lokale markeder. E-commerce-teams, der analyserer konkurrenter. Marketingfolk, der laver lokale SEO-audits. Det fælles træk: De har alle brug for strukturerede lokale virksomhedsdata, og de vil helst ikke kopiere dem manuelt fra en browser én fortegnelse ad gangen.

Hvorfor salg og drift søger efter Google Maps Scraper GitHub-repos

Google Maps er attraktiv, fordi det er dér, lokale virksomhedsoplysninger faktisk ligger. Ikke i en nichekatalog. Ikke bag en betalingsmur. Lige der i søgeresultaterne.

Forretningsværdien kan deles op i tre hovedkategorier.

Leadgenerering og prospecting

Det er den store. En founder, der byggede en Google Maps-scraper til freelancere og bureauer, meget direkte: find leads i bestemte byer og nicher, indsamle kontaktoplysninger til kold outreach og generere CSV-filer med navn, adresse, telefon, website, vurderinger, antal anmeldelser, kategori, åbningstider, e-mails og sociale profiler. Et af de mest aktive repos (gosom/google-maps-scraper) fortæller ligefrem brugerne, at de kan bede dens agent om at Det er ikke et hobbytilfælde — det er en salgs-pipeline.

Markedsresearch og konkurrentanalyse

Drifts- og strategiteams bruger scrappede Maps-data til at tælle konkurrenter pr. kvarter, analysere sentiment i anmeldelser og finde huller. En lokal SEO-praktiker i en enkelt niche ved at udtrække offentlige data fra Google Maps. Den slags analyse er næsten umulig at lave manuelt i stor skala.

Lokale SEO-audits og opbygning af kataloger

Marketingfolk scraper Google Maps for at auditere lokal synlighed, tjekke konsistens i NAP (Name, Address, Phone) og bygge katalogsites. En bruger til WordPress med WP All Import.

Arbejdsøkonomien, der gør scraping fristende

Manuel indsamling er ikke gratis, bare fordi det foregår i et browser-vindue. Upwork angiver administrative dataindtastningsassistenter til . Hvis et menneske bruger 1 minut pr. virksomhed på at indsamle det basale, tager 1.000 virksomheder cirka 16,7 timer — altså omkring $200–$334 i løn, før kvalitetssikring. Ved 2 minutter pr. virksomhed koster den samme liste $400–$668. Det er det reelle benchmark, som enhver "gratis GitHub scraper" konkurrerer imod.

Google Maps API vs. GitHub-scraper-repos vs. no-code værktøjer: et beslutningstræ for 2026

Vælg din vej, før du kloner noget som helst. Volumen, budget, tekniske færdigheder og tolerance for vedligeholdelse spiller alle ind her.

KriteriumGoogle Places APIGitHub-scraperNo-code værktøj (f.eks. Thunderbit)
Pris pr. 1.000 opslag$7–32 (typiske Pro-kald)Gratis software + proxyomkostninger + tidGratis niveau, derefter kreditbaseret
DatafelterStrukturerede, begrænset til API-skemaFleksible, afhænger af repoAI-konfigureret pr. site
Adgang til anmeldelserMaks. 5 anmeldelser pr. stedFuldt (hvis scraperen understøtter det)Afhænger af værktøjet
Rate limitsGratis grænser pr. SKU, derefter betaltSelvstyret (afhænger af proxies)Håndteres af leverandøren
Juridisk klarhedEksplicit licensGråzone (ToS-risiko)Leverandøren håndterer compliance operationelt
VedligeholdelseVedligeholdt af GoogleDu vedligeholderLeverandøren vedligeholder
OpsætningskompleksitetAPI-nøgle + kodePython + afhængigheder + proxiesInstaller udvidelsen, klik scrape

Hvornår Google Places API giver mening

Til mindre til mellemstore mængder opslag, hvor du har brug for officiel licens og forudsigelig fakturering, er API'en det oplagte valg. Googles erstattede den universelle månedlige kredit med gratis grænser pr. SKU: for mange Essentials-SKU'er, 5.000 for Pro og 1.000 for Enterprise. Derefter koster Text Search Pro , og Place Details Enterprise + Atmosphere koster $5 pr. 1.000.

Den største begrænsning: anmeldelser. API'en returnerer højst . Hvis du har brug for hele anmeldelsessættet, rækker API'en ikke.

Hvornår en GitHub-scraper giver mening

Bulk-opdagelse efter nøgleord plus geografi, browser-synlige data ud over API-felter, fuld anmeldelsestekst, brugerdefineret parserlogik — hvis du har brug for noget af det og har Python-/Docker-færdighederne til at vedligeholde en scraper, er GitHub-repos det rigtige valg. Ulempen er, at "gratis" flytter regningen over i tid, proxies, retries og fejl. Proxyomkostninger alene kan løbe op: , , og .

Hvornår et no-code værktøj som Thunderbit giver mening

Ikke-teknisk team? Prioriteten er at få data ind i Sheets, Airtable, Notion eller CSV hurtigt? Et no-code værktøj springer hele Python/Docker/proxy-opsætningen over. Med installerer du Chrome-udvidelsen, åbner Google Maps, klikker "AI Suggest Fields" og derefter "Scrape" — og . Cloud-scraping-tilstand håndterer anti-bot-beskyttelse automatisk og uden proxykonfiguration.

Den enkle beslutningsregel: Hvis du har brug for <500 virksomheder og har budget → API. Hvis du har brug for tusinder og kan Python → GitHub-repo. Hvis du har brug for data hurtigt uden teknisk opsætning → no-code værktøj.

Friskhedstjek 2026: Hvilke Google Maps Scraper GitHub-repos virker faktisk i dag?

Det her er afsnittet, jeg selv ville ønske fandtes, da jeg begyndte at researche. De fleste artikler om "bedste Google Maps scraper" oplister bare repos med en-linjers beskrivelser og stjernetal. Ingen fortæller dig, om tingene faktisk leverer data denne måned.

Sådan ser du, om et Google Maps Scraper GitHub-repo stadig er i live

Før du kloner noget som helst, så kør denne tjekliste:

  • Nyligt kodepush: Kig efter et reelt commit inden for de sidste 3–6 måneder (ikke kun issue-kommentarer).
  • Issue-sundhed: Læs de 3 senest opdaterede issues. Handler de om kernefejl (tomme felter, selector-fejl, browser-crashes) eller feature requests?
  • README-kvalitet: Dokumenterer det den aktuelle browser-stack, Docker-opsætning og proxykonfiguration?
  • Røde flag i issues: Søg efter "search box," "reviews_count = 0," "driver," "Target page," "selector," "empty."
  • Fork- og PR-aktivitet: Aktive forks og merged PR'er tyder på et levende community.

Ingen nyere kodeaktivitet, uløste kernefejl i scraping og ingen vejledning om proxy- eller browervedligeholdelse? Så er repoet sandsynligvis ikke levende nok til forretningsbrug — selv hvis stjernetallet ser imponerende ud.

Gennemgang af de bedste Google Maps Scraper GitHub-repos

github-google-maps-scrapers-evaluation.webp

Jeg vurderede de repos med flest stjerner ud fra metoden ovenfor. Her er opsummeringstabellen, efterfulgt af individuelle noter.

RepoStjernerSidste pushVirker i 2026?Håndterer UI-ændringer?Proxy-supportStack
gosom/google-maps-scraper3,7k2026-04-19⚠️ Kerneudtræk lever; review-felter er ustabileAktiv vedligeholdelseJa, eksplicitGo + Playwright
omkarcloud/google-maps-scraper2,6k2026-04-10⚠️ Aktiv app, men crash/support-problemerVedligeholdt af leverandørIkke tydeligt dokumenteretDesktop-app / binær
gaspa93/googlemaps-scraper4982026-03-26⚠️ Snæver niche som review-scraperBegrænset evidensIngen stærk proxy-historikPython
conor-is-my-name/google-maps-scraper2842026-04-14⚠️ Lovende Docker-flow, men selector-brud i martsNoget tegn på fixesDockeriseret, proxy uklartPython + Docker
Zubdata/Google-Maps-Scraper1202025-01-19❌ For mange stagnerede/null-felt-problemerLidt evidensIkke fremhævetPython GUI
patxijuaristi/google_maps_scraper1132025-02-24❌ Lavt signal, gammel Chrome-driver-issueLidt evidensIngen stærk evidensPython

gosom/google-maps-scraper

Lige nu den stærkeste open source generalistløsning i feltet. README'en er usædvanligt moden: CLI, web UI, REST API, Docker-instruktioner, proxykonfiguration, grid/bounding-box-tilstand, e-mailudtræk og flere eksportmål. Den hævder og dokumenterer eksplicit proxies, fordi "for larger scraping jobs, proxies help avoid rate limiting."

Ulempen er ikke opgivelse — det er afdrift i edge-felter. Nylige issues i 2026 viser , og . Så den er troværdig til udtræk af virksomhedsfortegnelser, men mere usikker på rige anmeldelses- og åbningstidsdata, indtil rettelser lander.

omkarcloud/google-maps-scraper

Meget synlig på grund af sit stjernetal og sin lange tilstedeværelse, men den læses mindre som gennemsigtig OSS og mere som et pakket extractor-produkt — supportkanaler, desktop-installere, upsells til berigelse. En bruger i april 2026 skrev, at appen startede og derefter oversvømmede terminalen med , indtil den hang. Et andet åbent issue klager over, at værktøjet er Ikke dødt, men heller ikke det reneste valg for læsere, der ønsker inspicerbar OSS, de selv trygt kan patche.

gaspa93/googlemaps-scraper

Ikke en generel bulk-search lead-gen-scraper. Det er en fokuseret , der starter fra en specifik Google Maps POI-anmeldelses-URL og henter nyere anmeldelser, med muligheder for metadata-scraping og sortering af anmeldelser. Den snævre vinkel er faktisk en styrke i visse workflows — men den løser ikke det primære problem med query-opdagelse, som de fleste forretningsbrugere har i tankerne.

conor-is-my-name/google-maps-scraper

De rigtige instinkter til moderne driftsteams: Docker-first-installation, JSON API, forretningsvenlige felter og synlighed i . Men issue'et fra marts 2026 er et perfekt eksempel på, hvorfor denne kategori er skrøbelig: en bruger opdaterede containeren, og output sagde, at scraperen Det er et kernesvigt, ikke et kosmetisk edge case.

Zubdata/Google-Maps-Scraper

På papiret er feltlisten bred: e-mail, anmeldelser, ratings, adresse, website, telefon, kategori, åbningstider. I praksis fortæller den offentlige issues-flade en anden historie: brugere rapporterer , og . Sammen med den ældre push-historik er den svær at anbefale til brug i 2026.

patxijuaristi/google_maps_scraper

Let at finde i GitHub-søgning, men det stærkeste offentlige signal er et snarere end aktiv vedligeholdelse. Det hører med i artiklen mest som et eksempel på, hvad "ser levende ud i søgning, men er risikabelt i praksis" betyder.

Trin for trin: Sådan sætter du en Google Maps-scraper op fra GitHub

Har du besluttet, at et GitHub-repo er den rigtige vej? Sådan ser opsætningen faktisk ud. Jeg holder det generelt og ikke repo-specifikt — trinene er bemærkelsesværdigt ens på tværs af de aktive muligheder.

Trin 1: Klon repoet og installer afhængigheder

Den typiske proces:

  1. git clone repoet
  2. Opret et Python-virtual environment (eller hent et Docker-image)
  3. Installer afhængigheder via pip install -r requirements.txt eller docker-compose up
  4. Nogle gange installér et browser-runtime (Chromium til Playwright, ChromeDriver til Selenium)

Docker-first-repos som og reducerer afhængighedsproblemer, men fjerner dem ikke — du skal stadig have Docker kørende og nok diskplads til browserimages.

Trin 2: Konfigurer dine søgeparametre

De fleste generalist-scrapers vil have:

  • Nøgleord + placering (f.eks. "blikkenslagere i Austin TX")
  • Resultatgrænse (hvor mange fortegnelser der skal udtrækkes)
  • Outputformat (CSV, JSON, database)
  • Nogle gange geografiske bounding boxes eller radius til grid-baseret opdagelse

De stærkere repos eksponerer dette som CLI-flags eller JSON-request bodies. Ældre repos kan kræve, at du redigerer en Python-fil direkte.

Trin 3: Sæt proxies op (hvis nødvendigt)

Alt ud over en lille testkørsel? Så får du brug for proxies. og beskriver eksplicit proxies som standardløsningen til større jobs. Uden dem kan du forvente CAPTCHAs eller IP-blokeringer efter nogle dusin forespørgsler.

Trin 4: Kør scraperen og eksporter dine data

Kør scriptet, se browseren bevæge sig gennem resultatkortene, og vent på CSV- eller JSON-output. Den gode vej tager minutter. Den dårlige vej — som er mere almindelig, end nogen indrømmer — indebærer:

  • Browseren lukker uventet
  • Uoverensstemmelse i Chrome-driver-version
  • Selector-/søgefeltfejl
  • Anmeldelsesantal eller åbningstider kommer tilbage tomme

Alle fire mønstre optræder i .

Trin 5: Håndter fejl og brud

Når scraperen returnerer tomme resultater eller fejl:

  1. Tjek repoets GitHub Issues for lignende rapporter
  2. Kig efter ændringer i Google Maps' UI (nye selectors, anden sidstruktur)
  3. Opdatér repoet til seneste commit
  4. Hvis vedligeholderen ikke har fikset det, så tjek forks for community-patches
  5. Overvej, om den tid, du bruger på fejlfinding, er det værd i forhold til at skifte værktøj

Realistisk første opsætningstid: For en person, der er komfortabel med terminalen, men ikke allerede har en fungerende Playwright/Docker/proxy-opsætning, er 30–90 minutter til første succesfulde scraping det realistiske interval. Ikke fem minutter.

Sådan undgår du bans og rate limits, når du scraper Google Maps

Der findes ingen offentlig Google Maps-webgrænse, der siger "du bliver blokeret ved X requests." Google holder det med vilje uigennemsigtigt. Nogle brugere rapporterer CAPTCHAs efter omkring på Playwright-opsætninger på servere. En anden bruger påstod for en Maps-scraper bygget til et firma. Tærsklerne er hverken høje eller lave. De er ustabile og kontekstafhængige.

Her er en praktisk strategitabel:

StrategiSværhedsgradEffektivitetPris
Tilfældige pauser (2–5 sek. mellem requests)LetMellemGratis
Lavere concurrency (færre parallelle sessioner)LetMellemGratis
Rotation af residential proxiesMellemHøj$1–6/GB
Datacenter-proxies (til lette targets)MellemMellem$0,02–0,6/GB
Fingeraftryksrandomisering i headless browserSværHøjGratis
Browserpersistens / opvarmede sessionerMellemMellemGratis
Cloud-baseret scraping (flyt problemet væk)LetHøjVarierer

Læg tilfældige pauser ind mellem requests

Faste 1-sekundsintervaller er et rødt flag. Brug tilfældig jitter — 2 til 5 sekunder mellem handlinger, med lejlighedsvise længere pauser. Det er det nemmeste, du kan gøre, og det koster ingenting.

Roter proxies (residential vs. datacenter)

Residential proxies er mere effektive, fordi de ligner rigtige brugere, men de er også dyrere. Aktuel prissætning: , , . Datacenter-proxies virker til lettere scraping, men bliver hurtigere markeret på Googles tjenester.

Randomiser browser fingerprints

Til headless browser-scrapers: rotér user agents, viewport-størrelser og andre fingerprint-signaler. Standardkonfigurationer i Playwright/Puppeteer er trivielt detekterbare. Det er sværere at implementere, men gratis og meget effektivt.

Brug cloud-baseret scraping til at flytte problemet

Værktøjer som håndterer anti-bot-beskyttelse, IP-rotation og rate limiting automatisk via cloud-scraping-infrastruktur. Thunderbit i cloud-tilstand — ingen proxyopsætning eller delay-konfiguration nødvendig. For teams, der ikke vil være deltids anti-bot-ingeniører, er det den mest praktiske vej.

Sådan ser Googles rate-limit-tærskler faktisk ud

Tegn på, at du bliver rate-limited:

  • CAPTCHAs dukker op midt i scraping
  • Tomme resultatsæt efter tidligere succesfulde forespørgsler
  • Midlertidige IP-blokeringer (typisk 1–24 timer)
  • Langsommere sideindlæsning og delvist indhold

Gendannelse: stop scraping, rotér IP'er, vent 15–60 minutter, og fortsæt derefter med lavere concurrency. Hvis du rammer grænserne regelmæssigt, har du brug for proxies eller en grundlæggende anden tilgang.

No-code udvejen: Når et Google Maps Scraper GitHub-repo ikke er din tid værd

Omkring 90 % af artikler om Google Maps scraping antager, at du kan Python. Men en stor del af målgruppen — bureauejere, sælgere, lokale SEO-teams, forskere — har bare brug for rækker i et regneark. Ikke et browser-automatiseringsprojekt. Hvis det er dig, er dette afsnit ærligt om kompromiserne.

Den reelle pris på "gratis" GitHub-scrapers

FaktorGitHub-repo-tilgangNo-code alternativ (f.eks. Thunderbit)
Opsætningstid30–90 min (Python/Docker/proxies)~2 minutter (browserudvidelse)
VedligeholdelseManuel (du fikser brud)Automatisk (leverandøren vedligeholder)
TilpasningHøj (fuld kodeadgang)Moderat (AI-konfigurerede felter)
PrisGratis software, men tid + proxiesGratis niveau tilgængeligt, derefter kreditbaseret
SkalaAfhænger af din infrastrukturCloud-baseret skalering

"Gratis" GitHub-scrapers flytter regningen over i tid. Hvis du værdisætter din tid til $50 i timen og bruger 2 timer på opsætning + 1 time på fejlfinding + 30 minutter på proxykonfiguration, er det $175, før du har scrappet en eneste fortegnelse. Læg proxyomkostninger og løbende vedligeholdelse til, når Google ændrer sin UI, og så begynder den "gratis" løsning at se dyr ud.

Sådan gør Thunderbit Google Maps-scraping enklere

Her er det faktiske workflow med :

  1. Installér
  2. Gå til Google Maps og kør din søgning
  3. Klik "AI Suggest Fields" — Thunderbits AI læser siden og foreslår kolonner (virksomhedsnavn, adresse, telefon, rating, website osv.)
  4. Klik "Scrape", og data struktureres automatisk
  5. Brug subpage scraping til at besøge hver virksomheds website via de scrappede URL'er og udtrække yderligere kontaktoplysninger (e-mails, telefonnumre) — og automatisér det, som GitHub-repo-brugere ellers gør manuelt
  6. Eksportér til — ingen betalingsmur på eksport

Ingen Python. Ingen Docker. Ingen proxies. Ingen vedligeholdelse. For salgs- og marketingfolk, der arbejder med leadgenerering, fjerner det hele opsætningsbyrden, som GitHub-repos kræver.

Priskontekst: Thunderbit bruger en kreditmodel, hvor . Det gratis niveau dækker 6 sider om måneden, den gratis prøveversion dækker 10 sider, og startplanen er .

Efter scraping: Ryd op og berig dine Google Maps-data

De fleste guider stopper ved rå udtræk. Rå data er ikke en leadliste. Forumbrugere rapporterer jævnligt og spørger "How do you handle duplicates with this setup?" Her er, hvad der sker efter scraping.

Fjern dubletter i dine resultater

Dubletter sniger sig ind fra overlap i pagination, gentagne søgninger på tværs af overlappende områder, grid/bounding-box-strategier, der dækker de samme virksomheder, og virksomheder med flere fortegnelser.

Anbefalet rækkefølge til dubletfjernelse:

  1. Match på place_id, hvis din scraper eksponerer det (mest pålideligt)
  2. Præcis match på normaliseret virksomhedsnavn + adresse
  3. Fuzzy matching på navn + adresse, bekræftet af telefon eller website

Simple Excel-/Sheets-formler (COUNTIF, Remove Duplicates) klarer de fleste tilfælde. For større datasæt virker et hurtigt Python-dubletscript med pandas fint.

Normalisér telefonnumre og adresser

Scrappede telefonnumre kommer i alle tænkelige formater: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. Til CRM-import bør du normalisere alt til E.164-format — altså + landekode + nationalt nummer, f.eks. +15551234567.

under scraping — ét cleanup-trin mindre.

For adresser bør du standardisere til et konsekvent format: gade, by, region, postnummer. Fjern ekstra mellemrum, ret uoverensstemmelser i forkortelser (St vs Street) og valider mod en geokodningstjeneste, hvis nøjagtighed betyder noget.

Berig med e-mails, websites og sociale profiler

Google Maps-fortegnelser indeholder næsten altid en website-URL. De indeholder næsten aldrig en e-mailadresse direkte. Den vindende model:

  1. Scrape Maps til virksomhedsopdagelse (navn, adresse, telefon, website-URL)
  2. Besøg hver virksomheds website for at udtrække e-mailadresser, sociale links og andre kontaktoplysninger

Det er her, de bedste GitHub-repos og no-code-værktøjer mødes:

  • ved at besøge virksomheders websites
  • kan besøge hver virksomheds website via de scrappede URL'er og udtrække e-mailadresser og telefonnumre — alt sammen tilføjet din oprindelige tabel

For GitHub-repo-brugere uden indbygget berigelse betyder det, at man enten skal skrive en anden scraper eller manuelt besøge hvert site. Thunderbit samler begge trin i ét workflow.

Eksportér til dit CRM eller dine workflow-værktøjer

De mest praktiske eksportmål:

  • Google Sheets til fælles oprydning og deling
  • Airtable til strukturerede databaser med filtrering og visninger
  • Notion til lette driftsdatabaser
  • CSV/JSON til CRM-import eller videre automatisering

Thunderbit understøtter . De fleste GitHub-repos eksporterer kun til CSV eller JSON — du skal selv håndtere CRM-integrationen bagefter. Hvis du vil have flere måder at få scrappede data ind i regneark på, kan du se vores guide til .

Google Maps Scraper GitHub-repos: Den fulde sammenligning side om side

Her er den bogmærkeværdige opsummeringstabel, som dækker alle tilgange:

Værktøj / repoTypePris modelOpsætningstidProxyhåndteringVedligeholdelseEksportmulighederVirker i 2026?
Google Places APIOfficiel API$7–32 / 1K kald (Pro)LavIkke nødvendigLavJSON / app-integration
gosom/google-maps-scraperGitHub OSSGratis + proxies + tidMellemJa, dokumenteretHøjCSV, JSON, DB, API⚠️
omkarcloud/google-maps-scraperGitHub-pakketNæsten gratis, produktiseretMellemUklarMellem-højApp-output⚠️
gaspa93/googlemaps-scraperGitHub review-scraperGratis + tidMellemBegrænsetMellem-højCSV⚠️ (niche)
conor-is-my-name/google-maps-scraperGitHub Docker APIGratis + tidMellemMuligHøjJSON / Docker-service⚠️
Zubdata/Google-Maps-ScraperGitHub GUI-appGratis + tidMellemBegrænsetHøjApp-output
ThunderbitNo-code-udvidelseKreditter / rækkerLavAbstraheret (cloud)Lav-mellemSheets, Excel, Airtable, Notion, CSV, JSON

For mere kontekst om valg mellem scraping-tilgange kan du også finde vores oversigt over nyttig, eller vores sammenligning af .

Juridiske og vilkårsmæssige overvejelser

Kort afsnit, men det betyder noget.

Googles nuværende Maps Platform-vilkår er eksplicitte: kunder må ikke inklusive kopiering og lagring af virksomhedsnavne, adresser eller brugeranmeldelser uden for den tilladte brug af tjenesten. Googles servicespecifikke vilkår tillader også kun begrænset caching for visse API'er, typisk .

Den juridiske rangorden er klar:

  • API-brug har det tydeligste kontraktgrundlag
  • GitHub-scrapers opererer i et langt mere gråt felt
  • No-code-værktøjer reducerer din operationelle byrde, men fjerner ikke dine egne compliance-forpligtelser

Kontakt din egen juridiske rådgiver om dit konkrete use case. For et dybere kig på det juridiske landskab har vi dækket separat.

Vigtigste pointer: Vælg den rigtige Google Maps-scraper-tilgang i 2026

Efter at have gravet i repos, issues, fora og prissider, ser situationen sådan ud:

  1. Tjek altid repoets friskhed, før du bruger tid på opsætning. Stjernetal er ikke et mål for, om det virker i dag. Læs de tre seneste issues. Kig efter kodecommits i de sidste 3–6 måneder.

  2. Den bedste open source-mulighed lige nu er gosom/google-maps-scraper — men selv den viser nye feltregressioner i 2026. Betragt den som et levende system, der kræver overvågning, ikke et sæt-og-glem-værktøj.

  3. Google Places API er det rigtige valg for stabilitet og juridisk klarhed — men den er begrænset (maks. 5 anmeldelser, pris pr. kald) og løser ikke bulk-opdagelse særligt godt.

  4. For ikke-tekniske teams er no-code-værktøjer som det praktiske alternativ. Tiden fra opsætning til første data er minutter i stedet for timer, og du tilmelder dig ikke et deltidsjob som scraper-vedligeholder.

  5. Rå data er kun halvdelen af arbejdet. Sæt tid af til fjernelse af dubletter, normalisering af telefonnumre, berigelse med e-mails og eksport til CRM. Værktøjer, der håndterer disse trin automatisk (som Thunderbits subpage scraping og E.164-normalisering), sparer mere tid, end de fleste forventer.

  6. "Gratis scraper" skal bedst forstås som software med ulønnet vedligeholdelse vedhæftet. Det er fint, hvis du har færdighederne og nyder arbejdet. Det er en dårlig handel, hvis du er sælger og bare skal bruge 500 tandlægeleads i Phoenix inden fredag.

Hvis du vil udforske flere muligheder for at udtrække virksomhedsdata, så se vores guides om , og . Du kan også se tutorials på .

FAQ

Er det gratis at bruge en Google Maps-scraper fra GitHub?

Softwaren er gratis. Opgaven er ikke. Du vil investere 30–90 minutter i opsætning, løbende tid på fejlfinding af brud og ofte $10–100+/måned i proxyomkostninger ved enhver seriøs volumen. Hvis din tid har værdi, er "gratis" en fejlagtig betegnelse.

Skal jeg kunne Python for at bruge en Google Maps-scraper fra GitHub?

De fleste populære repos kræver grundlæggende Python- og kommandolinjekendskab. Docker-first-repos reducerer byrden, men fjerner den ikke — du skal stadig fejlfinde containerproblemer, konfigurere søgeparametre og håndtere proxyopsætning. For ikke-tekniske brugere tilbyder no-code-værktøjer som et 2-kliks alternativ uden kodning.

Hvor ofte går Google Maps-scraper GitHub-repos i stykker?

Der findes ingen fast tidsplan, men den aktuelle issue-historik på GitHub viser, at kernebrud og feltregressioner opstår på en uge-til-måned-cyklus. Google opdaterer sin Maps-UI regelmæssigt, hvilket kan ødelægge selectors og parserlogik fra den ene dag til den anden. Aktive repos retter det hurtigt; opgivne repos forbliver defekte på ubestemt tid.

Kan jeg scrape Google Maps-anmeldelser med en GitHub-scraper?

Nogle repos understøtter fuldt anmeldelsesudtræk (gaspa93/googlemaps-scraper er specifikt lavet til det), mens andre kun henter opsummerede data som rating og antal anmeldelser. Anmeldelser er også en af de første feltgrupper, der driver, når Google ændrer sidens adfærd — så selv repos, der understøtter anmeldelser, kan returnere ufuldstændige data efter en UI-opdatering.

Hvad er det bedste alternativ, hvis jeg ikke vil bruge en GitHub-scraper?

To hovedveje: Google Places API til officiel, struktureret adgang (med pris- og feltbegrænsninger), eller et no-code-værktøj som til hurtig, AI-drevet udtræk uden kodning. API'en er bedst til udviklere, der har brug for compliance-sikkerhed. Thunderbit er bedst til forretningsbrugere, der hurtigt skal have data ind i et regneark.

Læs mere

Indholdsfortegnelse

Prøv Thunderbit

Hent leads og andre data med kun 2 klik. Drevet af AI.

Hent Thunderbit Det er gratis
Udtræk data med AI
Overfør nemt data til Google Sheets, Airtable eller Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week