Google Maps Scraper GitHub: Vad som fungerar, vad som går sönder 2026

Senast uppdaterad April 22, 2026

Det finns ungefär på GitHub som matchar "google maps scraper." De flesta är trasiga.

Det låter dramatiskt, men om du har ägnat någon tid åt att klona repos, brottas med Playwright-beroenden och sett din scraper spotta ut tomma CSV-filer klockan 02 på natten, så känner du redan igen känslan. Google Maps har globalt — det är en av världens rikaste databaser för lokala företag. Självklart vill alla, från säljare till byråägare, få ut den datan. Problemet är att Google ändrar sitt Maps-gränssnitt med några veckors till månaders mellanrum, och varje förändring kan tyst slå ut den scraper du precis lade en timme på att få igång. Som en GitHub-användare uttryckte det i ett ärende i mars 2026: verktyget Det är inte ett smalt edge case. Det är att grundflödet fallerar. Jag har följt de här reposen noga i år, och glappet mellan "ser aktiv ut på GitHub" och "faktiskt returnerar data i dag" är större än de flesta tror. Den här guiden är mitt ärliga försök att reda ut signalen ur bruset — vilka repos som fungerar, vilka som går sönder, när du bör hoppa över GitHub helt, och vad du ska göra efter att du skrapat din data.

Vad är en Google Maps Scraper på GitHub, och varför använder folk dem?

En Google Maps scraper på GitHub är vanligtvis ett Python- eller Go-skript (ibland paketerat i Docker) som öppnar Google Maps i en headless-webbläsare, kör en sökfråga som "dentists in Chicago" och extraherar de företagslistningar som visas — namn, adresser, telefonnummer, webbplatser, betyg, antal recensioner, kategorier, öppettider och ibland koordinater för latitud/longitud.

GitHub är standardhemmet för de här verktygen eftersom koden är gratis, öppen källkod och i teorin går att anpassa. Du kan forka ett repo, justera sökparametrarna, lägga till din egen proxylogik och exportera till vilket format du behöver. Gemini_Generated_Image_i0rxr6i0rxr6i0rx_compressed.webp

De typiska datafält som folk vill hämta ser ut så här:

FältHur vanligt i olika repos
FöretagsnamnNästan universellt
AdressNästan universellt
TelefonnummerNästan universellt
Webbplats-URLNästan universellt
StjärnbetygNästan universellt
Antal recensionerMycket vanligt
Kategori / typVanligt
ÖppettiderVanligt
Latitud / longitudVanligt i starkare repos
E-post / sociala länkarEndast när scrapen också besöker företagets webbplats
Fullständig recensionstextVanligt i specialiserade recensionsscrapers, mindre tillförlitligt i masscrapers

Vem använder dem? Säljteam som bygger prospektlistor för outreach. Fastighetsproffs som kartlägger lokala marknader. E-handels팀 som gör konkurrentanalyser. Marknadsförare som kör lokala SEO-granskningar. Gemensamma nämnaren: de behöver strukturerad lokal företagsdata, och de vill helst slippa kopiera och klistra in den från en webbläsare en listning i taget.

Varför sälj- och operationsteam söker efter Google Maps Scraper GitHub-repos

Google Maps är attraktivt av en enkel anledning: det är där den lokala företagsinformationen faktiskt finns. Inte i någon nischad katalog. Inte bakom en betalvägg. Direkt där i sökresultaten.

Affärsnyttan kan delas upp i tre huvudkategorier.

Leadgenerering och prospektering

Det här är den stora. En grundare som byggde en Google Maps scraper för frilansare och byråer rakt på sak: hitta leads i specifika städer och nischer, samla kontaktuppgifter för kall outreach och generera CSV-filer med namn, adress, telefonnummer, webbplats, betyg, antal recensioner, kategori, öppettider, e-post och sociala konton. Ett av de mest aktiva reposen (gosom/google-maps-scraper) säger bokstavligen till användarna att de kan be dess agent att Det där är inte ett hobbycase — det är en säljpipeline.

Marknadsresearch och konkurrensanalys

Operations- och strategiteam använder skrapad Maps-data för att räkna konkurrenter per stadsdel, analysera sentiment i recensioner och upptäcka luckor. En lokal SEO-utövare inom en enda nisch genom att extrahera offentlig data från Google Maps. Den typen av analys är nästan omöjlig att göra manuellt i stor skala.

Lokala SEO-granskningar och katalogbygge

Marknadsförare skrapar Google Maps för att granska lokal synlighet i sökresultat, kontrollera NAP-konsistens (Name, Address, Phone) och bygga katalogwebbplatser. En användare till WordPress med WP All Import.

Arbetsinsatsen som gör scraping lockande

Manuell insamling är inte gratis bara för att den sker i ett webbläsarfönster. Upwork uppger att administrativa virtuella assistenter kostar från . Om en människa lägger 1 minut per företag på att få fram grunderna, tar 1 000 företag ungefär 16,7 timmar — ungefär $200–334 i arbete innan QA. Vid 2 minuter per företag kostar samma lista $400–668. Det är den verkliga jämförelsen som varje "gratis GitHub scraper" konkurrerar med.

Google Maps API vs. GitHub-scraperrepositorier vs. no-code-verktyg: ett beslutsträd för 2026

Välj väg innan du klonar något. Volym, budget, tekniska färdigheter och tolerans för underhåll spelar alla roll här.

KriteriumGoogle Places APIGitHub ScraperNo-code-verktyg (t.ex. Thunderbit)
Kostnad per 1 000 uppslag$7–32 (vanliga Pro-anrop)Gratis mjukvara + proxykostnader + tidGratis nivå, sedan kreditbaserat
DatafältStrukturerade, begränsade till API-schematFlexibla, beror på repoAI-konfigurerade per webbplats
Åtkomst till recensionerMax 5 recensioner per platsFullt, om scrapen stöder detBeror på verktyget
HastighetsbegränsningarKostnadsfria tak per SKU, därefter betaltSjälvhanterat, beroende av proxyHanteras av leverantören
Juridisk tydlighetTydlig licensGråzon (ToS-risk)Leverantören hanterar efterlevnaden operativt
UnderhållUnderhålls av GoogleDu underhållerLeverantören underhåller
InstallationskomplexitetAPI-nyckel + kodPython + beroenden + proxiesInstallera tillägg, klicka på scrape

När Google Places API är rätt val

För uppslag i liten till medelstor volym där du behöver officiell licensiering och förutsägbara kostnader är API:t det självklara valet. Googles ersatte den universella månadskrediten med kostnadsfria tak per SKU: för många Essentials-SKU:er, 5 000 för Pro och 1 000 för Enterprise. Därefter kostar Text Search Pro och Place Details Enterprise + Atmosphere $5 per 1 000.

Den största begränsningen: recensioner. API:t returnerar högst . Om du behöver hela recensionerna räcker inte API:t till.

När en GitHub-scraper är rätt val

Massupptäckt via sökord plus geografi, data som syns i webbläsaren men inte i API-fälten, full recensionstext, egen parslogik — om du behöver något av detta och har Python-/Docker-kompetensen för att underhålla en scraper, då är GitHub-repos rätt väg. Nackdelen är att "gratis" flyttar kostnaden till tid, proxies, omtagningar och fel. Bara proxykostnader kan dra iväg: , och .

När ett no-code-verktyg som Thunderbit är rätt val

Har du ett icke-tekniskt team? Är prio att snabbt få in data i Sheets, Airtable, Notion eller CSV? Då hoppar ett no-code-verktyg över hela Python/Docker/proxy-installationen. Med installerar du Chrome-tillägget, öppnar Google Maps, klickar på "AI Suggest Fields" och sedan "Scrape" — och . Molnläge för scraping hanterar automatiskt skydd mot botar och utan proxykonfiguration.

Det enkla beslutet: Behöver du färre än 500 företag och har budget → API. Behöver du tusentals och kan Python → GitHub-repo. Behöver du data snabbt utan teknisk installation → no-code-verktyg.

Friskhetsgranskningen 2026: vilka Google Maps Scraper GitHub-repos fungerar faktiskt i dag?

Det här är avsnittet jag önskar fanns när jag började researcha. De flesta artiklar om "bästa Google Maps scraper" listar bara repos med enradiga beskrivningar och starantal. Ingen säger om saken faktiskt returnerar data den här månaden.

Så ser du om ett Google Maps Scraper GitHub-repo fortfarande lever

Innan du klonar något, kör den här checklistan:

  • Senaste kodpush: Leta efter ett riktigt commit under de senaste 3–6 månaderna (inte bara kommentarer i ärenden).
  • Ärendestatus: Läs de tre senast uppdaterade ärendena. Handlar de om grundfel (tomma fält, selector-fel, webbläsarkrascher) eller funktionsönskemål?
  • README-kvalitet: Dokumenterar det nuvarande webbläsarstacken, Docker-installationen och proxykonfigurationen?
  • Varningsord i ärenden: Sök efter "search box," "reviews_count = 0," "driver," "Target page," "selector," "empty."
  • Fork- och PR-aktivitet: Aktiva forks och sammanslagna PR:er tyder på en levande community.

Ingen nylig kodaktivitet, olösta grundbuggar i scraping och ingen vägledning för proxy eller webbläsarunderhåll? Då är det där repo:t förmodligen inte tillräckligt levande för affärsbruk — även om starantalet ser imponerande ut.

Topprepositorier för Google Maps Scraper på GitHub, granskade

github-google-maps-scrapers-evaluation.webp

Jag utvärderade de repos som hade flest stjärnor utifrån metoden ovan. Här är sammanfattningen, följt av individuella noteringar.

RepoStjärnorSenaste pushFungerar 2026?Hanterar UI-förändringar?Proxy-stödStack
gosom/google-maps-scraper3,7k2026-04-19⚠️ Kärnextraktion lever; recensionsfält är instabilaAktivt underhållJa, tydligtGo + Playwright
omkarcloud/google-maps-scraper2,6k2026-04-10⚠️ Aktiv app, men krascher/supportproblemLeverantörsunderhållenInte tydligt dokumenteratDesktopapp / binär
gaspa93/googlemaps-scraper4982026-03-26⚠️ Snäv nisch för recensionsscrapingBegränsade bevisInget starkt proxy-uppläggPython
conor-is-my-name/google-maps-scraper2842026-04-14⚠️ Lovande Docker-flöde, men mars-brist i selectorViss evidens för fixarDockeriserad, proxy oklarPython + Docker
Zubdata/Google-Maps-Scraper1202025-01-19❌ För många gamla problem med null-fältLite bevisInte framhävtPython GUI
patxijuaristi/google_maps_scraper1132025-02-24❌ Låg signal, gammalt Chrome-driver-problemLite bevisInga starka bevisPython

gosom/google-maps-scraper

För närvarande det starkaste generella open source-alternativet i mängden. README:n är ovanligt välmogen: CLI, webbgränssnitt, REST API, Docker-instruktioner, proxykonfiguration, grid-/bounding-box-läge, e-postextraktion och flera exportmål. Den påstår sig ha och dokumenterar proxies uttryckligen eftersom "for larger scraping jobs, proxies help avoid rate limiting."

Nackdelen är inte att projektet är övergivet — det är att korrektheten glider i kantfälten. Nya ärenden från 2026 visar , och . Så det är trovärdigt för extraktion av företagslistningar, men skakigare för rik data om recensioner och öppettider tills fixar landar.

omkarcloud/google-maps-scraper

Mycket synligt tack vare stjärnantalet och sin långa närvaro, men det känns mindre som transparent OSS och mer som en paketerad extractor-produkt — supportkanaler, desktop-installationer, upsell för enrichment. En användare i april 2026 skrev att appen startade och sedan översvämmade terminalen med tills den låste sig. Ett annat öppet ärende klagar på att verktyget är Inte dött, men inte det renaste valet för läsare som vill ha granskningsbar OSS de själva kan patcha med förtroende.

gaspa93/googlemaps-scraper

Inte en generell scraper för leadgenerering via bulk-sökning. Det är en fokuserad som utgår från en specifik Google Maps POI-recensions-URL och hämtar senaste recensioner, med alternativ för metadata-scraping och sortering av recensioner. Den smalare inriktningen är faktiskt en styrka för vissa arbetsflöden — men den löser inte det huvudsakliga problem med upptäckt via sökningar som de flesta företagsanvändare tänker på.

conor-is-my-name/google-maps-scraper

Rätt instinkt för moderna operationsteam: Docker först-installation, JSON-API, affärsvänliga fält och synlighet i . Men mars-ärendet 2026 är ett perfekt exempel på varför den här kategorin är bräcklig: en användare uppdaterade containern och utdata sa att scrapen Det är ett fel i kärnflödet, inte ett kosmetiskt edge case.

Zubdata/Google-Maps-Scraper

På pappret är fältuppsättningen bred: e-post, recensioner, betyg, adress, webbplats, telefon, kategori, öppettider. I praktiken säger den publika ärendeytan något annat: användare rapporterar , och . Tillsammans med den äldre push-historiken är det svårt att rekommendera för användning 2026.

patxijuaristi/google_maps_scraper

Lätt att hitta i GitHubs sökresultat, men den starkaste offentliga signalen är ett snarare än aktivt underhåll. Den är med i artikeln mest som ett exempel på vad "ser levande ut i sökningen men är riskabelt i praktiken" betyder.

Steg för steg: Så sätter du upp en Google Maps Scraper från GitHub

Har du bestämt dig för att ett GitHub-repo är rätt väg? Här är hur uppsättningen faktiskt ser ut. Jag håller det här generellt snarare än repospecifikt — stegen är förvånansvärt lika mellan de aktiva alternativen.

Steg 1: Klona repot och installera beroenden

Den vanliga vägen:

  1. git clone repot
  2. Skapa en Python virtual environment (eller hämta en Docker-image)
  3. Installera beroenden via pip install -r requirements.txt eller docker-compose up
  4. Ibland installera en webbläsarruntime (Chromium för Playwright, ChromeDriver för Selenium)

Docker-först-repos som och minskar beroendebekymmer men eliminerar dem inte — du behöver fortfarande att Docker körs och tillräckligt med diskutrymme för webbläsaravbilder.

Steg 2: Konfigurera dina sökparametrar

De flesta generalist-scrapers vill ha:

  • Sökord + plats (t.ex. "plumbers in Austin TX")
  • Resultatgräns (hur många listningar som ska extraheras)
  • Utdataformat (CSV, JSON, databas)
  • Ibland geografiska bounding boxes eller radie för grid-baserad upptäckt

De starkare reposen exponerar detta som CLI-flaggor eller JSON-begärandetext. Äldre repos kan kräva att du redigerar en Python-fil direkt.

Steg 3: Sätt upp proxies (om det behövs)

Ska du göra mer än en liten testkörning? Då vill du ha proxies. och beskriver uttryckligen proxies som standardlösningen för större jobb. Utan dem kan du förvänta dig CAPTCHA eller IP-block efter några dussin förfrågningar.

Steg 4: Kör scrapen och exportera din data

Kör skriptet, se webbläsaren röra sig genom resultatkorten och vänta på CSV- eller JSON-utdata. Det lyckliga flödet tar minuter. Det olyckliga flödet — som är vanligare än någon gärna medger — innebär:

  • Webbläsaren stängs oväntat
  • Chrome driver-versionen matchar inte
  • Selector-/search-box-fel
  • Recensionsantal eller öppettider kommer tillbaka tomma

Alla fyra mönster förekommer i .

Steg 5: Hantera fel och sönderfall

När scrapen returnerar tomma resultat eller fel:

  1. Kontrollera repo:ts GitHub Issues för liknande rapporter
  2. Leta efter ändringar i Google Maps UI (nya selectors, annan sidstruktur)
  3. Uppdatera repot till senaste commit
  4. Om underhållaren inte har fixat det, kolla forks efter communitypatchar
  5. Fundera på om tiden du lägger på felsökning är värd det jämfört med att byta verktyg

Realistisk första uppsättningstid: För någon som är bekväm med terminaler men inte redan har en fungerande Playwright/Docker/proxy-installation, är 30–90 minuter till första lyckade scrape ett realistiskt spann. Inte fem minuter.

Så undviker du blockeringar och hastighetsbegränsningar när du skrapar Google Maps

Det finns ingen offentlig Google Maps-gräns som säger "du blockeras vid X förfrågningar." Google håller det medvetet otydligt. Vissa användare rapporterar CAPTCHA efter ungefär på serverbaserade Playwright-installationer. En annan användare påstod för en Maps-scraper byggd av ett företag. Trösklarna är varken höga eller låga. De är instabila och kontextberoende.

Här är en praktisk strategitabell:

StrategiSvårighetsgradEffektivitetKostnad
Slumpmässiga fördröjningar (2–5 s mellan förfrågningar)LättMedelGratis
Lägre samtidighet (färre parallella sessioner)LättMedelGratis
Rotation av residential proxiesMedelHög$1–6/GB
Datacenter-proxies (för enklare mål)MedelMedel$0.02–0.6/GB
Slumpning av headless browser-fingeravtryckSvårtHögGratis
Webbläsarpersistens / uppvärmda sessionerMedelMedelGratis
Molnbaserad scraping (flytta problemet)LättHögVarierar

Lägg in slumpmässiga fördröjningar mellan förfrågningar

Fasta intervall på 1 sekund är en varningssignal. Använd slumpmässig jitter — 2 till 5 sekunder mellan åtgärder, med ibland längre pauser. Det enklaste du kan göra, och det kostar inget.

Rotera proxies (residential vs. datacenter)

Residential proxies är mer effektiva eftersom de ser ut som riktiga användare, men de är dyrare. Aktuella priser: , , . Datacenter-proxies fungerar för lättare scraping men flaggas snabbare på Googles tjänster.

Slumpa webbläsarfingeravtryck

För headless browser-scrapers: rotera user agents, viewport-storlekar och andra signals för fingeravtryck. Standardkonfigurationer i Playwright/Puppeteer är lätta att upptäcka. Det här är svårare att implementera men gratis och mycket effektivt.

Använd molnbaserad scraping för att flytta problemet

Verktyg som hanterar automatiskt skydd mot botar, IP-rotation och hastighetsbegränsningar via molninfrastruktur för scraping. Thunderbit i molnläge — ingen proxyuppsättning eller fördröjningskonfiguration behövs. För team som inte vill bli deltidsingenjörer för anti-bot är det här den mest praktiska vägen.

Hur Googles trösklar för hastighetsbegränsning faktiskt ser ut

Tecken på att du blir hastighetsbegränsad:

  • CAPTCHA som dyker upp mitt i scrapen
  • Tomma resultat efter tidigare lyckade frågor
  • Tillfälliga IP-blockeringar (vanligtvis 1–24 timmar)
  • Sämre sidladdningar (långsammare, delvis innehåll)

Återhämtning: sluta skrapa, rotera IP-adresser, vänta 15–60 minuter och återuppta sedan med lägre samtidighet. Om du träffar gränser regelbundet behöver din setup proxies eller ett i grunden annat angreppssätt.

No-code-flykten: när ett Google Maps Scraper GitHub-repo inte är värt din tid

Cirka 90 % av artiklar om Google Maps-scraping utgår från att du kan Python. Men en stor del av målgruppen — byråägare, säljare, lokala SEO-team, forskare — behöver bara rader i ett kalkylblad. Inte ett webbläsarautomationsprojekt. Om det är du är det här avsnittet ärligt om kompromisserna.

Den verkliga kostnaden för "gratis" GitHub-scrapers

FaktorGitHub-repo-ansatsNo-code-alternativ (t.ex. Thunderbit)
Installationstid30–90 min (Python/Docker/proxies)~2 minuter (webbläsartillägg)
UnderhållManuellt (du fixar sönderfall)Automatiskt (leverantören underhåller)
AnpassningHög (full kodåtkomst)Medel (AI-konfigurerade fält)
KostnadGratis mjukvara, men tid + proxiesGratis nivå finns, sedan kreditbaserat
SkalaBeror på din infrastrukturMolnbaserad skalning

"Gratis" GitHub-scrapers flyttar kostnaden till tid. Om du värderar din tid till $50 i timmen och lägger 2 timmar på uppsättning + 1 timme på felsökning + 30 minuter på proxykonfiguration, är det $175 innan du ens skrapat en enda listning. Lägg till proxykostnader och löpande underhåll när Google ändrar sitt UI, så börjar den "gratis" lösningen se dyr ut.

Hur Thunderbit förenklar Google Maps-scraping

Så här ser det faktiska arbetsflödet ut med :

  1. Installera
  2. Gå till Google Maps och kör din sökning
  3. Klicka på "AI Suggest Fields" — Thunderbits AI läser sidan och föreslår kolumner (företagsnamn, adress, telefon, betyg, webbplats osv.)
  4. Klicka på "Scrape" och datan struktureras automatiskt
  5. Använd subpage scraping för att besöka varje företags webbplats från de skrapade URL:erna och extrahera ytterligare kontaktuppgifter (e-post, telefonnummer) — automatiserar det som GitHub-repoanvändare gör manuellt
  6. Exportera till — ingen betalvägg på export

Ingen Python. Ingen Docker. Inga proxies. Inget underhåll. För sälj- och marknadsföringsteam som arbetar med leadgenerering eliminerar detta hela installationsbördan som GitHub-repos kräver.

Priskontext: Thunderbit använder en kreditmodell där . Gratisnivån täcker 6 sidor per månad, gratisperioden täcker 10 sidor och startplanen är .

Efter scrapen: städa upp och berika din Google Maps-data

De flesta guider slutar vid rå extraktion. Rådata är inte en leadlista. Forumanvändare rapporterar regelbundet och frågar "How do you handle duplicates with this setup?" Så här ser det ut efter scrapen.

Ta bort dubbletter

Dubbletter smyger sig in från överlappande paginering, upprepade sökningar över överlappande områden, grid-/bounding-box-strategier som täcker samma företag och företag med flera listningar.

Bästa ordningen för deduplicering:

  1. Matcha på place_id om din scraper exponerar det (mest tillförlitligt)
  2. Exakt match på normaliserat företagsnamn + adress
  3. Fuzzy matchning på namn + adress, bekräftad med telefon eller webbplats

Enkla Excel-/Sheets-formler (COUNTIF, Remove Duplicates) hanterar de flesta fall. För större dataset fungerar ett snabbt Python-dedupliceringsskript med pandas bra.

Normalisera telefonnummer och adresser

Skrapade telefonnummer kommer i alla tänkbara format: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. För CRM-import bör allt normaliseras till E.164-format — alltså + landskod + nationellt nummer, t.ex. +15551234567.

vid scraping — ett rengöringssteg mindre.

För adresser, standardisera till ett konsekvent format: gata, stad, delstat, postnummer. Ta bort extra blanksteg, rätta till inkonsekventa förkortningar (St vs Street) och validera mot en geokodningstjänst om noggrannhet är viktig.

Berika med e-post, webbplatser och sociala profiler

Google Maps-listningar innehåller nästan alltid en webbplats-URL. De innehåller nästan aldrig en e-postadress direkt. Det vinnande mönstret:

  1. Skrapa Maps för att upptäcka företag (namn, adress, telefon, webbplats-URL)
  2. Besök varje företags webbplats för att extrahera e-postadresser, sociala länkar och annan kontaktinfo

Det är här de bästa GitHub-reposen och no-code-verktygen möts:

  • genom att besöka företagswebbplatser
  • kan besöka varje företags webbplats från de skrapade URL:erna och extrahera e-postadresser och telefonnummer — allt läggs sedan till i din ursprungliga tabell

För GitHub-repaanvändare utan inbyggd enrichment betyder det att du behöver skriva en andra scraper eller manuellt besöka varje sajt. Thunderbit slår ihop båda stegen till ett enda arbetsflöde.

Exportera till ditt CRM eller dina arbetsflödesverktyg

De mest praktiska exportmålen:

  • Google Sheets för samarbetsbaserad städning och delning
  • Airtable för strukturerade databaser med filtrering och vyer
  • Notion för lätta operationsdatabaser
  • CSV/JSON för CRM-import eller vidare automatisering

Thunderbit stödjer . De flesta GitHub-repos exporterar bara till CSV eller JSON — du behöver hantera CRM-integrationen separat. Om du letar efter fler sätt att få in skrapad data i kalkylblad, kolla vår guide om .

Google Maps Scraper GitHub-repos: den fulla jämförelsen sida vid sida

Här är den bokmärkningsvärda sammanfattningstabellen som täcker alla alternativ:

Verktyg / repoTypKostnadsmodellInstallationstidProxyhanteringUnderhållExportalternativFungerar 2026?
Google Places APIOfficiellt API$7–32 / 1K anrop (Pro)LågInget behövsLågJSON / appintegration
gosom/google-maps-scraperGitHub OSSGratis + proxies + tidMedelJa, dokumenteratHögCSV, JSON, DB, API⚠️
omkarcloud/google-maps-scraperGitHub-paketeradNästan gratis, produktifieradMedelOklartMedel-högApputdata⚠️
gaspa93/googlemaps-scraperGitHub-recensionsscraperGratis + tidMedelBegränsatMedel-högCSV⚠️ (nisch)
conor-is-my-name/google-maps-scraperGitHub Docker APIGratis + tidMedelMöjligtHögJSON / Docker-tjänst⚠️
Zubdata/Google-Maps-ScraperGitHub GUI-appGratis + tidMedelBegränsatHögApputdata
ThunderbitNo-code-tilläggKrediter / raderLågAbstraherad (moln)Låg-medelSheets, Excel, Airtable, Notion, CSV, JSON

För mer kontext om valet mellan olika scrapingmetoder kan du också ha nytta av vår sammanställning av eller vår jämförelse av .

Juridiska frågor och villkorsöverväganden

Kort avsnitt, men viktigt.

Googles nuvarande Maps Platform-villkor är tydliga: kunder får inte inklusive att kopiera och spara företagsnamn, adresser eller användarrecensioner utanför tillåten användning av tjänsten. Googles tjänstespecifika villkor tillåter också endast begränsad cachning för vissa API:er, vanligtvis .

Den juridiska hierarkin är tydlig:

  • API-användning har den tydligaste avtalsgrunden
  • GitHub-scrapers verkar i ett mycket grumligare utrymme
  • No-code-verktyg minskar den operativa bördan men tar inte bort dina egna efterlevnadsförpliktelser

Rådgör med din egen jurist för just ditt use case. För en djupare genomgång av det juridiska landskapet har vi separat behandlat .

Viktiga slutsatser: så väljer du rätt Google Maps Scraper-ansats 2026

Efter att ha grävt igenom repos, issues, forum och prissidor ser läget ut så här:

  1. Kontrollera alltid repo-fräschör innan du lägger tid på installation. Starantal är inte en indikator på "fungerar i dag". Läs de tre senaste ärendena. Leta efter kodcommit under de senaste 3–6 månaderna.

  2. Det bästa open source-alternativet just nu är gosom/google-maps-scraper — men även det visar färska fältregressioner från 2026. Behandla det som ett levande system som behöver övervakning, inte ett verktyg man bara ställer in och glömmer.

  3. Google Places API är rätt svar för stabilitet och juridisk tydlighet — men det är begränsat (max 5 recensioner, pris per anrop) och löser inte massupptäckt särskilt bra.

  4. För icke-tekniska team är no-code-verktyg som det praktiska alternativet. Tiden från installation till första data är minuter i stället för timmar, och du signar inte upp dig för att bli deltidsunderhållare av scrapers.

  5. Rådata är bara halva jobbet. Lägg tid på deduplicering, normalisering av telefonnummer, berikning med e-post och export till CRM. Verktyg som hanterar de här stegen automatiskt (som Thunderbits subpage scraping och E.164-normalisering) sparar mer tid än de flesta tror.

  6. "Gratis scraper" betyder i praktiken mjukvara med obetalt underhåll. Det är helt okej om du har kompetensen och gillar jobbet. Det är en dålig affär om du är säljare och bara behöver 500 tandläkarleads i Phoenix till fredag.

Om du vill utforska fler alternativ för att extrahera företagsdata, kolla våra guider om , och . Du kan också titta på guider på .

FAQ

Är det gratis att använda en Google Maps scraper från GitHub?

Mjukvaran är gratis. Arbetet är det inte. Du kommer att lägga 30–90 minuter på installation, löpande tid på att felsöka sönderfall och ofta $10–100+/månad i proxykostnader för allvarliga volymer. Om din tid har ett värde är "gratis" en felaktig beskrivning.

Behöver jag Python-kunskaper för att använda en Google Maps scraper från GitHub?

De flesta populära repos kräver grundläggande Python- och kommandoradskunskap. Docker-först-repos minskar bördan men tar inte bort den — du måste fortfarande felsöka containerproblem, konfigurera sökparametrar och hantera proxyuppsättning. För icke-tekniska användare erbjuder no-code-verktyg som ett alternativ med 2 klick utan att koda.

Hur ofta går Google Maps scraper GitHub-repos sönder?

Det finns inget fast schema, men aktuell ärendehistorik på GitHub visar att grundläggande sönderfall och fältregressioner dyker upp i en cykel på veckor till månader. Google uppdaterar sitt Maps-UI regelbundet, vilket kan slå ut selectors och parslogik över en natt. Aktiva repos fixar detta snabbt; övergivna repos förblir trasiga på obestämd tid.

Kan jag skrapa Google Maps-recensioner med en GitHub-scraper?

Vissa repos stöder full extraktion av recensioner (gaspa93/googlemaps-scraper är särskilt byggd för det), medan andra bara hämtar sammanfattningsdata som betyg och antal recensioner. Recensioner är också en av de första fältgrupperna som glider när Google ändrar sidbeteende — så även repos som stöder recensioner kan returnera ofullständiga data efter en UI-uppdatering.

Vad är det bästa alternativet om jag inte vill använda en GitHub-scraper?

Två huvudvägar: Google Places API för officiell, strukturerad åtkomst (med kostnads- och fältbegränsningar), eller ett no-code-verktyg som för snabb AI-driven extraktion utan kod. API:t är bäst för utvecklare som behöver säker efterlevnad. Thunderbit är bäst för affärsanvändare som snabbt behöver data i ett kalkylblad.

Läs mer

Innehållsförteckning

Testa Thunderbit

Skrapa leads och annan data med bara 2 klick. Drivet av AI.

Hämta Thunderbit Det är gratis
Extrahera data med AI
Överför enkelt data till Google Sheets, Airtable eller Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week