Det finns ungefär på GitHub som matchar "google maps scraper." De flesta är trasiga.
Det låter dramatiskt, men om du har ägnat någon tid åt att klona repos, brottas med Playwright-beroenden och sett din scraper spotta ut tomma CSV-filer klockan 02 på natten, så känner du redan igen känslan. Google Maps har globalt — det är en av världens rikaste databaser för lokala företag. Självklart vill alla, från säljare till byråägare, få ut den datan. Problemet är att Google ändrar sitt Maps-gränssnitt med några veckors till månaders mellanrum, och varje förändring kan tyst slå ut den scraper du precis lade en timme på att få igång. Som en GitHub-användare uttryckte det i ett ärende i mars 2026: verktyget Det är inte ett smalt edge case. Det är att grundflödet fallerar. Jag har följt de här reposen noga i år, och glappet mellan "ser aktiv ut på GitHub" och "faktiskt returnerar data i dag" är större än de flesta tror. Den här guiden är mitt ärliga försök att reda ut signalen ur bruset — vilka repos som fungerar, vilka som går sönder, när du bör hoppa över GitHub helt, och vad du ska göra efter att du skrapat din data.
Vad är en Google Maps Scraper på GitHub, och varför använder folk dem?
En Google Maps scraper på GitHub är vanligtvis ett Python- eller Go-skript (ibland paketerat i Docker) som öppnar Google Maps i en headless-webbläsare, kör en sökfråga som "dentists in Chicago" och extraherar de företagslistningar som visas — namn, adresser, telefonnummer, webbplatser, betyg, antal recensioner, kategorier, öppettider och ibland koordinater för latitud/longitud.
GitHub är standardhemmet för de här verktygen eftersom koden är gratis, öppen källkod och i teorin går att anpassa. Du kan forka ett repo, justera sökparametrarna, lägga till din egen proxylogik och exportera till vilket format du behöver.

De typiska datafält som folk vill hämta ser ut så här:
| Fält | Hur vanligt i olika repos |
|---|---|
| Företagsnamn | Nästan universellt |
| Adress | Nästan universellt |
| Telefonnummer | Nästan universellt |
| Webbplats-URL | Nästan universellt |
| Stjärnbetyg | Nästan universellt |
| Antal recensioner | Mycket vanligt |
| Kategori / typ | Vanligt |
| Öppettider | Vanligt |
| Latitud / longitud | Vanligt i starkare repos |
| E-post / sociala länkar | Endast när scrapen också besöker företagets webbplats |
| Fullständig recensionstext | Vanligt i specialiserade recensionsscrapers, mindre tillförlitligt i masscrapers |
Vem använder dem? Säljteam som bygger prospektlistor för outreach. Fastighetsproffs som kartlägger lokala marknader. E-handels팀 som gör konkurrentanalyser. Marknadsförare som kör lokala SEO-granskningar. Gemensamma nämnaren: de behöver strukturerad lokal företagsdata, och de vill helst slippa kopiera och klistra in den från en webbläsare en listning i taget.
Varför sälj- och operationsteam söker efter Google Maps Scraper GitHub-repos
Google Maps är attraktivt av en enkel anledning: det är där den lokala företagsinformationen faktiskt finns. Inte i någon nischad katalog. Inte bakom en betalvägg. Direkt där i sökresultaten.
Affärsnyttan kan delas upp i tre huvudkategorier.
Leadgenerering och prospektering
Det här är den stora. En grundare som byggde en Google Maps scraper för frilansare och byråer rakt på sak: hitta leads i specifika städer och nischer, samla kontaktuppgifter för kall outreach och generera CSV-filer med namn, adress, telefonnummer, webbplats, betyg, antal recensioner, kategori, öppettider, e-post och sociala konton. Ett av de mest aktiva reposen (gosom/google-maps-scraper) säger bokstavligen till användarna att de kan be dess agent att Det där är inte ett hobbycase — det är en säljpipeline.
Marknadsresearch och konkurrensanalys
Operations- och strategiteam använder skrapad Maps-data för att räkna konkurrenter per stadsdel, analysera sentiment i recensioner och upptäcka luckor. En lokal SEO-utövare inom en enda nisch genom att extrahera offentlig data från Google Maps. Den typen av analys är nästan omöjlig att göra manuellt i stor skala.
Lokala SEO-granskningar och katalogbygge
Marknadsförare skrapar Google Maps för att granska lokal synlighet i sökresultat, kontrollera NAP-konsistens (Name, Address, Phone) och bygga katalogwebbplatser. En användare till WordPress med WP All Import.
Arbetsinsatsen som gör scraping lockande
Manuell insamling är inte gratis bara för att den sker i ett webbläsarfönster. Upwork uppger att administrativa virtuella assistenter kostar från . Om en människa lägger 1 minut per företag på att få fram grunderna, tar 1 000 företag ungefär 16,7 timmar — ungefär $200–334 i arbete innan QA. Vid 2 minuter per företag kostar samma lista $400–668. Det är den verkliga jämförelsen som varje "gratis GitHub scraper" konkurrerar med.
Google Maps API vs. GitHub-scraperrepositorier vs. no-code-verktyg: ett beslutsträd för 2026
Välj väg innan du klonar något. Volym, budget, tekniska färdigheter och tolerans för underhåll spelar alla roll här.
| Kriterium | Google Places API | GitHub Scraper | No-code-verktyg (t.ex. Thunderbit) |
|---|---|---|---|
| Kostnad per 1 000 uppslag | $7–32 (vanliga Pro-anrop) | Gratis mjukvara + proxykostnader + tid | Gratis nivå, sedan kreditbaserat |
| Datafält | Strukturerade, begränsade till API-schemat | Flexibla, beror på repo | AI-konfigurerade per webbplats |
| Åtkomst till recensioner | Max 5 recensioner per plats | Fullt, om scrapen stöder det | Beror på verktyget |
| Hastighetsbegränsningar | Kostnadsfria tak per SKU, därefter betalt | Självhanterat, beroende av proxy | Hanteras av leverantören |
| Juridisk tydlighet | Tydlig licens | Gråzon (ToS-risk) | Leverantören hanterar efterlevnaden operativt |
| Underhåll | Underhålls av Google | Du underhåller | Leverantören underhåller |
| Installationskomplexitet | API-nyckel + kod | Python + beroenden + proxies | Installera tillägg, klicka på scrape |
När Google Places API är rätt val
För uppslag i liten till medelstor volym där du behöver officiell licensiering och förutsägbara kostnader är API:t det självklara valet. Googles ersatte den universella månadskrediten med kostnadsfria tak per SKU: för många Essentials-SKU:er, 5 000 för Pro och 1 000 för Enterprise. Därefter kostar Text Search Pro och Place Details Enterprise + Atmosphere $5 per 1 000.
Den största begränsningen: recensioner. API:t returnerar högst . Om du behöver hela recensionerna räcker inte API:t till.
När en GitHub-scraper är rätt val
Massupptäckt via sökord plus geografi, data som syns i webbläsaren men inte i API-fälten, full recensionstext, egen parslogik — om du behöver något av detta och har Python-/Docker-kompetensen för att underhålla en scraper, då är GitHub-repos rätt väg. Nackdelen är att "gratis" flyttar kostnaden till tid, proxies, omtagningar och fel. Bara proxykostnader kan dra iväg: , och .
När ett no-code-verktyg som Thunderbit är rätt val
Har du ett icke-tekniskt team? Är prio att snabbt få in data i Sheets, Airtable, Notion eller CSV? Då hoppar ett no-code-verktyg över hela Python/Docker/proxy-installationen. Med installerar du Chrome-tillägget, öppnar Google Maps, klickar på "AI Suggest Fields" och sedan "Scrape" — och . Molnläge för scraping hanterar automatiskt skydd mot botar och utan proxykonfiguration.
Det enkla beslutet: Behöver du färre än 500 företag och har budget → API. Behöver du tusentals och kan Python → GitHub-repo. Behöver du data snabbt utan teknisk installation → no-code-verktyg.
Friskhetsgranskningen 2026: vilka Google Maps Scraper GitHub-repos fungerar faktiskt i dag?
Det här är avsnittet jag önskar fanns när jag började researcha. De flesta artiklar om "bästa Google Maps scraper" listar bara repos med enradiga beskrivningar och starantal. Ingen säger om saken faktiskt returnerar data den här månaden.
Så ser du om ett Google Maps Scraper GitHub-repo fortfarande lever
Innan du klonar något, kör den här checklistan:
- Senaste kodpush: Leta efter ett riktigt commit under de senaste 3–6 månaderna (inte bara kommentarer i ärenden).
- Ärendestatus: Läs de tre senast uppdaterade ärendena. Handlar de om grundfel (tomma fält, selector-fel, webbläsarkrascher) eller funktionsönskemål?
- README-kvalitet: Dokumenterar det nuvarande webbläsarstacken, Docker-installationen och proxykonfigurationen?
- Varningsord i ärenden: Sök efter "search box," "reviews_count = 0," "driver," "Target page," "selector," "empty."
- Fork- och PR-aktivitet: Aktiva forks och sammanslagna PR:er tyder på en levande community.
Ingen nylig kodaktivitet, olösta grundbuggar i scraping och ingen vägledning för proxy eller webbläsarunderhåll? Då är det där repo:t förmodligen inte tillräckligt levande för affärsbruk — även om starantalet ser imponerande ut.
Topprepositorier för Google Maps Scraper på GitHub, granskade

Jag utvärderade de repos som hade flest stjärnor utifrån metoden ovan. Här är sammanfattningen, följt av individuella noteringar.
| Repo | Stjärnor | Senaste push | Fungerar 2026? | Hanterar UI-förändringar? | Proxy-stöd | Stack |
|---|---|---|---|---|---|---|
| gosom/google-maps-scraper | 3,7k | 2026-04-19 | ⚠️ Kärnextraktion lever; recensionsfält är instabila | Aktivt underhåll | Ja, tydligt | Go + Playwright |
| omkarcloud/google-maps-scraper | 2,6k | 2026-04-10 | ⚠️ Aktiv app, men krascher/supportproblem | Leverantörsunderhållen | Inte tydligt dokumenterat | Desktopapp / binär |
| gaspa93/googlemaps-scraper | 498 | 2026-03-26 | ⚠️ Snäv nisch för recensionsscraping | Begränsade bevis | Inget starkt proxy-upplägg | Python |
| conor-is-my-name/google-maps-scraper | 284 | 2026-04-14 | ⚠️ Lovande Docker-flöde, men mars-brist i selector | Viss evidens för fixar | Dockeriserad, proxy oklar | Python + Docker |
| Zubdata/Google-Maps-Scraper | 120 | 2025-01-19 | ❌ För många gamla problem med null-fält | Lite bevis | Inte framhävt | Python GUI |
| patxijuaristi/google_maps_scraper | 113 | 2025-02-24 | ❌ Låg signal, gammalt Chrome-driver-problem | Lite bevis | Inga starka bevis | Python |
gosom/google-maps-scraper
För närvarande det starkaste generella open source-alternativet i mängden. README:n är ovanligt välmogen: CLI, webbgränssnitt, REST API, Docker-instruktioner, proxykonfiguration, grid-/bounding-box-läge, e-postextraktion och flera exportmål. Den påstår sig ha och dokumenterar proxies uttryckligen eftersom "for larger scraping jobs, proxies help avoid rate limiting."
Nackdelen är inte att projektet är övergivet — det är att korrektheten glider i kantfälten. Nya ärenden från 2026 visar , och . Så det är trovärdigt för extraktion av företagslistningar, men skakigare för rik data om recensioner och öppettider tills fixar landar.
omkarcloud/google-maps-scraper
Mycket synligt tack vare stjärnantalet och sin långa närvaro, men det känns mindre som transparent OSS och mer som en paketerad extractor-produkt — supportkanaler, desktop-installationer, upsell för enrichment. En användare i april 2026 skrev att appen startade och sedan översvämmade terminalen med tills den låste sig. Ett annat öppet ärende klagar på att verktyget är Inte dött, men inte det renaste valet för läsare som vill ha granskningsbar OSS de själva kan patcha med förtroende.
gaspa93/googlemaps-scraper
Inte en generell scraper för leadgenerering via bulk-sökning. Det är en fokuserad som utgår från en specifik Google Maps POI-recensions-URL och hämtar senaste recensioner, med alternativ för metadata-scraping och sortering av recensioner. Den smalare inriktningen är faktiskt en styrka för vissa arbetsflöden — men den löser inte det huvudsakliga problem med upptäckt via sökningar som de flesta företagsanvändare tänker på.
conor-is-my-name/google-maps-scraper
Rätt instinkt för moderna operationsteam: Docker först-installation, JSON-API, affärsvänliga fält och synlighet i . Men mars-ärendet 2026 är ett perfekt exempel på varför den här kategorin är bräcklig: en användare uppdaterade containern och utdata sa att scrapen Det är ett fel i kärnflödet, inte ett kosmetiskt edge case.
Zubdata/Google-Maps-Scraper
På pappret är fältuppsättningen bred: e-post, recensioner, betyg, adress, webbplats, telefon, kategori, öppettider. I praktiken säger den publika ärendeytan något annat: användare rapporterar , och . Tillsammans med den äldre push-historiken är det svårt att rekommendera för användning 2026.
patxijuaristi/google_maps_scraper
Lätt att hitta i GitHubs sökresultat, men den starkaste offentliga signalen är ett snarare än aktivt underhåll. Den är med i artikeln mest som ett exempel på vad "ser levande ut i sökningen men är riskabelt i praktiken" betyder.
Steg för steg: Så sätter du upp en Google Maps Scraper från GitHub
Har du bestämt dig för att ett GitHub-repo är rätt väg? Här är hur uppsättningen faktiskt ser ut. Jag håller det här generellt snarare än repospecifikt — stegen är förvånansvärt lika mellan de aktiva alternativen.
Steg 1: Klona repot och installera beroenden
Den vanliga vägen:
git clonerepot- Skapa en Python virtual environment (eller hämta en Docker-image)
- Installera beroenden via
pip install -r requirements.txtellerdocker-compose up - Ibland installera en webbläsarruntime (Chromium för Playwright, ChromeDriver för Selenium)
Docker-först-repos som och minskar beroendebekymmer men eliminerar dem inte — du behöver fortfarande att Docker körs och tillräckligt med diskutrymme för webbläsaravbilder.
Steg 2: Konfigurera dina sökparametrar
De flesta generalist-scrapers vill ha:
- Sökord + plats (t.ex. "plumbers in Austin TX")
- Resultatgräns (hur många listningar som ska extraheras)
- Utdataformat (CSV, JSON, databas)
- Ibland geografiska bounding boxes eller radie för grid-baserad upptäckt
De starkare reposen exponerar detta som CLI-flaggor eller JSON-begärandetext. Äldre repos kan kräva att du redigerar en Python-fil direkt.
Steg 3: Sätt upp proxies (om det behövs)
Ska du göra mer än en liten testkörning? Då vill du ha proxies. och beskriver uttryckligen proxies som standardlösningen för större jobb. Utan dem kan du förvänta dig CAPTCHA eller IP-block efter några dussin förfrågningar.
Steg 4: Kör scrapen och exportera din data
Kör skriptet, se webbläsaren röra sig genom resultatkorten och vänta på CSV- eller JSON-utdata. Det lyckliga flödet tar minuter. Det olyckliga flödet — som är vanligare än någon gärna medger — innebär:
- Webbläsaren stängs oväntat
- Chrome driver-versionen matchar inte
- Selector-/search-box-fel
- Recensionsantal eller öppettider kommer tillbaka tomma
Alla fyra mönster förekommer i .
Steg 5: Hantera fel och sönderfall
När scrapen returnerar tomma resultat eller fel:
- Kontrollera repo:ts GitHub Issues för liknande rapporter
- Leta efter ändringar i Google Maps UI (nya selectors, annan sidstruktur)
- Uppdatera repot till senaste commit
- Om underhållaren inte har fixat det, kolla forks efter communitypatchar
- Fundera på om tiden du lägger på felsökning är värd det jämfört med att byta verktyg
Realistisk första uppsättningstid: För någon som är bekväm med terminaler men inte redan har en fungerande Playwright/Docker/proxy-installation, är 30–90 minuter till första lyckade scrape ett realistiskt spann. Inte fem minuter.
Så undviker du blockeringar och hastighetsbegränsningar när du skrapar Google Maps
Det finns ingen offentlig Google Maps-gräns som säger "du blockeras vid X förfrågningar." Google håller det medvetet otydligt. Vissa användare rapporterar CAPTCHA efter ungefär på serverbaserade Playwright-installationer. En annan användare påstod för en Maps-scraper byggd av ett företag. Trösklarna är varken höga eller låga. De är instabila och kontextberoende.
Här är en praktisk strategitabell:
| Strategi | Svårighetsgrad | Effektivitet | Kostnad |
|---|---|---|---|
| Slumpmässiga fördröjningar (2–5 s mellan förfrågningar) | Lätt | Medel | Gratis |
| Lägre samtidighet (färre parallella sessioner) | Lätt | Medel | Gratis |
| Rotation av residential proxies | Medel | Hög | $1–6/GB |
| Datacenter-proxies (för enklare mål) | Medel | Medel | $0.02–0.6/GB |
| Slumpning av headless browser-fingeravtryck | Svårt | Hög | Gratis |
| Webbläsarpersistens / uppvärmda sessioner | Medel | Medel | Gratis |
| Molnbaserad scraping (flytta problemet) | Lätt | Hög | Varierar |
Lägg in slumpmässiga fördröjningar mellan förfrågningar
Fasta intervall på 1 sekund är en varningssignal. Använd slumpmässig jitter — 2 till 5 sekunder mellan åtgärder, med ibland längre pauser. Det enklaste du kan göra, och det kostar inget.
Rotera proxies (residential vs. datacenter)
Residential proxies är mer effektiva eftersom de ser ut som riktiga användare, men de är dyrare. Aktuella priser: , , . Datacenter-proxies fungerar för lättare scraping men flaggas snabbare på Googles tjänster.
Slumpa webbläsarfingeravtryck
För headless browser-scrapers: rotera user agents, viewport-storlekar och andra signals för fingeravtryck. Standardkonfigurationer i Playwright/Puppeteer är lätta att upptäcka. Det här är svårare att implementera men gratis och mycket effektivt.
Använd molnbaserad scraping för att flytta problemet
Verktyg som hanterar automatiskt skydd mot botar, IP-rotation och hastighetsbegränsningar via molninfrastruktur för scraping. Thunderbit i molnläge — ingen proxyuppsättning eller fördröjningskonfiguration behövs. För team som inte vill bli deltidsingenjörer för anti-bot är det här den mest praktiska vägen.
Hur Googles trösklar för hastighetsbegränsning faktiskt ser ut
Tecken på att du blir hastighetsbegränsad:
- CAPTCHA som dyker upp mitt i scrapen
- Tomma resultat efter tidigare lyckade frågor
- Tillfälliga IP-blockeringar (vanligtvis 1–24 timmar)
- Sämre sidladdningar (långsammare, delvis innehåll)
Återhämtning: sluta skrapa, rotera IP-adresser, vänta 15–60 minuter och återuppta sedan med lägre samtidighet. Om du träffar gränser regelbundet behöver din setup proxies eller ett i grunden annat angreppssätt.
No-code-flykten: när ett Google Maps Scraper GitHub-repo inte är värt din tid
Cirka 90 % av artiklar om Google Maps-scraping utgår från att du kan Python. Men en stor del av målgruppen — byråägare, säljare, lokala SEO-team, forskare — behöver bara rader i ett kalkylblad. Inte ett webbläsarautomationsprojekt. Om det är du är det här avsnittet ärligt om kompromisserna.
Den verkliga kostnaden för "gratis" GitHub-scrapers
| Faktor | GitHub-repo-ansats | No-code-alternativ (t.ex. Thunderbit) |
|---|---|---|
| Installationstid | 30–90 min (Python/Docker/proxies) | ~2 minuter (webbläsartillägg) |
| Underhåll | Manuellt (du fixar sönderfall) | Automatiskt (leverantören underhåller) |
| Anpassning | Hög (full kodåtkomst) | Medel (AI-konfigurerade fält) |
| Kostnad | Gratis mjukvara, men tid + proxies | Gratis nivå finns, sedan kreditbaserat |
| Skala | Beror på din infrastruktur | Molnbaserad skalning |
"Gratis" GitHub-scrapers flyttar kostnaden till tid. Om du värderar din tid till $50 i timmen och lägger 2 timmar på uppsättning + 1 timme på felsökning + 30 minuter på proxykonfiguration, är det $175 innan du ens skrapat en enda listning. Lägg till proxykostnader och löpande underhåll när Google ändrar sitt UI, så börjar den "gratis" lösningen se dyr ut.
Hur Thunderbit förenklar Google Maps-scraping
Så här ser det faktiska arbetsflödet ut med :
- Installera
- Gå till Google Maps och kör din sökning
- Klicka på "AI Suggest Fields" — Thunderbits AI läser sidan och föreslår kolumner (företagsnamn, adress, telefon, betyg, webbplats osv.)
- Klicka på "Scrape" och datan struktureras automatiskt
- Använd subpage scraping för att besöka varje företags webbplats från de skrapade URL:erna och extrahera ytterligare kontaktuppgifter (e-post, telefonnummer) — automatiserar det som GitHub-repoanvändare gör manuellt
- Exportera till — ingen betalvägg på export
Ingen Python. Ingen Docker. Inga proxies. Inget underhåll. För sälj- och marknadsföringsteam som arbetar med leadgenerering eliminerar detta hela installationsbördan som GitHub-repos kräver.
Priskontext: Thunderbit använder en kreditmodell där . Gratisnivån täcker 6 sidor per månad, gratisperioden täcker 10 sidor och startplanen är .
Efter scrapen: städa upp och berika din Google Maps-data
De flesta guider slutar vid rå extraktion. Rådata är inte en leadlista. Forumanvändare rapporterar regelbundet och frågar "How do you handle duplicates with this setup?" Så här ser det ut efter scrapen.
Ta bort dubbletter
Dubbletter smyger sig in från överlappande paginering, upprepade sökningar över överlappande områden, grid-/bounding-box-strategier som täcker samma företag och företag med flera listningar.
Bästa ordningen för deduplicering:
- Matcha på place_id om din scraper exponerar det (mest tillförlitligt)
- Exakt match på normaliserat företagsnamn + adress
- Fuzzy matchning på namn + adress, bekräftad med telefon eller webbplats
Enkla Excel-/Sheets-formler (COUNTIF, Remove Duplicates) hanterar de flesta fall. För större dataset fungerar ett snabbt Python-dedupliceringsskript med pandas bra.
Normalisera telefonnummer och adresser
Skrapade telefonnummer kommer i alla tänkbara format: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. För CRM-import bör allt normaliseras till E.164-format — alltså + landskod + nationellt nummer, t.ex. +15551234567.
vid scraping — ett rengöringssteg mindre.
För adresser, standardisera till ett konsekvent format: gata, stad, delstat, postnummer. Ta bort extra blanksteg, rätta till inkonsekventa förkortningar (St vs Street) och validera mot en geokodningstjänst om noggrannhet är viktig.
Berika med e-post, webbplatser och sociala profiler
Google Maps-listningar innehåller nästan alltid en webbplats-URL. De innehåller nästan aldrig en e-postadress direkt. Det vinnande mönstret:
- Skrapa Maps för att upptäcka företag (namn, adress, telefon, webbplats-URL)
- Besök varje företags webbplats för att extrahera e-postadresser, sociala länkar och annan kontaktinfo
Det är här de bästa GitHub-reposen och no-code-verktygen möts:
- genom att besöka företagswebbplatser
- kan besöka varje företags webbplats från de skrapade URL:erna och extrahera e-postadresser och telefonnummer — allt läggs sedan till i din ursprungliga tabell
För GitHub-repaanvändare utan inbyggd enrichment betyder det att du behöver skriva en andra scraper eller manuellt besöka varje sajt. Thunderbit slår ihop båda stegen till ett enda arbetsflöde.
Exportera till ditt CRM eller dina arbetsflödesverktyg
De mest praktiska exportmålen:
- Google Sheets för samarbetsbaserad städning och delning
- Airtable för strukturerade databaser med filtrering och vyer
- Notion för lätta operationsdatabaser
- CSV/JSON för CRM-import eller vidare automatisering
Thunderbit stödjer . De flesta GitHub-repos exporterar bara till CSV eller JSON — du behöver hantera CRM-integrationen separat. Om du letar efter fler sätt att få in skrapad data i kalkylblad, kolla vår guide om .
Google Maps Scraper GitHub-repos: den fulla jämförelsen sida vid sida
Här är den bokmärkningsvärda sammanfattningstabellen som täcker alla alternativ:
| Verktyg / repo | Typ | Kostnadsmodell | Installationstid | Proxyhantering | Underhåll | Exportalternativ | Fungerar 2026? |
|---|---|---|---|---|---|---|---|
| Google Places API | Officiellt API | $7–32 / 1K anrop (Pro) | Låg | Inget behövs | Låg | JSON / appintegration | ✅ |
| gosom/google-maps-scraper | GitHub OSS | Gratis + proxies + tid | Medel | Ja, dokumenterat | Hög | CSV, JSON, DB, API | ⚠️ |
| omkarcloud/google-maps-scraper | GitHub-paketerad | Nästan gratis, produktifierad | Medel | Oklart | Medel-hög | Apputdata | ⚠️ |
| gaspa93/googlemaps-scraper | GitHub-recensionsscraper | Gratis + tid | Medel | Begränsat | Medel-hög | CSV | ⚠️ (nisch) |
| conor-is-my-name/google-maps-scraper | GitHub Docker API | Gratis + tid | Medel | Möjligt | Hög | JSON / Docker-tjänst | ⚠️ |
| Zubdata/Google-Maps-Scraper | GitHub GUI-app | Gratis + tid | Medel | Begränsat | Hög | Apputdata | ❌ |
| Thunderbit | No-code-tillägg | Krediter / rader | Låg | Abstraherad (moln) | Låg-medel | Sheets, Excel, Airtable, Notion, CSV, JSON | ✅ |
För mer kontext om valet mellan olika scrapingmetoder kan du också ha nytta av vår sammanställning av eller vår jämförelse av .
Juridiska frågor och villkorsöverväganden
Kort avsnitt, men viktigt.
Googles nuvarande Maps Platform-villkor är tydliga: kunder får inte inklusive att kopiera och spara företagsnamn, adresser eller användarrecensioner utanför tillåten användning av tjänsten. Googles tjänstespecifika villkor tillåter också endast begränsad cachning för vissa API:er, vanligtvis .
Den juridiska hierarkin är tydlig:
- API-användning har den tydligaste avtalsgrunden
- GitHub-scrapers verkar i ett mycket grumligare utrymme
- No-code-verktyg minskar den operativa bördan men tar inte bort dina egna efterlevnadsförpliktelser
Rådgör med din egen jurist för just ditt use case. För en djupare genomgång av det juridiska landskapet har vi separat behandlat .
Viktiga slutsatser: så väljer du rätt Google Maps Scraper-ansats 2026
Efter att ha grävt igenom repos, issues, forum och prissidor ser läget ut så här:
-
Kontrollera alltid repo-fräschör innan du lägger tid på installation. Starantal är inte en indikator på "fungerar i dag". Läs de tre senaste ärendena. Leta efter kodcommit under de senaste 3–6 månaderna.
-
Det bästa open source-alternativet just nu är gosom/google-maps-scraper — men även det visar färska fältregressioner från 2026. Behandla det som ett levande system som behöver övervakning, inte ett verktyg man bara ställer in och glömmer.
-
Google Places API är rätt svar för stabilitet och juridisk tydlighet — men det är begränsat (max 5 recensioner, pris per anrop) och löser inte massupptäckt särskilt bra.
-
För icke-tekniska team är no-code-verktyg som det praktiska alternativet. Tiden från installation till första data är minuter i stället för timmar, och du signar inte upp dig för att bli deltidsunderhållare av scrapers.
-
Rådata är bara halva jobbet. Lägg tid på deduplicering, normalisering av telefonnummer, berikning med e-post och export till CRM. Verktyg som hanterar de här stegen automatiskt (som Thunderbits subpage scraping och E.164-normalisering) sparar mer tid än de flesta tror.
-
"Gratis scraper" betyder i praktiken mjukvara med obetalt underhåll. Det är helt okej om du har kompetensen och gillar jobbet. Det är en dålig affär om du är säljare och bara behöver 500 tandläkarleads i Phoenix till fredag.
Om du vill utforska fler alternativ för att extrahera företagsdata, kolla våra guider om , och . Du kan också titta på guider på .
FAQ
Är det gratis att använda en Google Maps scraper från GitHub?
Mjukvaran är gratis. Arbetet är det inte. Du kommer att lägga 30–90 minuter på installation, löpande tid på att felsöka sönderfall och ofta $10–100+/månad i proxykostnader för allvarliga volymer. Om din tid har ett värde är "gratis" en felaktig beskrivning.
Behöver jag Python-kunskaper för att använda en Google Maps scraper från GitHub?
De flesta populära repos kräver grundläggande Python- och kommandoradskunskap. Docker-först-repos minskar bördan men tar inte bort den — du måste fortfarande felsöka containerproblem, konfigurera sökparametrar och hantera proxyuppsättning. För icke-tekniska användare erbjuder no-code-verktyg som ett alternativ med 2 klick utan att koda.
Hur ofta går Google Maps scraper GitHub-repos sönder?
Det finns inget fast schema, men aktuell ärendehistorik på GitHub visar att grundläggande sönderfall och fältregressioner dyker upp i en cykel på veckor till månader. Google uppdaterar sitt Maps-UI regelbundet, vilket kan slå ut selectors och parslogik över en natt. Aktiva repos fixar detta snabbt; övergivna repos förblir trasiga på obestämd tid.
Kan jag skrapa Google Maps-recensioner med en GitHub-scraper?
Vissa repos stöder full extraktion av recensioner (gaspa93/googlemaps-scraper är särskilt byggd för det), medan andra bara hämtar sammanfattningsdata som betyg och antal recensioner. Recensioner är också en av de första fältgrupperna som glider när Google ändrar sidbeteende — så även repos som stöder recensioner kan returnera ofullständiga data efter en UI-uppdatering.
Vad är det bästa alternativet om jag inte vill använda en GitHub-scraper?
Två huvudvägar: Google Places API för officiell, strukturerad åtkomst (med kostnads- och fältbegränsningar), eller ett no-code-verktyg som för snabb AI-driven extraktion utan kod. API:t är bäst för utvecklare som behöver säker efterlevnad. Thunderbit är bäst för affärsanvändare som snabbt behöver data i ett kalkylblad.
Läs mer