Google Maps Scraper na GitHubu: co funguje a co se v roce 2026 rozbíjí

Naposledy aktualizováno April 22, 2026

Na GitHubu je zhruba , které odpovídají hledání „google maps scraper“. Většina z nich je rozbitá.

To zní dramaticky, ale pokud jste někdy klonovali repozitáře, zápasili s Playwright závislostmi a koukali, jak vám scraper ve dvě ráno vrací prázdné CSV soubory, ten pocit znáte. Google Maps má globálně — je to jedna z nejbohatších databází místních firem na světě. Není divu, že z ní data chtějí tahat všichni od obchodních zástupců po majitele agentur. Problém je v tom, že Google své rozhraní Maps mění po týdnech až měsících a každá změna může tiše rozbít scraper, který jste právě hodinu nastavovali. Jak to v jednom issue na GitHubu v březnu 2026 popsal jeden uživatel: nástroj To není okrajový případ. To je selhání základního toku. Letos jsem tyto repozitáře sledoval velmi pečlivě a propast mezi tím, co „na GitHubu vypadá aktivně“, a tím, co dnes opravdu vrací data, je větší, než většina lidí čeká. Tento průvodce je můj upřímný pokus oddělit signál od šumu — ukázat, které repozitáře fungují, které se rozbíjejí, kdy GitHub úplně přeskočit a co dělat potom, co svá data nascrapujete.

Co je Google Maps Scraper na GitHubu (a proč ho lidé používají)?

Google Maps scraper na GitHubu je obvykle Python nebo Go skript (někdy zabalený v Dockeru), který otevře Google Maps v bezhlavém prohlížeči, spustí vyhledávání typu „zubaři v Chicagu“ a vytáhne zobrazené údaje o firmách — názvy, adresy, telefonní čísla, weby, hodnocení, počet recenzí, kategorie, otevírací dobu a někdy i souřadnice zeměpisné šířky a délky.

GitHub je pro tyto nástroje výchozí domov, protože kód je zdarma, open source a teoreticky upravitelný. Můžete repozitář forkout, upravit parametry vyhledávání, přidat vlastní logiku pro proxy a exportovat do jakéhokoli formátu potřebujete. Gemini_Generated_Image_i0rxr6i0rxr6i0rx_compressed.webp

Typická datová pole, která lidé chtějí získat, vypadají takto:

PoleJak běžné je napříč repozitáři
Název firmyTéměř univerzální
AdresaTéměř univerzální
Telefonní čísloTéměř univerzální
URL webuTéměř univerzální
Hvězdičkové hodnoceníTéměř univerzální
Počet recenzíVelmi časté
Kategorie / typČasté
Otevírací dobaČasté
Zeměpisná šířka / délkaČasté u silnějších repozitářů
E-maily / odkazy na sociální sítěJen když scraper zároveň navštěvuje web firmy
Plný text recenzíČasté ve specializovaných scrapers na recenze, méně spolehlivé při hromadném scrapingu

Kdo je používá? Obchodní týmy, které tvoří seznamy leadů pro outbound. Realitní profesionálové mapující lokální trhy. E-commerce týmy dělající analýzu konkurence. Marketeři, kteří provádějí lokální SEO audity. Společný jmenovatel: všichni potřebují strukturovaná data o místních firmách a nechtějí je kopírovat z prohlížeče po jednom záznamu.

Proč obchodní a provozní týmy hledají repozitáře Google Maps Scraper na GitHubu

Google Maps je lákavý z jednoduchého důvodu: právě tam skutečně žijí informace o lokálních firmách. Ne v nějakém okrajovém katalogu. Ne za paywallem. Přímo ve výsledcích vyhledávání.

Obchodní hodnota se dělí do tří hlavních oblastí.

Generování leadů a prospecting

To je největší důvod. Zakladatel, který vytvořil Google Maps scraper pro freelancery a agentury, naprosto přímočaře: najít leady ve specifických městech a výklencích, sesbírat kontakty pro cold outreach a generovat CSV s názvem, adresou, telefonem, webem, hodnocením, počtem recenzí, kategorií, otevírací dobou, e-maily a odkazy na sociální sítě. Jeden z nejaktivnějších repozitářů (gosom/google-maps-scraper) uživatelům doslova říká, že mohou jeho agentovi zadat: To není hobby use case — to je obchodní pipeline.

Průzkum trhu a analýza konkurence

Provozní a strategické týmy používají nascrapovaná data z Maps ke spočítání konkurentů podle čtvrtí, analýze sentimentu recenzí a hledání mezer. Specialista na lokální SEO v jednom jediném oboru tím, že vytáhl veřejná data z Google Maps. Takový typ analýzy je při ručním postupu ve velkém měřítku prakticky nemožný.

Lokální SEO audity a tvorba katalogů

Markeťáci scrapují Google Maps kvůli auditu lokální viditelnosti, kontrole konzistence NAP (Name, Address, Phone) a tvorbě katalogových webů. Jeden uživatel do WordPressu přes WP All Import.

Matematika práce, která dělá scraping lákavým

Ruční sběr není zdarma jen proto, že probíhá v okně prohlížeče. Upwork uvádí administrativní virtuální asistenty pro zadávání dat na . Pokud člověk stráví 1 minutu na jednu firmu sběrem základních údajů, 1 000 firem zabere asi 16,7 hodiny — tedy zhruba $200–$334 na práci ještě před kontrolou kvality. Při 2 minutách na firmu stojí stejný seznam $400–$668. To je skutečné měřítko, proti kterému soutěží každý „bezplatný GitHub scraper“.

Google Places API vs. GitHub scrapers vs. no-code nástroje: rozhodovací strom pro rok 2026

Než cokoli naklonujete, vyberte si cestu. Záleží na objemu, rozpočtu, technických dovednostech i ochotě řešit údržbu.

KritériumGoogle Places APIGitHub scraperNo-code nástroj (např. Thunderbit)
Cena za 1 000 dotazů$7–32 (běžné Pro volání)Zdarma software + náklady na proxy + časFree plán, pak kreditový model
Datová poleStrukturovaná, omezená schématem APIPružná, závisí na repozitářiAI nastavení podle webu
Přístup k recenzímMax. 5 recenzí na místoPlné, pokud to scraper podporujeZáleží na nástroji
Rate limitBezplatné limity na úrovni SKU, pak placenéSpravujete sami (závislé na proxy)Spravuje poskytovatel
Právní jasnostVýslovná licenceŠedá zóna (riziko z hlediska podmínek)Poskytovatel řeší provozní compliance
ÚdržbaSpravuje GoogleSpravujete vySpravuje poskytovatel
Složitost nastaveníAPI klíč + kódPython + závislosti + proxyNainstalovat rozšíření, kliknout na scrapování

Kdy dává smysl Google Places API

Pro menší až střední objemy dotazů, kde potřebujete oficiální licenci a předvídatelné účtování, je API jasná volba. Google a nahradil univerzální měsíční kredit bezplatnými limity na úrovni SKU: u mnoha Essentials SKU, 5 000 u Pro a 1 000 u Enterprise. Poté Text Search Pro stojí a Place Details Enterprise + Atmosphere $5 za 1 000.

Největší omezení: recenze. API vrací . Pokud potřebujete plný rozsah recenzí, API nestačí.

Kdy dává smysl GitHub scraper

Hromadné objevování podle klíčových slov a geografie, data viditelná v prohlížeči mimo pole API, plný text recenzí, vlastní parsovací logika — pokud potřebujete cokoli z toho a máte dovednosti v Pythonu/Dockeru na údržbu scrapera, repozitáře na GitHubu jsou správná volba. Kompromis je v tom, že „zdarma“ se účet přesune do času, proxy, retry mechanismů a rozbíjení. Jen náklady na proxy se rychle nasčítají: , a .

Kdy dává smysl no-code nástroj jako Thunderbit

Nemáte technický tým? Prioritou je dostat data rychle do Sheets, Airtable, Notion nebo CSV? No-code nástroj přeskočí celý setup Python/Docker/proxy. S nainstalujete rozšíření do Chromu, otevřete Google Maps, kliknete na „AI Suggest Fields“, pak na „Scrape“ — a . Cloudový režim scrapingu automaticky zvládá ochranu proti botům a bez konfigurace proxy.

Jednoduchý rozhodovací tok: Pokud potřebujete méně než 500 firem a máte rozpočet → API. Pokud potřebujete tisíce a umíte Python → GitHub repozitář. Pokud potřebujete data rychle bez technického setupu → no-code nástroj.

Audit čerstvosti pro rok 2026: které repozitáře Google Maps Scraper na GitHubu dnes skutečně fungují?

Tohle je sekce, kterou bych si přál mít, když jsem začínal s výzkumem. Většina článků o „nejlepším Google Maps scraperu“ jen vyjmenovává repozitáře s krátkým popisem a počtem hvězdiček. Žádný z nich vám neřekne, jestli ta věc opravdu tento měsíc vrací data.

Jak poznat, že je repozitář Google Maps Scraper na GitHubu stále živý

Než něco naklonujete, projděte si tento checklist:

  • Nedávný push kódu: Hledejte skutečný commit za poslední 3–6 měsíců (ne jen komentáře k issue).
  • Zdraví issues: Přečtěte si 3 naposledy aktualizované issues. Týkají se zásadních chyb (prázdná pole, chyby selektorů, pády prohlížeče), nebo jen přání na nové funkce?
  • Kvalita README: Popisuje aktuální browser stack, Docker setup a konfiguraci proxy?
  • Varovné fráze v issues: Hledejte „search box“, „reviews_count = 0“, „driver“, „Target page“, „selector“, „empty“.
  • Aktivita forků a PR: Aktivní forky a mergnuté pull requesty naznačují živou komunitu.

Žádná nedávná aktivita v kódu, nevyřešené chyby v core scrapingu a žádné pokyny pro proxy nebo údržbu prohlížeče? Ten repozitář pravděpodobně není dost živý pro firemní použití — i když počet hvězdiček vypadá působivě.

Nejlépe hodnocené repozitáře Google Maps Scraper na GitHubu

github-google-maps-scrapers-evaluation.webp

Vyhodnotil jsem nejhvězdičkovanější repozitáře podle výše uvedené metodiky. Tady je souhrnná tabulka, následovaná detailními poznámkami.

RepozitářHvězdyPoslední pushFunguje v roce 2026?Zvládá změny UI?Podpora proxyStack
gosom/google-maps-scraper3,7k2026-04-19⚠️ Jádrová extrakce žije; pole recenzí jsou nestabilníAktivní údržbaAno, výslovněGo + Playwright
omkarcloud/google-maps-scraper2,6k2026-04-10⚠️ Aktivní aplikace, ale problémy s pády/podporouUdržováno vendorověNení jasně zdokumentovánoDesktop app / binárka
gaspa93/googlemaps-scraper4982026-03-26⚠️ Úzká specializace na scraping recenzíOmezené důkazyBez silného příběhu okolo proxyPython
conor-is-my-name/google-maps-scraper2842026-04-14⚠️ Slibný Docker tok, ale v březnu se rozbil selektorNěkteré známky opravV Dockeru, proxy nejasnéPython + Docker
Zubdata/Google-Maps-Scraper1202025-01-19❌ Příliš mnoho problémů se zastaralými/null poliMálo důkazůNezdůrazněnoPython GUI
patxijuaristi/google_maps_scraper1132025-02-24❌ Nízký signál, starý problém s Chrome driveremMálo důkazůBez silných důkazůPython

gosom/google-maps-scraper

Momentálně nejsilnější open-source generalistická volba v tomto výběru. README je neobvykle zralé: CLI, webové UI, REST API, instrukce pro Docker, konfigurace proxy, grid/bounding-box režim, extrakce e-mailů a více exportních cílů. Tvrdí a výslovně dokumentuje proxy, protože „pro větší scrapingové úlohy pomáhají proxy omezit rate limiting“.

Nevýhoda není opuštění projektu — je to drift přesnosti u okrajových polí. Nedávné issues z roku 2026 ukazují, že , a . Takže je důvěryhodný pro extrakci firemních záznamů, ale méně spolehlivý pro bohatá data o recenzích a otevírací době, dokud nepřijdou opravy.

omkarcloud/google-maps-scraper

Vysoká viditelnost díky počtu hvězdiček a dlouhé historii, ale působí méně jako transparentní open source a více jako zabalený extraktorový produkt — support kanály, desktop instalátory, upsell na enrichment. Jeden uživatel v dubnu 2026 napsal, že aplikace se spustila a pak zaplavila terminál chybami , než zamrzla. Další otevřené issue si stěžuje, že nástroj je Není mrtvý, ale není to ani nejčistší odpověď pro čtenáře, kteří chtějí prohlédnutelný OSS a chtějí si ho sami s jistotou patchovat.

gaspa93/googlemaps-scraper

Není to obecný scraper pro hromadný lead-gen search. Je to zaměřený , který začíná u konkrétní URL recenzí na Google Maps POI a stahuje nedávné recenze s možností scrapování metadat a řazení recenzí. Ten užší rozsah je vlastně výhoda pro určité workflow — ale neřeší hlavní problém s objevováním dotazů, který mají na mysli většina byznys uživatelů.

conor-is-my-name/google-maps-scraper

Správné instinkty pro moderní provozní týmy: instalace nejdřív přes Docker, JSON API, firemní pole a viditelnost komunity v . Ale issue z března 2026 je perfektní ukázkou toho, proč je tahle kategorie křehká: uživatel aktualizoval kontejner a výstup hlásil, že scraper To je selhání základního toku, ne kosmetický okrajový problém.

Zubdata/Google-Maps-Scraper

Na papíře je sada polí široká: e-mail, recenze, hodnocení, adresa, web, telefon, kategorie, otevírací doba. V praxi ale veřejný povrch issues říká něco jiného: uživatelé hlásí , a . V kombinaci se starší historií pushů je těžké to pro použití v roce 2026 doporučit.

patxijuaristi/google_maps_scraper

V GitHub vyhledávání se najde snadno, ale nejsilnější veřejný signál je , ne aktivní údržba. V tomto článku je hlavně jako příklad toho, co znamená „ve vyhledávání to vypadá živě, ale v praxi je to risk“.

Krok za krokem: Jak nastavit Google Maps scraper z GitHubu

Rozhodli jste se, že GitHub repozitář je správná cesta? Tady je, jak nastavení skutečně vypadá. Nechávám to obecné, ne konkrétní pro jednotlivé repozitáře — kroky jsou napříč aktivními možnostmi překvapivě podobné.

Krok 1: Naklonujte repozitář a nainstalujte závislosti

Obvyklý postup:

  1. git clone repozitář
  2. Vytvořit Python virtuální prostředí (nebo stáhnout Docker image)
  3. Nainstalovat závislosti přes pip install -r requirements.txt nebo docker-compose up
  4. Někdy nainstalovat runtime pro prohlížeč (Chromium pro Playwright, ChromeDriver pro Selenium)

Repozitáře orientované na Docker, jako a , snižují bolest kolem závislostí, ale zcela ji neodstraňují — pořád potřebujete běžící Docker a dostatek místa na disku pro image prohlížeče.

Krok 2: Nastavte parametry vyhledávání

Většina univerzálních scraperů chce:

  • Klíčové slovo + lokaci (např. „instalatéři v Austinu TX“)
  • Limit výsledků (kolik záznamů vytáhnout)
  • Formát výstupu (CSV, JSON, databáze)
  • Někdy geografické bounding boxy nebo radius pro gridové objevování

Silnější repozitáře to vystavují jako CLI přepínače nebo JSON request body. Starší repozitáře mohou vyžadovat přímou úpravu Python souboru.

Krok 3: Nastavte proxy (pokud jsou potřeba)

Na cokoli většího než malý testovací běh? Budete chtít proxy. a proxy výslovně popisuje jako standardní odpověď pro větší úlohy. Bez nich počítejte po několika desítkách požadavků s CAPTCHA nebo blokací IP.

Krok 4: Spusťte scraper a exportujte data

Spusťte skript, sledujte, jak prohlížeč prochází kartami výsledků, a počkejte na CSV nebo JSON výstup. Šťastná cesta trvá minuty. Nešťastná cesta — která je běžnější, než kdokoli přiznává — zahrnuje:

  • Prohlížeč se neočekávaně zavře
  • Nesoulad verze Chrome driveru
  • Selhání selektoru / vyhledávacího pole
  • Prázdné hodnoty u počtů recenzí nebo otevírací doby

Všechny čtyři vzory se objevují v .

Krok 5: Řešte chyby a rozbití

Když scraper vrátí prázdné výsledky nebo chyby:

  1. Zkontrolujte GitHub Issues repozitáře na podobné hlášení
  2. Podívejte se na změny UI Google Maps (nové selektory, jiná struktura stránky)
  3. Aktualizujte repozitář na nejnovější commit
  4. Pokud maintainer problém neopravili, zkontrolujte forky kvůli komunitním patchům
  5. Zvažte, jestli čas strávený debugováním stojí za to ve srovnání s přechodem na jiný nástroj

Reálný čas prvního nastavení: Pro někoho, kdo pohodlně pracuje v terminálu, ale ještě nemá funkční setup Playwright/Docker/proxy, je 30–90 minut realistický interval do prvního úspěšného scrapingu. Ne pět minut.

Jak se vyhnout banům a rate limitům při scrapování Google Maps

Neexistuje žádný veřejně zveřejněný limit Google Maps, který by říkal „na X požadavků budete zablokováni“. Google to schválně nechává nejasné. Někteří uživatelé hlásí CAPTCHA po zhruba na serverových Playwright sestavách. Jiný uživatel tvrdil, že z firemního scraperu pro Maps dostával . Prahy nejsou vysoké ani nízké. Jsou nestabilní a závislé na kontextu.

Tady je praktická tabulka strategií:

StrategieObtížnostÚčinnostCena
Náhodné prodlevy (2–5 s mezi požadavky)SnadnáStředníZdarma
Nižší souběžnost (méně paralelních relací)SnadnáStředníZdarma
Rotace residential proxyStředníVysoká$1–6/GB
Datacentrové proxy (pro jednodušší cíle)StředníStřední$0.02–0.6/GB
Randomizace otisků bezhlavého prohlížečeTěžkáVysokáZdarma
Perzistence prohlížeče / zahřáté relaceStředníStředníZdarma
Cloudový scraping (přesun problému jinam)SnadnáVysokáLiší se

Přidejte náhodné prodlevy mezi požadavky

Pevné intervaly 1 sekunda jsou červená vlajka. Používejte náhodný jitter — 2 až 5 sekund mezi akcemi, občas s delší pauzou. Je to nejjednodušší věc, kterou můžete udělat, a nestojí nic.

Rotujte proxy (residential vs. datacentrové)

Residential proxy jsou účinnější, protože vypadají jako skuteční uživatelé, ale jsou dražší. Aktuální ceny: , , . Datacentrové proxy fungují pro méně náročný scraping, ale na Google službách bývají odhaleny rychleji.

Randomizujte otisky prohlížeče

U scraperů běžících v bezhlavém prohlížeči: rotujte user agenty, velikosti viewportu a další signály otisku. Výchozí konfigurace Playwright/Puppeteer jsou snadno detekovatelné. Je to složitější na implementaci, ale zdarma a velmi účinné.

Použijte cloudový scraping a přesuňte problém jinam

Nástroje jako zvládají ochranu proti botům, rotaci IP i rate limiting automaticky přes cloudovou scraping infrastrukturu. Thunderbit v cloudovém režimu — bez nastavování proxy a bez konfigurace prodlev. Pro týmy, které se nechtějí stát na částečný úvazek inženýry proti botům, je to nejpraktičtější cesta.

Jak ve skutečnosti vypadají limity Google rate limitů

Signály, že jste rate limitovaní:

  • CAPTCHA se objevují uprostřed scrapingu
  • Prázdné výsledky po předchozích úspěšných dotazech
  • Dočasné blokace IP (obvykle 1–24 hodin)
  • Zhoršené načítání stránek (pomalejší, částečný obsah)

Obnova: zastavte scraping, otočte IP, počkejte 15–60 minut a pak pokračujte s nižší souběžností. Pokud narážíte na limity pravidelně, váš setup potřebuje proxy nebo zásadně jiný přístup.

No-code úniková cesta: kdy GitHub repozitář Google Maps Scraper nestojí za váš čas

Asi 90 % článků o scrapování Google Maps předpokládá znalost Pythonu. Ale velká část publika — majitelé agentur, obchodní zástupci, lokální SEO týmy, výzkumníci — potřebuje jen řádky v tabulce. Ne projekt na automatizaci prohlížeče. Pokud jste to vy, tahle sekce je upřímná o kompromisních stránkách.

Skutečné náklady na „zdarma“ GitHub scrapery

FaktorPřístup přes GitHub repozitářNo-code alternativa (např. Thunderbit)
Čas na nastavení30–90 min (Python/Docker/proxy)~2 minuty (rozšíření do prohlížeče)
ÚdržbaManuální (opravy děláte vy)Automatická (spravuje poskytovatel)
Možnosti úpravVysoké (plný přístup ke kódu)Střední (AI konfiguruje pole)
CenaZdarma software, ale čas + proxyK dispozici free plán, pak kredity
ŠkálováníZávisí na vaší infrastruktuřeCloudové škálování

„Zdarma“ GitHub scrapery přesouvají účet do času. Pokud si svůj čas ceníte na $50/hodinu a strávíte 2 hodiny nastavováním + 1 hodinu řešením problémů + 30 minut konfigurací proxy, jste na $175 ještě předtím, než nascrapujete jediný záznam. Připočtěte náklady na proxy a průběžnou údržbu, jakmile Google změní UI, a „bezplatná“ varianta začne vypadat draze.

Jak Thunderbit zjednodušuje scraping Google Maps

Takhle vypadá skutečný workflow s :

  1. Nainstalujete
  2. Přejdete na Google Maps a spustíte vyhledávání
  3. Kliknete na „AI Suggest Fields“ — AI Thunderbitu přečte stránku a navrhne sloupce (název firmy, adresa, telefon, hodnocení, web atd.)
  4. Kliknete na „Scrape“ a data se automaticky strukturuje
  5. Použijete scraping podstránek, abyste navštívili web každé firmy z nascrapovaných URL a vytáhli další kontaktní informace (e-maily, telefonní čísla) — tedy automatizujete to, co uživatelé GitHub repozitářů dělají ručně
  6. Exportujete do — bez paywallu na exporty

Žádný Python. Žádný Docker. Žádné proxy. Žádná údržba. Pro obchodní a marketingové týmy, které dělají lead generation, to odstraňuje celou zátěž nastavení, kterou GitHub repozitáře vyžadují.

Cenový kontext: Thunderbit používá kreditový model, kde . Free plán pokrývá 6 stránek měsíčně, zkušební verze 10 stránek a starter plán stojí .

Po scrapingu: čištění a obohacení dat z Google Maps

Většina průvodců končí u samotné extrakce. Surová data nejsou seznam leadů. Uživatelé na fórech pravidelně hlásí a ptají se: „Jak v tomhle setupu řešíte duplicity?“ Tohle se děje po scrapingu.

Odstraňování duplicit

Duplicity vznikají kvůli překryvům při stránkování, opakovanému vyhledávání v překrývajících se oblastech, gridovým/bounding-box strategiím pokrývajícím stejné firmy a firmám s více záznamy.

Doporučené pořadí deduplikace:

  1. Shoda podle place_id, pokud ho scraper poskytuje (nejspolehlivější)
  2. Přesná shoda podle normalizovaného názvu firmy + adresy
  3. Fuzzy shoda podle názvu + adresy, potvrzená telefonem nebo webem

Na většinu případů stačí jednoduché vzorce v Excelu/Sheets (COUNTIF, Odebrat duplicity). Pro větší datasety funguje dobře krátký Python skript na deduplikaci s pandas.

Normalizace telefonních čísel a adres

Nascrapovaná telefonní čísla přicházejí v každém představitelném formátu: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. Pro import do CRM normalizujte všechno do formátu E.164 — tedy + kód země + národní číslo, například +15551234567.

při scrapingu — o jeden krok čištění méně.

Adresy standardizujte do konzistentního formátu: ulice, město, stát, PSČ. Odstraňte přebytečné mezery, opravte nekonzistence v zkratkách (St vs Street) a pokud záleží na přesnosti, ověřte je přes geokódovací službu.

Obohacení o e-maily, weby a profily na sociálních sítích

Záznamy v Google Maps téměř vždy obsahují URL webu. Téměř nikdy přímo neobsahují e-mailovou adresu. Vítězný postup:

  1. Nascrapujte Maps pro objevení firem (název, adresa, telefon, URL webu)
  2. Navštivte web každé firmy a vytáhněte e-mailové adresy, odkazy na sociální sítě a další kontaktní informace

Tady se nejlepší GitHub repozitáře a no-code nástroje sbíhají:

  • návštěvou webů firem
  • může navštívit web každé firmy z nascrapovaných URL a vytáhnout e-maily a telefonní čísla — vše připojené k původní tabulce

Pro uživatele GitHub repozitářů bez vestavěného enrichmentu to znamená napsat druhý scraper nebo ručně navštěvovat každý web. Thunderbit tyto dva kroky spojuje do jednoho workflow.

Export do CRM nebo workflow nástrojů

Nejpoužitelnější exportní cíle:

  • Google Sheets pro společné čištění a sdílení
  • Airtable pro strukturované databáze s filtrováním a zobrazeními
  • Notion pro lehké provozní databáze
  • CSV/JSON pro import do CRM nebo navazující automatizaci

Thunderbit podporuje . Většina GitHub repozitářů exportuje jen do CSV nebo JSON — integraci do CRM budete muset řešit zvlášť. Pokud hledáte další způsoby, jak dostat nascrapovaná data do tabulek, podívejte se na náš průvodce .

Repozitáře Google Maps Scraper na GitHubu: kompletní srovnání vedle sebe

Tady je přehledná tabulka, kterou si můžete uložit do záložek, a která pokrývá všechny přístupy:

Nástroj / repozitářTypCenový modelČas na nastaveníSpráva proxyÚdržbaMožnosti exportuFunguje v roce 2026?
Google Places APIOficiální API$7–32 / 1K volání (Pro)NízkýNení potřebaNízkáJSON / integrace do aplikací
gosom/google-maps-scraperGitHub OSSZdarma + proxy + časStředníAno, zdokumentovánoVysokáCSV, JSON, DB, API⚠️
omkarcloud/google-maps-scraperGitHub balenýZdarma-ish, produktizovanéStředníNejasnéStředně vysokáVýstup aplikace⚠️
gaspa93/googlemaps-scraperGitHub scraper recenzíZdarma + časStředníOmezenáStředně vysokáCSV⚠️ (niche)
conor-is-my-name/google-maps-scraperGitHub Docker APIZdarma + časStředníMožnéVysokáJSON / Docker služba⚠️
Zubdata/Google-Maps-ScraperGitHub GUI appZdarma + časStředníOmezenáVysokáVýstup aplikace
ThunderbitNo-code rozšířeníKredity / řádkyNízkýAbstrahováno (cloud)Nízká až středníSheets, Excel, Airtable, Notion, CSV, JSON

Pro více kontextu k výběru mezi scraping přístupy se vám může hodit také náš přehled nebo srovnání .

Právní a podmínkové souvislosti

Krátká sekce, ale důležitá.

Aktuální podmínky Google Maps Platform jsou explicitní: zákazníci nesmí včetně kopírování a ukládání názvů firem, adres nebo uživatelských recenzí mimo povolené využití služby. Podmínky specifické pro služby Google navíc dovolují jen omezené cachování pro některá API, obvykle .

Právní hierarchie je jasná:

  • Použití API má nejsilnější smluvní základ
  • GitHub scrapery fungují v mnohem šedější oblasti
  • No-code nástroje snižují provozní zátěž, ale neodstraňují vaše vlastní povinnosti v oblasti compliance

Pro konkrétní případ se poraďte s vlastním právníkem. Podrobněji jsme právní krajinu rozebrali samostatně v článku o .

Hlavní závěry: jak v roce 2026 vybrat správný přístup ke Google Maps scraperu

Po procházení repozitářů, issues, fór a ceníků je situace takováto:

  1. Před investicí času do setupu vždy zkontrolujte čerstvost repozitáře. Počet hvězdiček není zárukou, že to dnes funguje. Přečtěte si tři nejnovější issues. Hledejte commity za posledních 3–6 měsíců.

  2. Nejlepší současná open-source volba je gosom/google-maps-scraper — ale i ona vykazuje čerstvé regresy polí v roce 2026. Berte ji jako živý systém, který vyžaduje dohled, ne jako nástroj „nastav a zapomeň“.

  3. Google Places API je správná odpověď pro stabilitu a právní jasnost — ale je omezené (max. 5 recenzí, ceny za volání) a neřeší dobře hromadné objevování.

  4. Pro netechnické týmy jsou no-code nástroje jako praktickou alternativou. Propast mezi nastavením a prvními daty jsou minuty místo hodin a nepřihlašujete se k tomu, že se stanete správcem scrapera na částečný úvazek.

  5. Surová data jsou jen polovina práce. Počítejte čas na deduplikaci, normalizaci telefonních čísel, obohacení o e-maily a export do CRM. Nástroje, které tyto kroky řeší automaticky (např. scrapování podstránek v Thunderbitu a normalizace E.164), ušetří víc času, než většina lidí čeká.

  6. „Zdarma scraper“ je nejlepší chápat jako software s neplacenou údržbou. To je v pořádku, pokud máte dovednosti a práce vás baví. Je to ale špatná dohoda, pokud jste obchodník, který do pátku prostě potřebuje 500 leadů na zubaře ve Phoenixu.

Pokud chcete prozkoumat další možnosti extrakce firemních dat, podívejte se na naše návody na , a . Můžete se také podívat na tutoriály na .

Často kladené otázky

Je použití Google Maps scraperu z GitHubu zdarma?

Software je zdarma. Práce ne. Do nastavení investujete 30–90 minut, další čas padne na řešení rozbitých věcí a často také $10–100+/měsíc za proxy při serióznějším objemu. Pokud má váš čas hodnotu, „zdarma“ je nepřesné označení.

Potřebuji znalost Pythonu, abych použil Google Maps scraper z GitHubu?

Většina populárních repozitářů vyžaduje alespoň základní znalost Pythonu a práce v příkazové řádce. Repozitáře orientované na Docker snižují zátěž, ale neodstraňují ji — pořád musíte ladit problémy s kontejnerem, nastavovat parametry vyhledávání a řešit proxy. Pro netechnické uživatele nabízejí no-code nástroje jako alternativu na 2 kliknutí bez nutnosti kódovat.

Jak často se Google Maps scrapery na GitHubu rozbíjejí?

Neexistuje pevný harmonogram, ale aktuální historie GitHub issues ukazuje, že zásadní rozbití a regresy polí se objevují v cyklu týdnů až měsíců. Google pravidelně upravuje UI Maps, což může přes noc rozbít selektory i parsovací logiku. Aktivní repozitáře to opravují rychle; opuštěné repozitáře zůstávají rozbité natrvalo.

Můžu scrapovat recenze Google Maps pomocí GitHub scrapera?

Některé repozitáře podporují plnou extrakci recenzí (gaspa93/googlemaps-scraper je na to přímo zaměřený), zatímco jiné stahují jen souhrnná data, jako je hodnocení a počet recenzí. Recenze jsou navíc jednou z prvních oblastí, která se při změně chování stránky začne rozcházet — takže i repozitáře, které recenze podporují, mohou po aktualizaci UI vracet neúplná data.

Jaká je nejlepší alternativa, když nechci používat GitHub scraper?

Dvě hlavní cesty: Google Places API pro oficiální, strukturovaný přístup (s cenovými a datovými omezeními), nebo no-code nástroj jako pro rychlou extrakci s AI a bez programování. API je nejlepší pro vývojáře, kteří potřebují právní jistotu. Thunderbit je nejlepší pro byznys uživatele, kteří potřebují data rychle v tabulce.

Další informace

Obsah

Vyzkoušej Thunderbit

Sbírej leady i další data jen na 2 kliknutí. Poháněno AI.

Získat Thunderbit Je to zdarma
Extrahuj data pomocí AI
Snadno přenes data do Google Sheets, Airtable nebo Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week