Na GitHubu je zhruba , které odpovídají hledání „google maps scraper“. Většina z nich je rozbitá.
To zní dramaticky, ale pokud jste někdy klonovali repozitáře, zápasili s Playwright závislostmi a koukali, jak vám scraper ve dvě ráno vrací prázdné CSV soubory, ten pocit znáte. Google Maps má globálně — je to jedna z nejbohatších databází místních firem na světě. Není divu, že z ní data chtějí tahat všichni od obchodních zástupců po majitele agentur. Problém je v tom, že Google své rozhraní Maps mění po týdnech až měsících a každá změna může tiše rozbít scraper, který jste právě hodinu nastavovali. Jak to v jednom issue na GitHubu v březnu 2026 popsal jeden uživatel: nástroj To není okrajový případ. To je selhání základního toku. Letos jsem tyto repozitáře sledoval velmi pečlivě a propast mezi tím, co „na GitHubu vypadá aktivně“, a tím, co dnes opravdu vrací data, je větší, než většina lidí čeká. Tento průvodce je můj upřímný pokus oddělit signál od šumu — ukázat, které repozitáře fungují, které se rozbíjejí, kdy GitHub úplně přeskočit a co dělat potom, co svá data nascrapujete.
Co je Google Maps Scraper na GitHubu (a proč ho lidé používají)?
Google Maps scraper na GitHubu je obvykle Python nebo Go skript (někdy zabalený v Dockeru), který otevře Google Maps v bezhlavém prohlížeči, spustí vyhledávání typu „zubaři v Chicagu“ a vytáhne zobrazené údaje o firmách — názvy, adresy, telefonní čísla, weby, hodnocení, počet recenzí, kategorie, otevírací dobu a někdy i souřadnice zeměpisné šířky a délky.
GitHub je pro tyto nástroje výchozí domov, protože kód je zdarma, open source a teoreticky upravitelný. Můžete repozitář forkout, upravit parametry vyhledávání, přidat vlastní logiku pro proxy a exportovat do jakéhokoli formátu potřebujete.

Typická datová pole, která lidé chtějí získat, vypadají takto:
| Pole | Jak běžné je napříč repozitáři |
|---|---|
| Název firmy | Téměř univerzální |
| Adresa | Téměř univerzální |
| Telefonní číslo | Téměř univerzální |
| URL webu | Téměř univerzální |
| Hvězdičkové hodnocení | Téměř univerzální |
| Počet recenzí | Velmi časté |
| Kategorie / typ | Časté |
| Otevírací doba | Časté |
| Zeměpisná šířka / délka | Časté u silnějších repozitářů |
| E-maily / odkazy na sociální sítě | Jen když scraper zároveň navštěvuje web firmy |
| Plný text recenzí | Časté ve specializovaných scrapers na recenze, méně spolehlivé při hromadném scrapingu |
Kdo je používá? Obchodní týmy, které tvoří seznamy leadů pro outbound. Realitní profesionálové mapující lokální trhy. E-commerce týmy dělající analýzu konkurence. Marketeři, kteří provádějí lokální SEO audity. Společný jmenovatel: všichni potřebují strukturovaná data o místních firmách a nechtějí je kopírovat z prohlížeče po jednom záznamu.
Proč obchodní a provozní týmy hledají repozitáře Google Maps Scraper na GitHubu
Google Maps je lákavý z jednoduchého důvodu: právě tam skutečně žijí informace o lokálních firmách. Ne v nějakém okrajovém katalogu. Ne za paywallem. Přímo ve výsledcích vyhledávání.
Obchodní hodnota se dělí do tří hlavních oblastí.
Generování leadů a prospecting
To je největší důvod. Zakladatel, který vytvořil Google Maps scraper pro freelancery a agentury, naprosto přímočaře: najít leady ve specifických městech a výklencích, sesbírat kontakty pro cold outreach a generovat CSV s názvem, adresou, telefonem, webem, hodnocením, počtem recenzí, kategorií, otevírací dobou, e-maily a odkazy na sociální sítě. Jeden z nejaktivnějších repozitářů (gosom/google-maps-scraper) uživatelům doslova říká, že mohou jeho agentovi zadat: To není hobby use case — to je obchodní pipeline.
Průzkum trhu a analýza konkurence
Provozní a strategické týmy používají nascrapovaná data z Maps ke spočítání konkurentů podle čtvrtí, analýze sentimentu recenzí a hledání mezer. Specialista na lokální SEO v jednom jediném oboru tím, že vytáhl veřejná data z Google Maps. Takový typ analýzy je při ručním postupu ve velkém měřítku prakticky nemožný.
Lokální SEO audity a tvorba katalogů
Markeťáci scrapují Google Maps kvůli auditu lokální viditelnosti, kontrole konzistence NAP (Name, Address, Phone) a tvorbě katalogových webů. Jeden uživatel do WordPressu přes WP All Import.
Matematika práce, která dělá scraping lákavým
Ruční sběr není zdarma jen proto, že probíhá v okně prohlížeče. Upwork uvádí administrativní virtuální asistenty pro zadávání dat na . Pokud člověk stráví 1 minutu na jednu firmu sběrem základních údajů, 1 000 firem zabere asi 16,7 hodiny — tedy zhruba $200–$334 na práci ještě před kontrolou kvality. Při 2 minutách na firmu stojí stejný seznam $400–$668. To je skutečné měřítko, proti kterému soutěží každý „bezplatný GitHub scraper“.
Google Places API vs. GitHub scrapers vs. no-code nástroje: rozhodovací strom pro rok 2026
Než cokoli naklonujete, vyberte si cestu. Záleží na objemu, rozpočtu, technických dovednostech i ochotě řešit údržbu.
| Kritérium | Google Places API | GitHub scraper | No-code nástroj (např. Thunderbit) |
|---|---|---|---|
| Cena za 1 000 dotazů | $7–32 (běžné Pro volání) | Zdarma software + náklady na proxy + čas | Free plán, pak kreditový model |
| Datová pole | Strukturovaná, omezená schématem API | Pružná, závisí na repozitáři | AI nastavení podle webu |
| Přístup k recenzím | Max. 5 recenzí na místo | Plné, pokud to scraper podporuje | Záleží na nástroji |
| Rate limit | Bezplatné limity na úrovni SKU, pak placené | Spravujete sami (závislé na proxy) | Spravuje poskytovatel |
| Právní jasnost | Výslovná licence | Šedá zóna (riziko z hlediska podmínek) | Poskytovatel řeší provozní compliance |
| Údržba | Spravuje Google | Spravujete vy | Spravuje poskytovatel |
| Složitost nastavení | API klíč + kód | Python + závislosti + proxy | Nainstalovat rozšíření, kliknout na scrapování |
Kdy dává smysl Google Places API
Pro menší až střední objemy dotazů, kde potřebujete oficiální licenci a předvídatelné účtování, je API jasná volba. Google a nahradil univerzální měsíční kredit bezplatnými limity na úrovni SKU: u mnoha Essentials SKU, 5 000 u Pro a 1 000 u Enterprise. Poté Text Search Pro stojí a Place Details Enterprise + Atmosphere $5 za 1 000.
Největší omezení: recenze. API vrací . Pokud potřebujete plný rozsah recenzí, API nestačí.
Kdy dává smysl GitHub scraper
Hromadné objevování podle klíčových slov a geografie, data viditelná v prohlížeči mimo pole API, plný text recenzí, vlastní parsovací logika — pokud potřebujete cokoli z toho a máte dovednosti v Pythonu/Dockeru na údržbu scrapera, repozitáře na GitHubu jsou správná volba. Kompromis je v tom, že „zdarma“ se účet přesune do času, proxy, retry mechanismů a rozbíjení. Jen náklady na proxy se rychle nasčítají: , a .
Kdy dává smysl no-code nástroj jako Thunderbit
Nemáte technický tým? Prioritou je dostat data rychle do Sheets, Airtable, Notion nebo CSV? No-code nástroj přeskočí celý setup Python/Docker/proxy. S nainstalujete rozšíření do Chromu, otevřete Google Maps, kliknete na „AI Suggest Fields“, pak na „Scrape“ — a . Cloudový režim scrapingu automaticky zvládá ochranu proti botům a bez konfigurace proxy.
Jednoduchý rozhodovací tok: Pokud potřebujete méně než 500 firem a máte rozpočet → API. Pokud potřebujete tisíce a umíte Python → GitHub repozitář. Pokud potřebujete data rychle bez technického setupu → no-code nástroj.
Audit čerstvosti pro rok 2026: které repozitáře Google Maps Scraper na GitHubu dnes skutečně fungují?
Tohle je sekce, kterou bych si přál mít, když jsem začínal s výzkumem. Většina článků o „nejlepším Google Maps scraperu“ jen vyjmenovává repozitáře s krátkým popisem a počtem hvězdiček. Žádný z nich vám neřekne, jestli ta věc opravdu tento měsíc vrací data.
Jak poznat, že je repozitář Google Maps Scraper na GitHubu stále živý
Než něco naklonujete, projděte si tento checklist:
- Nedávný push kódu: Hledejte skutečný commit za poslední 3–6 měsíců (ne jen komentáře k issue).
- Zdraví issues: Přečtěte si 3 naposledy aktualizované issues. Týkají se zásadních chyb (prázdná pole, chyby selektorů, pády prohlížeče), nebo jen přání na nové funkce?
- Kvalita README: Popisuje aktuální browser stack, Docker setup a konfiguraci proxy?
- Varovné fráze v issues: Hledejte „search box“, „reviews_count = 0“, „driver“, „Target page“, „selector“, „empty“.
- Aktivita forků a PR: Aktivní forky a mergnuté pull requesty naznačují živou komunitu.
Žádná nedávná aktivita v kódu, nevyřešené chyby v core scrapingu a žádné pokyny pro proxy nebo údržbu prohlížeče? Ten repozitář pravděpodobně není dost živý pro firemní použití — i když počet hvězdiček vypadá působivě.
Nejlépe hodnocené repozitáře Google Maps Scraper na GitHubu

Vyhodnotil jsem nejhvězdičkovanější repozitáře podle výše uvedené metodiky. Tady je souhrnná tabulka, následovaná detailními poznámkami.
| Repozitář | Hvězdy | Poslední push | Funguje v roce 2026? | Zvládá změny UI? | Podpora proxy | Stack |
|---|---|---|---|---|---|---|
| gosom/google-maps-scraper | 3,7k | 2026-04-19 | ⚠️ Jádrová extrakce žije; pole recenzí jsou nestabilní | Aktivní údržba | Ano, výslovně | Go + Playwright |
| omkarcloud/google-maps-scraper | 2,6k | 2026-04-10 | ⚠️ Aktivní aplikace, ale problémy s pády/podporou | Udržováno vendorově | Není jasně zdokumentováno | Desktop app / binárka |
| gaspa93/googlemaps-scraper | 498 | 2026-03-26 | ⚠️ Úzká specializace na scraping recenzí | Omezené důkazy | Bez silného příběhu okolo proxy | Python |
| conor-is-my-name/google-maps-scraper | 284 | 2026-04-14 | ⚠️ Slibný Docker tok, ale v březnu se rozbil selektor | Některé známky oprav | V Dockeru, proxy nejasné | Python + Docker |
| Zubdata/Google-Maps-Scraper | 120 | 2025-01-19 | ❌ Příliš mnoho problémů se zastaralými/null poli | Málo důkazů | Nezdůrazněno | Python GUI |
| patxijuaristi/google_maps_scraper | 113 | 2025-02-24 | ❌ Nízký signál, starý problém s Chrome driverem | Málo důkazů | Bez silných důkazů | Python |
gosom/google-maps-scraper
Momentálně nejsilnější open-source generalistická volba v tomto výběru. README je neobvykle zralé: CLI, webové UI, REST API, instrukce pro Docker, konfigurace proxy, grid/bounding-box režim, extrakce e-mailů a více exportních cílů. Tvrdí a výslovně dokumentuje proxy, protože „pro větší scrapingové úlohy pomáhají proxy omezit rate limiting“.
Nevýhoda není opuštění projektu — je to drift přesnosti u okrajových polí. Nedávné issues z roku 2026 ukazují, že , a . Takže je důvěryhodný pro extrakci firemních záznamů, ale méně spolehlivý pro bohatá data o recenzích a otevírací době, dokud nepřijdou opravy.
omkarcloud/google-maps-scraper
Vysoká viditelnost díky počtu hvězdiček a dlouhé historii, ale působí méně jako transparentní open source a více jako zabalený extraktorový produkt — support kanály, desktop instalátory, upsell na enrichment. Jeden uživatel v dubnu 2026 napsal, že aplikace se spustila a pak zaplavila terminál chybami , než zamrzla. Další otevřené issue si stěžuje, že nástroj je Není mrtvý, ale není to ani nejčistší odpověď pro čtenáře, kteří chtějí prohlédnutelný OSS a chtějí si ho sami s jistotou patchovat.
gaspa93/googlemaps-scraper
Není to obecný scraper pro hromadný lead-gen search. Je to zaměřený , který začíná u konkrétní URL recenzí na Google Maps POI a stahuje nedávné recenze s možností scrapování metadat a řazení recenzí. Ten užší rozsah je vlastně výhoda pro určité workflow — ale neřeší hlavní problém s objevováním dotazů, který mají na mysli většina byznys uživatelů.
conor-is-my-name/google-maps-scraper
Správné instinkty pro moderní provozní týmy: instalace nejdřív přes Docker, JSON API, firemní pole a viditelnost komunity v . Ale issue z března 2026 je perfektní ukázkou toho, proč je tahle kategorie křehká: uživatel aktualizoval kontejner a výstup hlásil, že scraper To je selhání základního toku, ne kosmetický okrajový problém.
Zubdata/Google-Maps-Scraper
Na papíře je sada polí široká: e-mail, recenze, hodnocení, adresa, web, telefon, kategorie, otevírací doba. V praxi ale veřejný povrch issues říká něco jiného: uživatelé hlásí , a . V kombinaci se starší historií pushů je těžké to pro použití v roce 2026 doporučit.
patxijuaristi/google_maps_scraper
V GitHub vyhledávání se najde snadno, ale nejsilnější veřejný signál je , ne aktivní údržba. V tomto článku je hlavně jako příklad toho, co znamená „ve vyhledávání to vypadá živě, ale v praxi je to risk“.
Krok za krokem: Jak nastavit Google Maps scraper z GitHubu
Rozhodli jste se, že GitHub repozitář je správná cesta? Tady je, jak nastavení skutečně vypadá. Nechávám to obecné, ne konkrétní pro jednotlivé repozitáře — kroky jsou napříč aktivními možnostmi překvapivě podobné.
Krok 1: Naklonujte repozitář a nainstalujte závislosti
Obvyklý postup:
git clonerepozitář- Vytvořit Python virtuální prostředí (nebo stáhnout Docker image)
- Nainstalovat závislosti přes
pip install -r requirements.txtnebodocker-compose up - Někdy nainstalovat runtime pro prohlížeč (Chromium pro Playwright, ChromeDriver pro Selenium)
Repozitáře orientované na Docker, jako a , snižují bolest kolem závislostí, ale zcela ji neodstraňují — pořád potřebujete běžící Docker a dostatek místa na disku pro image prohlížeče.
Krok 2: Nastavte parametry vyhledávání
Většina univerzálních scraperů chce:
- Klíčové slovo + lokaci (např. „instalatéři v Austinu TX“)
- Limit výsledků (kolik záznamů vytáhnout)
- Formát výstupu (CSV, JSON, databáze)
- Někdy geografické bounding boxy nebo radius pro gridové objevování
Silnější repozitáře to vystavují jako CLI přepínače nebo JSON request body. Starší repozitáře mohou vyžadovat přímou úpravu Python souboru.
Krok 3: Nastavte proxy (pokud jsou potřeba)
Na cokoli většího než malý testovací běh? Budete chtít proxy. a proxy výslovně popisuje jako standardní odpověď pro větší úlohy. Bez nich počítejte po několika desítkách požadavků s CAPTCHA nebo blokací IP.
Krok 4: Spusťte scraper a exportujte data
Spusťte skript, sledujte, jak prohlížeč prochází kartami výsledků, a počkejte na CSV nebo JSON výstup. Šťastná cesta trvá minuty. Nešťastná cesta — která je běžnější, než kdokoli přiznává — zahrnuje:
- Prohlížeč se neočekávaně zavře
- Nesoulad verze Chrome driveru
- Selhání selektoru / vyhledávacího pole
- Prázdné hodnoty u počtů recenzí nebo otevírací doby
Všechny čtyři vzory se objevují v .
Krok 5: Řešte chyby a rozbití
Když scraper vrátí prázdné výsledky nebo chyby:
- Zkontrolujte GitHub Issues repozitáře na podobné hlášení
- Podívejte se na změny UI Google Maps (nové selektory, jiná struktura stránky)
- Aktualizujte repozitář na nejnovější commit
- Pokud maintainer problém neopravili, zkontrolujte forky kvůli komunitním patchům
- Zvažte, jestli čas strávený debugováním stojí za to ve srovnání s přechodem na jiný nástroj
Reálný čas prvního nastavení: Pro někoho, kdo pohodlně pracuje v terminálu, ale ještě nemá funkční setup Playwright/Docker/proxy, je 30–90 minut realistický interval do prvního úspěšného scrapingu. Ne pět minut.
Jak se vyhnout banům a rate limitům při scrapování Google Maps
Neexistuje žádný veřejně zveřejněný limit Google Maps, který by říkal „na X požadavků budete zablokováni“. Google to schválně nechává nejasné. Někteří uživatelé hlásí CAPTCHA po zhruba na serverových Playwright sestavách. Jiný uživatel tvrdil, že z firemního scraperu pro Maps dostával . Prahy nejsou vysoké ani nízké. Jsou nestabilní a závislé na kontextu.
Tady je praktická tabulka strategií:
| Strategie | Obtížnost | Účinnost | Cena |
|---|---|---|---|
| Náhodné prodlevy (2–5 s mezi požadavky) | Snadná | Střední | Zdarma |
| Nižší souběžnost (méně paralelních relací) | Snadná | Střední | Zdarma |
| Rotace residential proxy | Střední | Vysoká | $1–6/GB |
| Datacentrové proxy (pro jednodušší cíle) | Střední | Střední | $0.02–0.6/GB |
| Randomizace otisků bezhlavého prohlížeče | Těžká | Vysoká | Zdarma |
| Perzistence prohlížeče / zahřáté relace | Střední | Střední | Zdarma |
| Cloudový scraping (přesun problému jinam) | Snadná | Vysoká | Liší se |
Přidejte náhodné prodlevy mezi požadavky
Pevné intervaly 1 sekunda jsou červená vlajka. Používejte náhodný jitter — 2 až 5 sekund mezi akcemi, občas s delší pauzou. Je to nejjednodušší věc, kterou můžete udělat, a nestojí nic.
Rotujte proxy (residential vs. datacentrové)
Residential proxy jsou účinnější, protože vypadají jako skuteční uživatelé, ale jsou dražší. Aktuální ceny: , , . Datacentrové proxy fungují pro méně náročný scraping, ale na Google službách bývají odhaleny rychleji.
Randomizujte otisky prohlížeče
U scraperů běžících v bezhlavém prohlížeči: rotujte user agenty, velikosti viewportu a další signály otisku. Výchozí konfigurace Playwright/Puppeteer jsou snadno detekovatelné. Je to složitější na implementaci, ale zdarma a velmi účinné.
Použijte cloudový scraping a přesuňte problém jinam
Nástroje jako zvládají ochranu proti botům, rotaci IP i rate limiting automaticky přes cloudovou scraping infrastrukturu. Thunderbit v cloudovém režimu — bez nastavování proxy a bez konfigurace prodlev. Pro týmy, které se nechtějí stát na částečný úvazek inženýry proti botům, je to nejpraktičtější cesta.
Jak ve skutečnosti vypadají limity Google rate limitů
Signály, že jste rate limitovaní:
- CAPTCHA se objevují uprostřed scrapingu
- Prázdné výsledky po předchozích úspěšných dotazech
- Dočasné blokace IP (obvykle 1–24 hodin)
- Zhoršené načítání stránek (pomalejší, částečný obsah)
Obnova: zastavte scraping, otočte IP, počkejte 15–60 minut a pak pokračujte s nižší souběžností. Pokud narážíte na limity pravidelně, váš setup potřebuje proxy nebo zásadně jiný přístup.
No-code úniková cesta: kdy GitHub repozitář Google Maps Scraper nestojí za váš čas
Asi 90 % článků o scrapování Google Maps předpokládá znalost Pythonu. Ale velká část publika — majitelé agentur, obchodní zástupci, lokální SEO týmy, výzkumníci — potřebuje jen řádky v tabulce. Ne projekt na automatizaci prohlížeče. Pokud jste to vy, tahle sekce je upřímná o kompromisních stránkách.
Skutečné náklady na „zdarma“ GitHub scrapery
| Faktor | Přístup přes GitHub repozitář | No-code alternativa (např. Thunderbit) |
|---|---|---|
| Čas na nastavení | 30–90 min (Python/Docker/proxy) | ~2 minuty (rozšíření do prohlížeče) |
| Údržba | Manuální (opravy děláte vy) | Automatická (spravuje poskytovatel) |
| Možnosti úprav | Vysoké (plný přístup ke kódu) | Střední (AI konfiguruje pole) |
| Cena | Zdarma software, ale čas + proxy | K dispozici free plán, pak kredity |
| Škálování | Závisí na vaší infrastruktuře | Cloudové škálování |
„Zdarma“ GitHub scrapery přesouvají účet do času. Pokud si svůj čas ceníte na $50/hodinu a strávíte 2 hodiny nastavováním + 1 hodinu řešením problémů + 30 minut konfigurací proxy, jste na $175 ještě předtím, než nascrapujete jediný záznam. Připočtěte náklady na proxy a průběžnou údržbu, jakmile Google změní UI, a „bezplatná“ varianta začne vypadat draze.
Jak Thunderbit zjednodušuje scraping Google Maps
Takhle vypadá skutečný workflow s :
- Nainstalujete
- Přejdete na Google Maps a spustíte vyhledávání
- Kliknete na „AI Suggest Fields“ — AI Thunderbitu přečte stránku a navrhne sloupce (název firmy, adresa, telefon, hodnocení, web atd.)
- Kliknete na „Scrape“ a data se automaticky strukturuje
- Použijete scraping podstránek, abyste navštívili web každé firmy z nascrapovaných URL a vytáhli další kontaktní informace (e-maily, telefonní čísla) — tedy automatizujete to, co uživatelé GitHub repozitářů dělají ručně
- Exportujete do — bez paywallu na exporty
Žádný Python. Žádný Docker. Žádné proxy. Žádná údržba. Pro obchodní a marketingové týmy, které dělají lead generation, to odstraňuje celou zátěž nastavení, kterou GitHub repozitáře vyžadují.
Cenový kontext: Thunderbit používá kreditový model, kde . Free plán pokrývá 6 stránek měsíčně, zkušební verze 10 stránek a starter plán stojí .
Po scrapingu: čištění a obohacení dat z Google Maps
Většina průvodců končí u samotné extrakce. Surová data nejsou seznam leadů. Uživatelé na fórech pravidelně hlásí a ptají se: „Jak v tomhle setupu řešíte duplicity?“ Tohle se děje po scrapingu.
Odstraňování duplicit
Duplicity vznikají kvůli překryvům při stránkování, opakovanému vyhledávání v překrývajících se oblastech, gridovým/bounding-box strategiím pokrývajícím stejné firmy a firmám s více záznamy.
Doporučené pořadí deduplikace:
- Shoda podle place_id, pokud ho scraper poskytuje (nejspolehlivější)
- Přesná shoda podle normalizovaného názvu firmy + adresy
- Fuzzy shoda podle názvu + adresy, potvrzená telefonem nebo webem
Na většinu případů stačí jednoduché vzorce v Excelu/Sheets (COUNTIF, Odebrat duplicity). Pro větší datasety funguje dobře krátký Python skript na deduplikaci s pandas.
Normalizace telefonních čísel a adres
Nascrapovaná telefonní čísla přicházejí v každém představitelném formátu: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. Pro import do CRM normalizujte všechno do formátu E.164 — tedy + kód země + národní číslo, například +15551234567.
při scrapingu — o jeden krok čištění méně.
Adresy standardizujte do konzistentního formátu: ulice, město, stát, PSČ. Odstraňte přebytečné mezery, opravte nekonzistence v zkratkách (St vs Street) a pokud záleží na přesnosti, ověřte je přes geokódovací službu.
Obohacení o e-maily, weby a profily na sociálních sítích
Záznamy v Google Maps téměř vždy obsahují URL webu. Téměř nikdy přímo neobsahují e-mailovou adresu. Vítězný postup:
- Nascrapujte Maps pro objevení firem (název, adresa, telefon, URL webu)
- Navštivte web každé firmy a vytáhněte e-mailové adresy, odkazy na sociální sítě a další kontaktní informace
Tady se nejlepší GitHub repozitáře a no-code nástroje sbíhají:
- návštěvou webů firem
- může navštívit web každé firmy z nascrapovaných URL a vytáhnout e-maily a telefonní čísla — vše připojené k původní tabulce
Pro uživatele GitHub repozitářů bez vestavěného enrichmentu to znamená napsat druhý scraper nebo ručně navštěvovat každý web. Thunderbit tyto dva kroky spojuje do jednoho workflow.
Export do CRM nebo workflow nástrojů
Nejpoužitelnější exportní cíle:
- Google Sheets pro společné čištění a sdílení
- Airtable pro strukturované databáze s filtrováním a zobrazeními
- Notion pro lehké provozní databáze
- CSV/JSON pro import do CRM nebo navazující automatizaci
Thunderbit podporuje . Většina GitHub repozitářů exportuje jen do CSV nebo JSON — integraci do CRM budete muset řešit zvlášť. Pokud hledáte další způsoby, jak dostat nascrapovaná data do tabulek, podívejte se na náš průvodce .
Repozitáře Google Maps Scraper na GitHubu: kompletní srovnání vedle sebe
Tady je přehledná tabulka, kterou si můžete uložit do záložek, a která pokrývá všechny přístupy:
| Nástroj / repozitář | Typ | Cenový model | Čas na nastavení | Správa proxy | Údržba | Možnosti exportu | Funguje v roce 2026? |
|---|---|---|---|---|---|---|---|
| Google Places API | Oficiální API | $7–32 / 1K volání (Pro) | Nízký | Není potřeba | Nízká | JSON / integrace do aplikací | ✅ |
| gosom/google-maps-scraper | GitHub OSS | Zdarma + proxy + čas | Střední | Ano, zdokumentováno | Vysoká | CSV, JSON, DB, API | ⚠️ |
| omkarcloud/google-maps-scraper | GitHub balený | Zdarma-ish, produktizované | Střední | Nejasné | Středně vysoká | Výstup aplikace | ⚠️ |
| gaspa93/googlemaps-scraper | GitHub scraper recenzí | Zdarma + čas | Střední | Omezená | Středně vysoká | CSV | ⚠️ (niche) |
| conor-is-my-name/google-maps-scraper | GitHub Docker API | Zdarma + čas | Střední | Možné | Vysoká | JSON / Docker služba | ⚠️ |
| Zubdata/Google-Maps-Scraper | GitHub GUI app | Zdarma + čas | Střední | Omezená | Vysoká | Výstup aplikace | ❌ |
| Thunderbit | No-code rozšíření | Kredity / řádky | Nízký | Abstrahováno (cloud) | Nízká až střední | Sheets, Excel, Airtable, Notion, CSV, JSON | ✅ |
Pro více kontextu k výběru mezi scraping přístupy se vám může hodit také náš přehled nebo srovnání .
Právní a podmínkové souvislosti
Krátká sekce, ale důležitá.
Aktuální podmínky Google Maps Platform jsou explicitní: zákazníci nesmí včetně kopírování a ukládání názvů firem, adres nebo uživatelských recenzí mimo povolené využití služby. Podmínky specifické pro služby Google navíc dovolují jen omezené cachování pro některá API, obvykle .
Právní hierarchie je jasná:
- Použití API má nejsilnější smluvní základ
- GitHub scrapery fungují v mnohem šedější oblasti
- No-code nástroje snižují provozní zátěž, ale neodstraňují vaše vlastní povinnosti v oblasti compliance
Pro konkrétní případ se poraďte s vlastním právníkem. Podrobněji jsme právní krajinu rozebrali samostatně v článku o .
Hlavní závěry: jak v roce 2026 vybrat správný přístup ke Google Maps scraperu
Po procházení repozitářů, issues, fór a ceníků je situace takováto:
-
Před investicí času do setupu vždy zkontrolujte čerstvost repozitáře. Počet hvězdiček není zárukou, že to dnes funguje. Přečtěte si tři nejnovější issues. Hledejte commity za posledních 3–6 měsíců.
-
Nejlepší současná open-source volba je gosom/google-maps-scraper — ale i ona vykazuje čerstvé regresy polí v roce 2026. Berte ji jako živý systém, který vyžaduje dohled, ne jako nástroj „nastav a zapomeň“.
-
Google Places API je správná odpověď pro stabilitu a právní jasnost — ale je omezené (max. 5 recenzí, ceny za volání) a neřeší dobře hromadné objevování.
-
Pro netechnické týmy jsou no-code nástroje jako praktickou alternativou. Propast mezi nastavením a prvními daty jsou minuty místo hodin a nepřihlašujete se k tomu, že se stanete správcem scrapera na částečný úvazek.
-
Surová data jsou jen polovina práce. Počítejte čas na deduplikaci, normalizaci telefonních čísel, obohacení o e-maily a export do CRM. Nástroje, které tyto kroky řeší automaticky (např. scrapování podstránek v Thunderbitu a normalizace E.164), ušetří víc času, než většina lidí čeká.
-
„Zdarma scraper“ je nejlepší chápat jako software s neplacenou údržbou. To je v pořádku, pokud máte dovednosti a práce vás baví. Je to ale špatná dohoda, pokud jste obchodník, který do pátku prostě potřebuje 500 leadů na zubaře ve Phoenixu.
Pokud chcete prozkoumat další možnosti extrakce firemních dat, podívejte se na naše návody na , a . Můžete se také podívat na tutoriály na .
Často kladené otázky
Je použití Google Maps scraperu z GitHubu zdarma?
Software je zdarma. Práce ne. Do nastavení investujete 30–90 minut, další čas padne na řešení rozbitých věcí a často také $10–100+/měsíc za proxy při serióznějším objemu. Pokud má váš čas hodnotu, „zdarma“ je nepřesné označení.
Potřebuji znalost Pythonu, abych použil Google Maps scraper z GitHubu?
Většina populárních repozitářů vyžaduje alespoň základní znalost Pythonu a práce v příkazové řádce. Repozitáře orientované na Docker snižují zátěž, ale neodstraňují ji — pořád musíte ladit problémy s kontejnerem, nastavovat parametry vyhledávání a řešit proxy. Pro netechnické uživatele nabízejí no-code nástroje jako alternativu na 2 kliknutí bez nutnosti kódovat.
Jak často se Google Maps scrapery na GitHubu rozbíjejí?
Neexistuje pevný harmonogram, ale aktuální historie GitHub issues ukazuje, že zásadní rozbití a regresy polí se objevují v cyklu týdnů až měsíců. Google pravidelně upravuje UI Maps, což může přes noc rozbít selektory i parsovací logiku. Aktivní repozitáře to opravují rychle; opuštěné repozitáře zůstávají rozbité natrvalo.
Můžu scrapovat recenze Google Maps pomocí GitHub scrapera?
Některé repozitáře podporují plnou extrakci recenzí (gaspa93/googlemaps-scraper je na to přímo zaměřený), zatímco jiné stahují jen souhrnná data, jako je hodnocení a počet recenzí. Recenze jsou navíc jednou z prvních oblastí, která se při změně chování stránky začne rozcházet — takže i repozitáře, které recenze podporují, mohou po aktualizaci UI vracet neúplná data.
Jaká je nejlepší alternativa, když nechci používat GitHub scraper?
Dvě hlavní cesty: Google Places API pro oficiální, strukturovaný přístup (s cenovými a datovými omezeními), nebo no-code nástroj jako pro rychlou extrakci s AI a bez programování. API je nejlepší pro vývojáře, kteří potřebují právní jistotu. Thunderbit je nejlepší pro byznys uživatele, kteří potřebují data rychle v tabulce.
Další informace