GitHub’da "google maps scraper" ile eşleşen yaklaşık var. Çoğu bozuk.
Bu biraz abartılı gelebilir; ama bir repoyu klonlamaya zaman ayırdıysan, Playwright bağımlılıklarıyla uğraştıysan ve scraper’ının gece 2’de boş CSV dosyaları döndürdüğünü izlediysen, o hissi zaten biliyorsundur. Google Maps, küresel ölçekte sahip — yani gezegendeki en zengin yerel işletme veritabanlarından biri. Bu yüzden satış temsilcilerinden ajans sahiplerine kadar herkes bu veriyi çekmek istiyor. Sorun şu ki Google, Maps arayüzünü haftalarla aylar arasında değişen aralıklarla güncelliyor ve her değişiklik, kurulumuna bir saat verdiğin scraper’ı sessizce bozabiliyor. Bir GitHub kullanıcısının Mart 2026’daki bir issue’da söylediği gibi: araç Bu, niş bir uç durum değil. Bu, temel akışın çökmesi. Bu yıl bu repoları yakından takip ettim ve "GitHub’da aktif görünüyor" ile "gerçekte bugün veri döndürüyor" arasındaki fark, çoğu kişinin sandığından çok daha büyük. Bu rehber, sinyali gürültüden ayırmak için dürüst bir deneme: hangi depolar çalışıyor, hangileri bozuluyor, ne zaman GitHub’dan tamamen vazgeçmek gerekir ve veriyi çektikten sonra ne yapılmalı.
GitHub'daki Google Maps Scraper Nedir ve Neden Kullanılır?
GitHub’daki bir Google Maps scraper genellikle Google Maps’i başsız bir tarayıcıda açan, "Chicago'daki diş hekimleri" gibi bir arama sorgusu çalıştıran ve görünen işletme kaydı verilerini çeken bir Python veya Go betiğidir (bazen Docker içinde paketlenir): adlar, adresler, telefon numaraları, web siteleri, puanlar, yorum sayıları, kategoriler, çalışma saatleri ve bazen enlem/boylam koordinatları.
GitHub bu araçların doğal durağıdır çünkü kod ücretsizdir, açık kaynaklıdır ve (teoride) özelleştirilebilir. Bir depoyu çatallayabilir, arama parametrelerini değiştirebilir, kendi proxy mantığını ekleyebilir ve istediğin formata dışa aktarabilirsin.

İnsanların çekmek istediği tipik veri alanları şunlardır:
| Alan | Depolar Arasında Ne Kadar Yaygın |
|---|---|
| İşletme adı | Neredeyse evrensel |
| Adres | Neredeyse evrensel |
| Telefon numarası | Neredeyse evrensel |
| Web sitesi URL'si | Neredeyse evrensel |
| Yıldız puanı | Neredeyse evrensel |
| Yorum sayısı | Çok yaygın |
| Kategori / tür | Yaygın |
| Açılış saatleri | Yaygın |
| Enlem / boylam | Güçlü depolarda yaygın |
| E-posta / sosyal bağlantılar | Ancak scraper işletme web sitesini de ziyaret ederse |
| Tam yorum metni | Özel yorum scraper'larında yaygın, toplu scraper'larda daha az güvenilir |
Bunları kim kullanıyor? Dışarıya müşteri listesi oluşturan satış ekipleri. Yerel pazarları haritalayan emlak profesyonelleri. Rekabet analizi yapan e-ticaret ekipleri. Yerel SEO denetimleri yürüten pazarlamacılar. Ortak nokta şu: Hepsinin yapılandırılmış yerel işletme verisine ihtiyacı var ve bunu tarayıcıdan tek tek kopyala-yapıştır yapmak istemiyorlar.
Satış ve Operasyon Ekipleri Neden Google Maps Scraper GitHub Depolarını Arıyor?
Google Maps’in cazibesi basit bir nedene dayanıyor: Yerel işletme bilgileri gerçekten orada. Niş bir dizinde değil. Bir ödeme duvarının arkasında değil. Doğrudan arama sonuçlarının içinde.
İş değeri üç ana başlıkta toplanıyor.
Lead Üretimi ve Prospeksiyon
Asıl büyük kullanım bu. Freelancer’lar ve ajanslar için bir Google Maps scraper geliştiren bir kurucu, iş akışını : belirli şehirlerde ve nişlerde lead bulmak, soğuk erişim için iletişim bilgilerini toplamak ve ad, adres, telefon, web sitesi, puanlar, yorum sayısı, kategori, saatler, e-postalar ve sosyal hesaplarla CSV dosyaları üretmek. En aktif depolardan biri olan gosom/google-maps-scraper, kullanıcıya kelimenin tam anlamıyla ajana söylüyor. Bu bir hobi senaryosu değil — bu bir satış hattı.
Pazar Araştırması ve Rekabet Analizi
Operasyon ve strateji ekipleri, rakip sayısını mahalle bazında görmek, yorum duyarlılığını analiz etmek ve boşlukları tespit etmek için çekilmiş Maps verisini kullanıyor. Yerel SEO uzmanı biri, Google Maps’ten kamuya açık verileri çekerek paylaştı. Bu tür bir analiz, ölçekli biçimde elle yapılması neredeyse imkânsızdır.
Yerel SEO Denetimleri ve Dizin Oluşturma
Pazarlamacılar, yerel arama görünürlüğünü denetlemek, NAP (İsim, Adres, Telefon) tutarlılığını kontrol etmek ve dizin web siteleri oluşturmak için Google Maps’i kazıyor. Bir kullanıcı, çekilmiş Google Maps verisi içeren tabloları anlattı.
Scraping'i Cazip Kılan İşçilik Hesabı
Manuel toplama, bir tarayıcı penceresi kullanıyor diye ücretsiz değildir. Upwork, idari veri girişi sanal asistanları için saatte fiyat gösteriyor. Bir insan temel bilgileri almak için işletme başına 1 dakika harcarsa, 1.000 işletme yaklaşık 16,7 saat tüketir — kalite kontrol öncesi kabaca $200–334 işçilik. İşletme başına 2 dakika olursa aynı liste $400–668’e çıkar. Her "ücretsiz GitHub scraper"ın rekabet ettiği gerçek kıstas budur.
Google Maps API vs. GitHub Scraper Depoları vs. Kodsuz Araçlar: 2026 Karar Ağacı
Bir şey klonlamadan önce yolunu seç. Hacim, bütçe, teknik beceri ve bakım toleransı burada belirleyici.
| Kriter | Google Places API | GitHub Scraper | Kodsuz Araç (ör. Thunderbit) |
|---|---|---|---|
| 1.000 sorgu başına maliyet | $7–32 (yaygın Pro çağrıları) | Ücretsiz yazılım + proxy maliyeti + zaman | Ücretsiz katman, sonra kredi bazlı |
| Veri alanları | Yapılandırılmış, API şemasıyla sınırlı | Esnek, depoya bağlı | Siteye göre AI ile yapılandırılır |
| Yorum erişimi | Yer başına en fazla 5 yorum | Tamamı (scraper destekliyorsa) | Araca bağlı |
| Hız sınırları | SKU başına ücretsiz üst sınır, sonra ücretli | Kullanıcı tarafından yönetilir (proxy'ye bağlı) | Sağlayıcı tarafından yönetilir |
| Yasal netlik | Açık lisans | Gri alan (ToS riski) | Sağlayıcı operasyonel uyumu yönetir |
| Bakım | Google tarafından yönetilir | Sen yönetirsin | Sağlayıcı yönetir |
| Kurulum karmaşıklığı | API anahtarı + kod | Python + bağımlılıklar + proxy'ler | Eklenti kur, scrape et |
Google Places API Ne Zaman Mantıklı?
Resmî lisans ve öngörülebilir faturalandırma gerektiren küçük-orta ölçekli sorgular için API açık ara en iyi seçenektir. Google’ın , evrensel aylık krediyi SKU bazlı ücretsiz üst sınırlara dönüştürdü: birçok Essentials SKU için , Pro için 5.000 ve Enterprise için 1.000. Sonrasında Text Search Pro ve Place Details Enterprise + Atmosphere 1.000 başına $5.
En büyük sınırlama yorumlar. API, yer başına döndürüyor. Tam yorum yüzeyine ihtiyacın varsa API yeterli olmaz.
GitHub Scraper Ne Zaman Mantıklı?
Anahtar kelime + coğrafya ile toplu keşif, API alanlarının ötesinde tarayıcıda görünen veriler, tam yorum metni, özel ayrıştırma mantığı — bunlardan herhangi birine ihtiyacın varsa ve scraper’ı sürdürmek için Python/Docker becerilerin varsa GitHub depoları doğru seçimdir. Takas şu: "ücretsiz" kelimesi faturayı zamana, proxy’lere, yeniden denemelere ve bozulmalara kaydırır. Sadece proxy maliyetleri bile hızla artabilir: başlıyor, , .
Thunderbit Gibi Kodsuz Bir Araç Ne Zaman Mantıklı?
Teknik olmayan bir ekip mi? Önceliğin veriyi hızlıca Sheets, Airtable, Notion veya CSV’ye almak mı? Kodsuz bir araç, tüm Python/Docker/proxy kurulumunu ortadan kaldırır. ile Chrome uzantısını kurarsın, Google Maps’i açarsın, "AI Suggest Fields"e tıklarsın, ardından "Scrape" dersin — ve . Bulut scraping modu anti-bot korumalarını otomatik olarak işler, .
Basit karar akışı: <500 işletmeye ihtiyacın varsa ve bütçen varsa → API. Binlerce işletmeye ihtiyacın varsa ve Python biliyorsan → GitHub deposu. Teknik kurulum olmadan hızlı veri istiyorsan → kodsuz araç.
2026 Tazelik Denetimi: Hangi Google Maps Scraper GitHub Depoları Bugün Gerçekten Çalışıyor?
Araştırmaya başlarken keşke olsaydı dediğim bölüm bu. Çoğu "en iyi Google Maps scraper" yazısı, depoları tek satırlık açıklamalar ve yıldız sayılarıyla listeliyor. Hiçbiri bu şeyin bu ay gerçekten veri döndürüp döndürmediğini söylemiyor.
Bir Google Maps Scraper GitHub Deposunun Hâlâ Yaşıyor Olduğu Nasıl Anlaşılır?
Bir şey klonlamadan önce şu kontrol listesini çalıştır:
- Yakın tarihli kod gönderimi: Son 3–6 ay içinde gerçek bir commit ara (sadece issue yorumları değil).
- Issue sağlığı: En son güncellenen 3 issue’yu oku. Bunlar temel hatalarla mı ilgili (boş alanlar, selector hataları, tarayıcı çöküşleri) yoksa özellik istekleriyle mi?
- README kalitesi: Mevcut tarayıcı yığınını, Docker kurulumunu ve proxy yapılandırmasını belgeliyor mu?
- Issue’lardaki kırmızı bayrak ifadeler: "search box," "reviews_count = 0," "driver," "Target page," "selector," "empty" terimlerini ara.
- Fork ve PR etkinliği: Aktif fork’lar ve birleştirilmiş PR’ler yaşayan bir topluluğa işaret eder.
Yakın tarihli kod etkinliği yoksa, çözülmemiş temel scraping hataları varsa ve proxy ya da tarayıcı bakımı konusunda rehberlik sunmuyorsa? Yıldız sayısı etkileyici görünse bile o depo iş kullanımı için muhtemelen yeterince canlı değildir.
İncelenen En İyi Google Maps Scraper GitHub Depoları

En çok yıldızlı depoları yukarıdaki metodolojiye göre değerlendirdim. İşte özet tablo, ardından tek tek notlar.
| Repo | Yıldız | Son Push | 2026'da Çalışıyor mu? | Arayüz Değişikliklerini Yönetiyor mu? | Proxy Desteği | Yığın |
|---|---|---|---|---|---|---|
| gosom/google-maps-scraper | 3.7k | 2026-04-19 | ⚠️ Çekirdek çıkarım canlı; yorum alanları kararsız | Aktif bakım | Evet, açıkça belirtilmiş | Go + Playwright |
| omkarcloud/google-maps-scraper | 2.6k | 2026-04-10 | ⚠️ Aktif uygulama, ama çökme/destek sorunları var | Sağlayıcı tarafından bakımlı | Net biçimde belgelenmemiş | Masaüstü uygulaması / binary |
| gaspa93/googlemaps-scraper | 498 | 2026-03-26 | ⚠️ Dar odaklı yorum-scraper nişi | Sınırlı kanıt | Güçlü bir proxy hikâyesi yok | Python |
| conor-is-my-name/google-maps-scraper | 284 | 2026-04-14 | ⚠️ Umut verici Docker akışı, ama Mart selector kırılması var | Bazı düzeltme kanıtları | Docker'lı, proxy belirsiz | Python + Docker |
| Zubdata/Google-Maps-Scraper | 120 | 2025-01-19 | ❌ Çok fazla eski/null alan sorunu | Az kanıt | Vurgulanmamış | Python GUI |
| patxijuaristi/google_maps_scraper | 113 | 2025-02-24 | ❌ Düşük sinyal, eski Chrome-driver sorunu | Az kanıt | Güçlü kanıt yok | Python |
gosom/google-maps-scraper
Şu anda en güçlü açık kaynak genel amaçlı seçenek. README alışılmadık derecede olgun: CLI, web arayüzü, REST API, Docker talimatları, proxy yapılandırması, grid/sınır kutusu modu, e-posta çıkarma ve birden çok dışa aktarma hedefi. sunduğunu iddia ediyor ve proxy’leri açıkça belgeliyor; çünkü "daha büyük scraping işleri için proxy'ler hız sınırlamasından kaçınmaya yardımcı olur."
Dezavantajı terk edilmiş olması değil — kenar alanlarda doğruluk kayması. 2026’daki son issue’lar , ve sorunlarını gösteriyor. Yani işletme kaydı çıkarımı için güvenilir, ama zengin yorum ve saat verileri için düzeltmeler gelene kadar daha kırılgan.
omkarcloud/google-maps-scraper
Yıldız sayısı ve uzun süredir varlığı sayesinde oldukça görünür, fakat şeffaf bir OSS’den çok paketlenmiş bir extractor ürünü gibi okunuyor — destek kanalları, masaüstü kurulumları, ek satışlarla veri zenginleştirme. Nisan 2026’daki bir kullanıcı, uygulamanın açıldıktan sonra terminali doldurduğunu ve ardından kilitlendiğini söyledi. Bir açık issue da aracın olduğunu söylüyor. Ölü değil, ama kendi başına yamalayabileceğiniz, incelenebilir OSS isteyen okuyucular için en temiz cevap da değil.
gaspa93/googlemaps-scraper
Genel bir toplu arama lead-gen scraper’ı değil. Belirli bir Google Maps POI yorum URL’sinden başlayıp son yorumları çeken, metadata scraping ve yorum sıralama seçenekleri olan odaklı bir . Bu daha dar kapsam, bazı iş akışları için aslında bir güç — ama çoğu iş kullanıcısının aklındaki ana sorgu keşfi problemini çözmüyor.
conor-is-my-name/google-maps-scraper
Modern operasyon ekipleri için doğru içgüdüler: Docker öncelikli kurulum, JSON API, iş dostu alanlar ve topluluğunda görünürlük. Ama Mart 2026 issue’su, bu kategorinin neden kırılgan olduğuna dair mükemmel bir örnek: bir kullanıcı konteyneri güncelledi ve çıktı scraper’ın söyledi. Bu, kozmetik bir uç durum değil, çekirdek akış hatası.
Zubdata/Google-Maps-Scraper
Kâğıt üzerinde alan seti geniş: e-posta, yorumlar, puanlar, adres, web sitesi, telefon, kategori, saatler. Pratikte kamuya açık issue yüzeyi farklı bir hikâye anlatıyor: kullanıcılar , ve bildiriyor. Daha eski push geçmişiyle birleşince, 2026 kullanımı için önermek zor.
patxijuaristi/google_maps_scraper
GitHub aramasında bulması kolay, ama en güçlü kamu sinyali aktif bakımdan çok . Bu makalede daha çok "aramada canlı görünüp pratikte riskli olan" şeyin nasıl göründüğüne örnek olarak yer alıyor.
Adım Adım: GitHub'dan Bir Google Maps Scraper Kurulumu
GitHub deposunun doğru yol olduğuna karar verdin mi? Kurulumun gerçekte nasıl göründüğü şöyle. Bunu depo bazlı değil genel anlatıyorum — aktif seçenekler arasında adımlar şaşırtıcı derecede benzer.
Adım 1: Depoyu Klonla ve Bağımlılıkları Kur
Yaygın yol:
- Depoyu
git cloneile indir - Bir Python sanal ortamı oluştur (veya Docker imajı çek)
- Bağımlılıkları
pip install -r requirements.txtveyadocker-compose upile kur - Bazen bir tarayıcı çalışma zamanı da kur (Playwright için Chromium, Selenium için ChromeDriver)
ve gibi Docker öncelikli depolar bağımlılık sorunlarını azaltır ama ortadan kaldırmaz — yine Docker’ın çalışıyor olması ve tarayıcı imajları için yeterli disk alanı gerekir.
Adım 2: Arama Parametrelerini Yapılandır
Çoğu genel amaçlı scraper şunları ister:
- Anahtar kelime + konum (ör. "Austin TX'de tesisatçılar")
- Sonuç sınırı (kaç kayıt çekileceği)
- Çıktı formatı (CSV, JSON, veritabanı)
- Bazen coğrafi sınır kutuları veya ızgara tabanlı keşif için yarıçap
Güçlü depolar bunları CLI bayrakları veya JSON istek gövdeleri olarak sunar. Eski depolar doğrudan bir Python dosyasını düzenlemeni isteyebilir.
Adım 3: Proxy'leri Kur (Gerekirse)
Küçük bir test çalışmasının ötesine geçiyorsan? Proxy’lere ihtiyacın olacak. ve proxy’leri daha büyük işler için standart çözüm olarak açıkça konumluyor. Onlar olmadan, birkaç düzine istekten sonra CAPTCHA veya IP engeli bekle.
Adım 4: Scraper'ı Çalıştır ve Verini Dışa Aktar
Betiği çalıştır, tarayıcının sonuç kartları arasında gezinmesini izle ve CSV ya da JSON çıktısını bekle. İyi senaryo dakikalar sürer. Kimsenin yüksek sesle söylemediği ama daha yaygın olan kötü senaryo ise şunları içerir:
- Tarayıcı beklenmedik şekilde kapanır
- Chrome driver sürüm uyuşmazlığı
- Selector / arama kutusu hatası
- Yorum sayıları veya saatler boş döner
Bu dört desen de mevcut .
Adım 5: Hataları ve Bozulmaları Ele Al
Scraper boş sonuç veya hata döndürdüğünde:
- Benzer raporlar için deponun GitHub Issues bölümünü kontrol et
- Google Maps arayüz değişikliklerine bak (yeni selector’lar, farklı sayfa yapısı)
- Depoyu en son commit’e güncelle
- Bakımcı düzeltmediyse, topluluk yamaları için fork’lara bak
- Hata ayıklamaya harcadığın zamanın, araç değiştirmeye kıyasla değip değmediğini düşün
Gerçekçi ilk kurulum süresi: Terminal kullanımına rahat olup zaten çalışan bir Playwright/Docker/proxy kurulumuna sahip olmayan biri için, ilk başarılı scrape’e kadar 30–90 dakika gerçekçi aralıktır. Beş dakika değil.
Google Maps Kazırken Yasaklardan ve Hız Sınırlarından Nasıl Kaçınılır?
Google’ın yayımlanmış bir eşik değeri yok; "X istekte engelleneceksiniz" demiyor. Google bunu bilerek belirsiz tutuyor. Bazı kullanıcılar sunucu tabanlı Playwright kurulumlarında yaklaşık sonrasında CAPTCHA ile karşılaştıklarını bildiriyor. Başka bir kullanıcı, şirket için geliştirilmiş bir Maps scraper’da tek IP’den aldığını iddia etti. Eşikler ne yüksek ne düşük. Kararsız ve bağlama bağlı.
İşte pratik bir strateji tablosu:
| Strateji | Zorluk | Etkililik | Maliyet |
|---|---|---|---|
| Rastgele gecikmeler (istekler arasında 2–5 sn) | Kolay | Orta | Ücretsiz |
| Daha düşük eşzamanlılık (daha az paralel oturum) | Kolay | Orta | Ücretsiz |
| Residential proxy rotasyonu | Orta | Yüksek | $1–6/GB |
| Datacenter proxy'leri (kolay hedefler için) | Orta | Orta | $0.02–0.6/GB |
| Başsız tarayıcı parmak izi rastgeleleştirme | Zor | Yüksek | Ücretsiz |
| Tarayıcı kalıcılığı / ısınmış oturumlar | Orta | Orta | Ücretsiz |
| Bulut tabanlı scraping (sorunu dışarı atma) | Kolay | Yüksek | Değişken |
İstekler Arasına Rastgele Gecikmeler Ekle
Sabit 1 saniyelik aralıklar kırmızı bayraktır. Rastgele jitter kullan — eylemler arasında 2 ila 5 saniye, arada daha uzun duraklamalar da olsun. Yapabileceğin en kolay şey budur ve maliyeti yoktur.
Proxy Döndür (Residential vs. Datacenter)
Residential proxy’ler gerçek kullanıcılara benzediği için daha etkilidir, ama daha pahalıdır. Güncel fiyatlar: , , . Datacenter proxy’leri daha hafif scraping için işe yarar ama Google özelliklerinde daha hızlı işaretlenir.
Tarayıcı Parmak İzini Rastgeleleştir
Başsız tarayıcı scraper’ları için kullanıcı ajanlarını, viewport boyutlarını ve diğer parmak izi sinyallerini döndür. Varsayılan Playwright/Puppeteer yapılandırmaları kolayca tespit edilir. Uygulaması daha zor ama ücretsiz ve oldukça etkilidir.
Sorunu Buluta Taşıyan Bulut Tabanlı Scraping Kullan
gibi araçlar anti-bot korumalarını, IP rotasyonunu ve hız sınırlamasını bulut scraping altyapısı üzerinden otomatik olarak yönetir. Thunderbit, bulut modunda — proxy kurulumu ya da gecikme yapılandırması gerekmez. Yarı zamanlı anti-bot mühendisi olmak istemeyen ekipler için bu en pratik yoldur.
Google'ın Hız Sınırı Eşikleri Gerçekte Nasıl Görünür?
Hız sınırlamasına takıldığını gösteren işaretler:
- Scraping ortasında CAPTCHAlar çıkması
- Daha önce başarılı olan sorgulardan sonra boş sonuç kümeleri
- Geçici IP engelleri (genellikle 1–24 saat)
- Bozulmuş sayfa yüklemeleri (daha yavaş, kısmi içerik)
Toparlanma: scraping’i durdur, IP’leri döndür, 15–60 dakika bekle, sonra daha düşük eşzamanlılıkla devam et. Düzenli olarak sınıra takılıyorsan, kurulumunun proxy’lere veya temelden farklı bir yaklaşıma ihtiyacı var demektir.
Kodsuz Kaçış Kapısı: Bir Google Maps Scraper GitHub Deposuna Değmez Olduğu Zaman
Google Maps scraping hakkında yazıların yaklaşık %90’ı Python bilgisi varsayar. Ama kitlenin büyük bir kısmı — ajans sahipleri, satış temsilcileri, yerel SEO ekipleri, araştırmacılar — bir elektronik tabloda satıra ihtiyaç duyar. Bir tarayıcı otomasyon projesine değil. Eğer sen de onlardansan, bu bölüm takasları dürüstçe anlatıyor.
"Ücretsiz" GitHub Scraper'ların Gerçek Maliyeti
| Faktör | GitHub Deposu Yaklaşımı | Kodsuz Alternatif (ör. Thunderbit) |
|---|---|---|
| Kurulum süresi | 30–90 dk (Python/Docker/proxy'ler) | ~2 dakika (tarayıcı uzantısı) |
| Bakım | Manuel (bozulmaları sen düzeltirsin) | Otomatik (sağlayıcı bakar) |
| Özelleştirme | Yüksek (tam kod erişimi) | Orta (AI ile yapılandırılan alanlar) |
| Maliyet | Ücretsiz yazılım, ama zaman + proxy'ler | Ücretsiz katman var, sonra kredi bazlı |
| Ölçek | Altyapına bağlı | Bulut tabanlı ölçekleme |
"Ücretsiz" GitHub scraper’lar faturayı zamana kaydırır. Zamanını saat başı $50 olarak değerlendiriyorsan ve kurulum için 2 saat + sorun giderme için 1 saat + proxy yapılandırması için 30 dakika harcıyorsan, tek bir kayıt bile kazımadan önce bu $175 eder. Google arayüzünü değiştirdiğinde proxy maliyetleri ve sürekli bakım eklenince, "ücretsiz" seçenek pahalı görünmeye başlar.
Thunderbit Google Maps Scraping'i Nasıl Basitleştirir?
ile gerçek iş akışı şöyle:
- kur
- Google Maps’e git ve aramanı yap
- **"AI Suggest Fields"**e tıkla — Thunderbit’in AI’ı sayfayı okur ve sütunlar önerir (işletme adı, adres, telefon, puan, web sitesi vb.)
- **"Scrape"**e tıkla ve veriler otomatik olarak yapılandırılsın
- Çekilen URL’lerden her işletmenin web sitesini ziyaret etmek ve ek iletişim bilgileri (e-postalar, telefon numaraları) çıkarmak için alt sayfa scraping kullan — GitHub depo kullanıcılarının manuel yaptığı şeyi otomatikleştirir
- — dışa aktarmada ödeme duvarı yok
Python yok. Docker yok. Proxy yok. Bakım yok. Lead üretimi yapan satış ve pazarlama kitlesi için bu, GitHub depolarının gerektirdiği tüm kurulum yükünü ortadan kaldırır.
Fiyatlandırma bağlamı: Thunderbit, modelini kullanır. Ücretsiz katman ayda 6 sayfayı kapsar, ücretsiz deneme 10 sayfayı kapsar ve başlangıç planı ayda 500 kredi için fiyatlandırılır.
Scrape Sonrası: Google Maps Verini Temizleme ve Zenginleştirme
Çoğu rehber ham çıkarımda durur. Ham veri bir lead listesi değildir. Forum kullanıcıları düzenli olarak bildiriminde bulunur ve "Bu kurulumda tekrarları nasıl yönetiyorsunuz?" diye sorar. Scrape’den sonra olanlar burada.
Sonuçları Tekilleştirme
Tekrarlar; sayfalama örtüşmesi, çakışan alanlarda yinelenen aramalar, aynı işletmeleri kapsayan grid/sınır kutusu stratejileri ve birden fazla kaydı olan işletmeler nedeniyle ortaya çıkar.
En iyi uygulama tekilleştirme sırası:
- Scraper’ın sunduğu durumda place_id ile eşleştir (en güvenilir)
- Normalize edilmiş işletme adı + adres için birebir eşleştirme yap
- Ad + adreste bulanık eşleştirme yap, telefon veya web sitesiyle doğrula
Basit Excel/Sheets formülleri (COUNTIF, Yinelenenleri Kaldır) çoğu vakayı çözer. Daha büyük veri kümeleri için pandas ile hızlı bir Python tekilleştirme betiği işe yarar.
Telefon Numaralarını ve Adresleri Normalize Etme
Çekilen telefon numaraları her formatta gelebilir: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. CRM aktarımı için her şeyi E.164 formatına standardize et — yani + ülke kodu + ulusal numara, örneğin +15551234567.
— bir temizlik adımı daha az.
Adresler için, sokak, şehir, eyalet, posta kodu şeklinde tutarlı bir format kullan. Fazla boşlukları kaldır, kısaltma tutarsızlıklarını düzelt (St vs Street) ve doğruluk önemliyse bir coğrafi kodlama servisiyle doğrula.
E-postalar, Web Siteleri ve Sosyal Profillerle Zenginleştirme
Google Maps kayıtları neredeyse her zaman bir web sitesi URL’si içerir. Doğrudan bir e-posta adresi ise neredeyse hiç içermez. Kazanan desen şu:
- İşletme keşfi için Maps’i kazı (ad, adres, telefon, web sitesi URL’si)
- E-posta adreslerini, sosyal bağlantıları ve diğer iletişim bilgilerini çıkarmak için her işletmenin web sitesini ziyaret et
En iyi GitHub depoları ile kodsuz araçların kesiştiği nokta tam da burası:
- , çekilen URL’lerden her işletmenin web sitesini ziyaret edip e-posta adreslerini ve telefon numaralarını çıkarabilir — hepsi ilk tablonuza eklenir
Yerleşik zenginleştirme özelliği olmayan GitHub depo kullanıcıları için bu, ikinci bir scraper yazmak ya da her siteyi elle ziyaret etmek anlamına gelir. Thunderbit bu iki adımı tek iş akışında birleştirir.
CRM'inize veya İş Akışı Araçlarınıza Dışa Aktarma
En pratik dışa aktarma hedefleri:
- İşbirlikçi temizlik ve paylaşım için Google Sheets
- Filtreleme ve görünümlerle yapılandırılmış veritabanları için Airtable
- Hafif operasyon veritabanları için Notion
- CRM aktarımı veya sonraki otomasyon için CSV/JSON
Thunderbit bunların hepsine . Çoğu GitHub deposu yalnızca CSV veya JSON dışa aktarır — CRM entegrasyonunu ayrıca halletmen gerekir. Çekilmiş veriyi elektronik tablolara aktarmanın başka yollarını arıyorsan, rehberimize göz at.
Google Maps Scraper GitHub Depoları: Tam Yan Yana Karşılaştırma
İşte tüm yaklaşımları kapsayan kaydetmelik özet tablo:
| Araç / Repo | Tür | Maliyet Modeli | Kurulum Süresi | Proxy Yönetimi | Bakım | Dışa Aktarma Seçenekleri | 2026'da Çalışıyor mu? |
|---|---|---|---|---|---|---|---|
| Google Places API | Resmî API | 1.000 çağrı başına $7–32 (Pro) | Düşük | Gerekmez | Düşük | JSON / uygulama entegrasyonu | ✅ |
| gosom/google-maps-scraper | GitHub OSS | Ücretsiz + proxy'ler + zaman | Orta | Evet, belgelenmiş | Yüksek | CSV, JSON, DB, API | ⚠️ |
| omkarcloud/google-maps-scraper | GitHub paketlenmiş | Ücretsizimsi, ürünleştirilmiş | Orta | Belirsiz | Orta-Yüksek | Uygulama çıktıları | ⚠️ |
| gaspa93/googlemaps-scraper | GitHub yorum scraper'ı | Ücretsiz + zaman | Orta | Sınırlı | Orta-Yüksek | CSV | ⚠️ (niş) |
| conor-is-my-name/google-maps-scraper | GitHub Docker API | Ücretsiz + zaman | Orta | Olası | Yüksek | JSON / Docker servisi | ⚠️ |
| Zubdata/Google-Maps-Scraper | GitHub GUI uygulaması | Ücretsiz + zaman | Orta | Sınırlı | Yüksek | Uygulama çıktısı | ❌ |
| Thunderbit | Kodsuz uzantı | Krediler / satırlar | Düşük | Soyutlanmış (bulut) | Düşük-Orta | Sheets, Excel, Airtable, Notion, CSV, JSON | ✅ |
Scraping yaklaşımları arasında seçim yapmaya dair daha fazla bağlam için, derlememize veya karşılaştırmamıza da göz atabilirsin.
Yasal ve Hizmet Şartları Konuları
Kısa bölüm, ama önemli.
Google’ın mevcut Maps Platform Şartları nettir: müşteriler, işletme adlarını, adresleri veya kullanıcı yorumlarını izin verilen hizmet kullanımı dışında kopyalamak ve kaydetmek de dahil olmak üzere Ayrıca Google’ın hizmete özgü şartları, belirli API’ler için yalnızca sınırlı önbelleğe alma izni verir; bu genellikle olur.
Yasal hiyerarşi açıktır:
- API kullanımı en net sözleşmesel zemine sahiptir
- GitHub scraper'ları çok daha bulanık bir alanda çalışır
- Kodsuz araçlar operasyonel yükü azaltır ama kendi uyum yükümlülüklerini ortadan kaldırmaz
Kendi özel kullanım senaryon için hukuk danışmanına başvur. Hukuki manzaraya daha derin bir bakış için, ayrıca ele aldık.
Temel Çıkarımlar: 2026'da Doğru Google Maps Scraper Yaklaşımını Seçmek
Depoları, issue’ları, forumları ve fiyatlandırma sayfalarını inceledikten sonra durum şöyle:
-
Kurulum için zaman harcamadan önce repo tazeliğini mutlaka kontrol et. Yıldız sayısı, "bugün çalışıyor" anlamına gelmez. Son üç issue’yu oku. Son 3–6 ayda kod commit’leri ara.
-
Şu anki en iyi açık kaynak seçenek gosom/google-maps-scraper — ama onda bile 2026’ya ait yeni alan gerilemeleri var. Onu ayarlayıp unutacağın bir araç değil, izlenmesi gereken yaşayan bir sistem gibi gör.
-
Google Places API, kararlılık ve yasal netlik için doğru cevap — ancak sınırlı (en fazla 5 yorum, çağrı başına fiyatlama) ve toplu keşfi iyi çözmüyor.
-
Teknik olmayan ekipler için Thunderbit gibi kodsuz araçlar pratik alternatiftir. Kurulumdan ilk veriye gidiş dakikalar sürer, saatler değil ve yarı zamanlı scraper bakımcısı olmaya kaydolmuyorsun.
-
Ham veri işin sadece yarısıdır. Tekilleştirme, telefon numarası normalleştirme, e-posta zenginleştirme ve CRM dışa aktarımı için zaman ayır. Bu adımları otomatik yöneten araçlar (Thunderbit’in alt sayfa scraping’i ve E.164 normalizasyonu gibi) çoğu insanın beklediğinden daha fazla zaman kazandırır.
-
"Ücretsiz scraper", en iyi şekilde ücretsiz olmayan bakımın eşlik ettiği yazılım olarak anlaşılmalıdır. Becerilerin varsa ve bu işi seviyorsan sorun yok. Ama cuma gününe kadar Phoenix’te 500 diş hekimi lead’ine ihtiyaç duyan bir satış temsilcisiysen kötü bir anlaşmadır.
İşletme verisi çıkarmak için daha fazla seçenek keşfetmek istiyorsan, , ve rehberlerimize göz at. Ayrıca üzerindeki eğitim videolarını da izleyebilirsin.
SSS
GitHub'dan bir Google Maps scraper kullanmak ücretsiz mi?
Yazılım ücretsizdir. İş ücretsiz değildir. Kurulum için 30–90 dakika, bozulmaları gidermek için sürekli zaman ve ciddi hacimlerde çoğu zaman proxy maliyeti olarak ayda $10–100+ yatırım yaparsın. Zamanının bir değeri varsa, "ücretsiz" kelimesi yanıltıcıdır.
GitHub'dan bir Google Maps scraper kullanmak için Python bilmem gerekir mi?
En popüler depolar temel Python ve komut satırı bilgisi gerektirir. Docker öncelikli depolar yükü azaltır ama ortadan kaldırmaz — yine de konteyner sorunlarını ayıklaman, arama parametrelerini yapılandırman ve proxy kurulumunu yapman gerekir. Teknik olmayan kullanıcılar için gibi kodsuz araçlar kodlama gerektirmeyen 2 tıklamalık bir alternatif sunar.
Google Maps scraper GitHub depoları ne sıklıkla bozulur?
Sabit bir takvim yok, ama mevcut GitHub issue geçmişi çekirdek kırılmaların ve alan gerilemelerinin haftalarla aylar arasında bir döngüde ortaya çıktığını gösteriyor. Google Maps arayüzünü düzenli olarak güncelliyor; bu da selector’ları ve ayrıştırma mantığını bir gecede bozabiliyor. Aktif repolar bunları hızlı düzeltir; terk edilmiş repolar ise sonsuza kadar bozuk kalır.
GitHub scraper ile Google Maps yorumlarını çekebilir miyim?
Bazı depolar tam yorum çıkarımını destekler (gaspa93/googlemaps-scraper bunun için özel olarak tasarlanmıştır), bazıları ise yalnızca puan ve yorum sayısı gibi özet verileri çeker. Yorumlar, Google sayfa davranışını değiştirdiğinde ilk bozulan alan gruplarından biridir — bu yüzden yorum desteği olan depolar bile bir UI güncellemesinden sonra eksik veri döndürebilir.
GitHub scraper kullanmak istemezsem en iyi alternatif nedir?
İki ana yol var: resmî, yapılandırılmış erişim için Google Places API (maliyet ve alan sınırlamalarıyla) veya kodlama gerektirmeyen hızlı, AI destekli çıkarım için gibi kodsuz bir araç. API, uyumluluk kesinliği isteyen geliştiriciler için en iyisidir. Thunderbit ise veriyi hızla bir elektronik tabloya almak isteyen iş kullanıcıları için en iyisidir.
Daha Fazla Bilgi