Su GitHub ci sono circa che corrispondono a "google maps scraper". La maggior parte è rotta.
Sembra un’esagerazione, ma se hai passato del tempo a clonare repo, a lottare con le dipendenze di Playwright e a vedere il tuo scraper restituire CSV vuoti alle 2 di notte, sai già di che sensazione si tratta. Google Maps ha a livello globale: è uno dei database locali più ricchi al mondo. È normale che tutti, dai sales rep ai titolari di agenzie, vogliano estrarre quei dati. Il problema è che Google modifica l’interfaccia di Maps con una cadenza di settimane o mesi, e ogni cambiamento può mandare in tilt lo scraper che hai appena passato un’ora a configurare. Come ha scritto un utente GitHub in un issue di marzo 2026, lo strumento Non è un caso limite di nicchia. È il flusso principale che fallisce. Quest’anno ho seguito da vicino questi repository, e il divario tra "sembra attivo su GitHub" e "restituisce davvero dati oggi" è più ampio di quanto la maggior parte delle persone si aspetti. Questa guida è il mio tentativo onesto di distinguere il segnale dal rumore: quali repo funzionano, quali si rompono, quando saltare del tutto GitHub e cosa fare dopo aver estratto i tuoi dati.
Cos’è uno scraper di Google Maps su GitHub e perché le persone lo usano?
Uno scraper di Google Maps su GitHub è di solito uno script Python o Go (a volte impacchettato in Docker) che apre Google Maps in un browser headless, esegue una query di ricerca come "dentisti a Chicago" ed estrae i dati delle schede attività che compaiono: nomi, indirizzi, numeri di telefono, siti web, valutazioni, numero di recensioni, categorie, orari e, a volte, coordinate di latitudine/longitudine.
GitHub è la casa naturale di questi strumenti perché il codice è gratuito, open source e, in teoria, personalizzabile. Puoi fare il fork di un repository, modificare i parametri di ricerca, aggiungere la tua logica di proxy ed esportare nel formato che ti serve.

I campi dati tipici che le persone vogliono estrarre sono questi:
| Campo | Quanto è comune tra i repository |
|---|---|
| Nome attività | Quasi universale |
| Indirizzo | Quasi universale |
| Numero di telefono | Quasi universale |
| URL del sito web | Quasi universale |
| Valutazione a stelle | Quasi universale |
| Numero di recensioni | Molto comune |
| Categoria / tipo | Comune |
| Orari di apertura | Comune |
| Latitudine / longitudine | Comune nei repository più solidi |
| Email / link social | Solo quando lo scraper visita anche il sito web dell’attività |
| Testo completo delle recensioni | Comune negli scraper specializzati in recensioni, meno affidabile negli scraper in massa |
Chi li usa? Team sales che costruiscono liste di lead in outbound. Professionisti del real estate che mappano i mercati locali. Team ecommerce che fanno analisi dei competitor. Marketer che eseguono audit SEO locali. Il filo conduttore è uno: tutti hanno bisogno di dati locali strutturati e preferiscono non copiare e incollare da un browser una scheda alla volta.
Perché i team sales e operations cercano repository GitHub di Google Maps Scraper
Google Maps è attraente per una ragione semplice: è lì che vivono davvero le informazioni sulle attività locali. Non in un directory di nicchia. Non dietro un paywall. Proprio lì, nei risultati di ricerca.
Il valore per il business si divide in tre grandi aree.
Generazione di lead e prospecting
Questo è il motivo principale. Un founder che ha creato uno scraper di Google Maps per freelancer e agenzie ha senza giri di parole: trovare lead in città e nicchie specifiche, raccogliere i contatti per il cold outreach e generare CSV con nome, indirizzo, telefono, sito web, valutazione, numero di recensioni, categoria, orari, email e handle social. Uno dei repository più attivi (gosom/google-maps-scraper) dice letteralmente agli utenti che possono chiedere al suo agente: Non è un caso d’uso da hobbisti: è una pipeline commerciale.
Ricerca di mercato e analisi competitiva
I team operations e strategy usano i dati estratti da Maps per contare i competitor per quartiere, analizzare il sentiment delle recensioni e individuare lacune. Un professionista di local SEO ha in una sola nicchia estraendo dati pubblici da Google Maps. Un’analisi del genere è quasi impossibile da fare manualmente su larga scala.
Audit SEO locale e creazione di directory
I marketer estraggono dati da Google Maps per auditare la presenza nella ricerca locale, controllare la coerenza NAP (Nome, Indirizzo, Telefono) e costruire siti directory. Un utente ha in WordPress con WP All Import.
Il conto del lavoro che rende lo scraping così allettante
La raccolta manuale non è gratuita solo perché avviene in una finestra del browser. Upwork indica i VA per data entry amministrativo a un costo di . Se una persona impiega 1 minuto per attività per registrare le informazioni di base, 1.000 attività consumano circa 16,7 ore: all’incirca $200–$334 di manodopera prima del controllo qualità. A 2 minuti per attività, la stessa lista costa $400–$668. Questo è il vero riferimento con cui compete ogni "scraper GitHub gratuito".
Google Maps API vs. repository scraper GitHub vs. strumenti no-code: una decisione per il 2026
Scegli la tua strada prima di clonare qualsiasi cosa. Volume, budget, competenze tecniche e tolleranza alla manutenzione contano tutti.
| Criterio | Google Places API | Scraper GitHub | Strumento no-code (es. Thunderbit) |
|---|---|---|---|
| Costo per 1.000 query | $7–32 (chiamate Pro comuni) | Software gratuito + costi proxy + tempo | Piano gratuito, poi a crediti |
| Campi dati | Strutturati, limitati allo schema API | Flessibili, dipende dal repo | Configurati dall’AI per sito |
| Accesso alle recensioni | Massimo 5 recensioni per luogo | Completo (se lo scraper lo supporta) | Dipende dallo strumento |
| Limiti di velocità | Free cap per SKU, poi a pagamento | Gestiti da te (dipende dai proxy) | Gestiti dal provider |
| Chiarezza legale | Licenza esplicita | Zona grigia (rischio ToS) | Il provider gestisce l’operatività della conformità |
| Manutenzione | Gestita da Google | La gestisci tu | Gestita dal provider |
| Complessità di setup | Chiave API + codice | Python + dipendenze + proxy | Installa l’estensione, clicca e via |
Quando ha senso Google Places API
Per query di volume piccolo o medio, quando ti serve una licenza ufficiale e una fatturazione prevedibile, l’API è la scelta più ovvia. Il di Google ha sostituito il credito mensile universale con free cap per SKU: per molte SKU Essentials, 5.000 per Pro e 1.000 per Enterprise. Dopo quel limite, Text Search Pro costa e Place Details Enterprise + Atmosphere costa $5 per 1.000.
Il limite più grande: le recensioni. L’API restituisce un . Se ti serve l’intero set di recensioni, l’API non basta.
Quando ha senso uno scraper GitHub
Scoperta in massa per keyword + geografia, dati visibili nel browser oltre i campi dell’API, testo completo delle recensioni, logica di parsing personalizzata: se ti servono queste cose e hai le competenze Python/Docker per mantenere uno scraper, i repository GitHub sono la scelta giusta. Il compromesso è che il "gratuito" si sposta su tempo, proxy, retry e rotture. Solo i costi dei proxy possono pesare: i , i e i .
Quando ha senso uno strumento no-code come Thunderbit
Team non tecnico? Priorità: portare i dati in Sheets, Airtable, Notion o CSV velocemente? Uno strumento no-code salta del tutto il setup Python/Docker/proxy. Con , installi l’estensione Chrome, apri Google Maps, clicchi "AI Suggest Fields" e poi "Scrape" — e . La modalità di scraping cloud gestisce automaticamente le protezioni anti-bot, senza configurare proxy.
Flusso decisionale semplice: se ti servono meno di 500 attività e hai budget → API. Se ti servono migliaia di risultati e conosci Python → repository GitHub. Se ti servono dati subito, senza setup tecnico → strumento no-code.
Audit di freschezza 2026: quali repository GitHub di Google Maps Scraper funzionano davvero oggi?
Questa è la sezione che avrei voluto esistesse quando ho iniziato la ricerca. La maggior parte degli articoli "migliori Google Maps scraper" elenca solo repo con descrizioni di una riga e conteggio stelle. Nessuno ti dice se lo strumento restituisce davvero dati questo mese.
Come capire se un repository GitHub di Google Maps Scraper è ancora vivo
Prima di clonare qualsiasi cosa, usa questa checklist:
- Push recente di codice: cerca un commit reale negli ultimi 3–6 mesi (non solo commenti negli issue).
- Salute degli issue: leggi i 3 issue aggiornati più di recente. Parlano di errori core (campi vuoti, errori di selector, crash del browser) o di richieste di funzionalità?
- Qualità del README: documenta lo stack browser attuale, il setup Docker e la configurazione dei proxy?
- Frasi campanello d’allarme negli issue: cerca "search box", "reviews_count = 0", "driver", "Target page", "selector", "empty".
- Attività di fork e PR: fork attivi e PR mergiate suggeriscono una community viva.
Nessuna attività recente sul codice, bug core di scraping irrisolti e nessuna guida su proxy o manutenzione del browser? Quel repository probabilmente non è abbastanza vivo per un uso aziendale, anche se il numero di stelle sembra impressionante.
I principali repository GitHub di Google Maps Scraper recensiti

Ho valutato i repository con più stelle in base alla metodologia sopra. Ecco la tabella riassuntiva, seguita da note individuali.
| Repo | Stelle | Ultimo push | Funziona nel 2026? | Gestisce i cambiamenti dell’interfaccia? | Supporto proxy | Stack |
|---|---|---|---|---|---|---|
| gosom/google-maps-scraper | 3,7k | 2026-04-19 | ⚠️ L’estrazione principale è viva; i campi recensioni sono instabili | Manutenzione attiva | Sì, esplicito | Go + Playwright |
| omkarcloud/google-maps-scraper | 2,6k | 2026-04-10 | ⚠️ App attiva, ma con problemi di crash/supporto | Gestito dal vendor | Non documentato chiaramente | App desktop / binario |
| gaspa93/googlemaps-scraper | 498 | 2026-03-26 | ⚠️ Nicchia ristretta da scraper di recensioni | Poche evidenze | Nessuna forte storia di proxy | Python |
| conor-is-my-name/google-maps-scraper | 284 | 2026-04-14 | ⚠️ Flusso Docker promettente, ma rottura dei selector a marzo | Alcune prove di fix | Dockerizzato, proxy poco chiari | Python + Docker |
| Zubdata/Google-Maps-Scraper | 120 | 2025-01-19 | ❌ Troppi problemi di dati obsoleti/nulli | Poche evidenze | Non enfatizzato | GUI Python |
| patxijuaristi/google_maps_scraper | 113 | 2025-02-24 | ❌ Segnale debole, vecchio problema di Chrome driver | Poche evidenze | Nessuna forte evidenza | Python |
gosom/google-maps-scraper
Al momento è l’opzione open source generalista più solida. Il README è insolitamente maturo: CLI, interfaccia web, API REST, istruzioni Docker, configurazione proxy, modalità griglia/bounding box, estrazione email e più destinazioni di export. Dice di supportare e documenta esplicitamente i proxy perché "per lavori di scraping più grandi, i proxy aiutano a evitare il rate limiting."
Il problema non è l’abbandono, ma la deriva di accuratezza nei campi edge. Issue recenti del 2026 mostrano , e . Quindi è credibile per l’estrazione delle schede attività, ma più fragile per dati ricchi di recensioni e orari finché non arrivano i fix.
omkarcloud/google-maps-scraper
Molto visibile grazie al numero di stelle e alla lunga presenza, ma appare meno come OSS trasparente e più come un prodotto extractor impacchettato: canali di supporto, installer desktop, upsell per enrichment. Un utente nell’aprile 2026 ha detto che l’app si avviava e poi riempiva il terminale di errori finché non si bloccava. Un altro issue aperto lamenta che lo strumento è Non è morto, ma non è la risposta più pulita per chi vuole OSS ispezionabile e facilmente correggibile in autonomia.
gaspa93/googlemaps-scraper
Non è uno scraper generalista per lead generation in bulk. È uno focalizzato che parte da un URL specifico di recensioni di un POI su Google Maps e recupera le recensioni recenti, con opzioni per scraping dei metadati e ordinamento delle recensioni. Questo perimetro più ristretto è in realtà un vantaggio per alcuni workflow, ma non risolve il problema principale di discovery delle query che la maggior parte degli utenti business ha in mente.
conor-is-my-name/google-maps-scraper
Ha l’impostazione giusta per i team operations moderni: installazione prima di tutto con Docker, API JSON, campi orientati al business e visibilità nella community di . Ma l’issue di marzo 2026 è un esempio perfetto di quanto questa categoria sia fragile: un utente ha aggiornato il container e l’output diceva che lo scraper È un fallimento del flusso principale, non un caso marginale estetico.
Zubdata/Google-Maps-Scraper
Sulla carta, il set di campi è ampio: email, recensioni, valutazioni, indirizzo, sito web, telefono, categoria, orari. In pratica, la superficie pubblica degli issue racconta altro: gli utenti segnalano , e . Sommato alla storia di push più vecchia, è difficile consigliarlo per l’uso nel 2026.
patxijuaristi/google_maps_scraper
Facile da trovare nella ricerca GitHub, ma il segnale pubblico più forte è un piuttosto che una manutenzione attiva. In questo articolo compare soprattutto come esempio di cosa significa "sembra vivo nella ricerca, ma è rischioso nella pratica".
Passo dopo passo: configurare uno scraper di Google Maps da GitHub
Hai deciso che un repository GitHub è la strada giusta? Ecco come appare davvero il setup. Lo tengo generico, non specifico per repo, perché i passaggi sono sorprendentemente simili tra le opzioni attive.
Passo 1: clona il repository e installa le dipendenze
Il percorso comune:
git clonedel repository- Crea un ambiente virtuale Python (o scarica un’immagine Docker)
- Installa le dipendenze con
pip install -r requirements.txtoppuredocker-compose up - A volte installa anche un runtime browser (Chromium per Playwright, ChromeDriver per Selenium)
I repository orientati a Docker come e riducono i problemi di dipendenze ma non li eliminano: ti servirà comunque Docker in esecuzione e abbastanza spazio su disco per le immagini browser.
Passo 2: configura i parametri di ricerca
La maggior parte degli scraper generalisti vuole:
- Keyword + località (es. "idraulici ad Austin TX")
- Limite risultati (quante schede estrarre)
- Formato di output (CSV, JSON, database)
- A volte bounding box geografici o raggio per la scoperta a griglia
I repository migliori espongono questi parametri come flag CLI o come body JSON delle richieste. I repo più vecchi potrebbero richiedere di modificare direttamente un file Python.
Passo 3: configura i proxy, se servono
Qualsiasi cosa oltre un piccolo test? Ti serviranno proxy. e presenta esplicitamente i proxy come la risposta standard per i lavori più grandi. Senza di essi, aspettati CAPTCHA o blocchi IP dopo poche decine di richieste.
Passo 4: esegui lo scraper ed esporta i dati
Lancia lo script, guarda il browser attraversare le card dei risultati e aspetta l’output CSV o JSON. Il percorso felice richiede minuti. Quello infelice — che è più comune di quanto chiunque ammetta — comporta:
- il browser che si chiude all’improvviso
- mismatch di versione del Chrome driver
- errore di selector/search box
- conteggi recensioni o orari che tornano vuoti
Tutti e quattro i pattern compaiono in .
Passo 5: gestisci errori e rotture
Quando lo scraper restituisce risultati vuoti o errori:
- Controlla gli Issue GitHub del repository per segnalazioni simili
- Cerca cambiamenti nell’interfaccia di Google Maps (nuovi selector, struttura pagina diversa)
- Aggiorna il repository all’ultimo commit
- Se il maintainer non l’ha sistemato, controlla i fork per patch della community
- Valuta se il tempo speso a fare debug vale più del cambio di strumento
Tempo realistico di setup alla prima volta: per chi è a proprio agio con il terminale ma non ha già un setup funzionante di Playwright/Docker/proxy, 30–90 minuti per il primo scraping riuscito è l’intervallo realistico. Non cinque minuti.
Come evitare ban e rate limit quando fai scraping di Google Maps
Non esiste una soglia pubblicata di Google Maps che dica "verrai bloccato a X richieste". Google mantiene volutamente il sistema poco trasparente. Alcuni utenti riportano CAPTCHA dopo circa su setup Playwright server-based. Un altro utente ha dichiarato per uno scraper Maps costruito in azienda. Le soglie non sono né alte né basse. Sono instabili e dipendenti dal contesto.
Ecco una tabella di strategia pratica:
| Strategia | Difficoltà | Efficacia | Costo |
|---|---|---|---|
| Ritardi casuali (2–5s tra le richieste) | Facile | Media | Gratis |
| Concorrenza più bassa (meno sessioni parallele) | Facile | Media | Gratis |
| Rotazione di proxy residential | Media | Alta | $1–6/GB |
| Proxy datacenter (per target facili) | Media | Media | $0,02–0,6/GB |
| Randomizzazione del fingerprint del browser headless | Difficile | Alta | Gratis |
| Persistenza del browser / sessioni riscaldate | Media | Media | Gratis |
| Scraping basato su cloud (scarica il problema) | Facile | Alta | Variabile |
Aggiungi ritardi casuali tra le richieste
Intervalli fissi di 1 secondo sono un campanello d’allarme. Usa jitter casuale: 2–5 secondi tra le azioni, con pause più lunghe ogni tanto. È la cosa più semplice che puoi fare, e non costa nulla.
Ruota i proxy (residential vs datacenter)
I proxy residential sono più efficaci perché sembrano utenti reali, ma costano di più. Prezzi attuali: , , . I proxy datacenter funzionano per scraping leggeri, ma vengono segnalati più rapidamente sui prodotti Google.
Randomizza i fingerprint del browser
Per gli scraper con browser headless: ruota user agent, dimensioni viewport e altri segnali di fingerprint. Le configurazioni predefinite di Playwright/Puppeteer sono facilmente rilevabili. È più difficile da implementare, ma è gratuito e molto efficace.
Usa lo scraping cloud per scaricare il problema
Strumenti come gestiscono in automatico le protezioni anti-bot, la rotazione IP e il rate limiting attraverso un’infrastruttura di scraping cloud. Thunderbit in modalità cloud, senza bisogno di configurare proxy o ritardi. Per i team che non vogliono diventare ingegneri anti-bot part-time, questa è la strada più pratica.
Come appaiono davvero i limiti di rate di Google
Segnali che stai subendo rate limiting:
- CAPTCHA che compaiono a metà scraping
- Set di risultati vuoti dopo query precedentemente riuscite
- Blocchi IP temporanei (di solito 1–24 ore)
- Caricamenti della pagina degradati (più lenti, contenuto parziale)
Recupero: smetti di fare scraping, ruota gli IP, aspetta 15–60 minuti e poi riprendi con una concorrenza più bassa. Se raggiungi i limiti regolarmente, il tuo setup ha bisogno di proxy o di un approccio fondamentalmente diverso.
La via d’uscita no-code: quando un repository GitHub di Google Maps Scraper non vale il tuo tempo
Circa il 90% degli articoli sullo scraping di Google Maps dà per scontata la conoscenza di Python. Ma una grande fetta del pubblico — titolari di agenzie, sales rep, team SEO locale, ricercatori — ha solo bisogno di righe in un foglio di calcolo. Non di un progetto di automazione browser. Se sei tu, questa sezione è onesta sui compromessi.
Il costo reale degli scraper GitHub "gratuiti"
| Fattore | Approccio repository GitHub | Alternativa no-code (es. Thunderbit) | |---|---|---|---| | Tempo di setup | 30–90 min (Python/Docker/proxy) | ~2 minuti (estensione browser) | | Manutenzione | Manuale (sistemi tu le rotture) | Automatica (il provider mantiene) | | Personalizzazione | Alta (accesso completo al codice) | Moderata (campi configurati dall’AI) | | Costo | Software gratuito, ma tempo + proxy | Piano gratuito disponibile, poi a crediti | | Scala | Dipende dalla tua infrastruttura | Scaling basato su cloud |
Gli scraper GitHub "gratuiti" spostano la spesa sul tempo. Se valuti il tuo tempo a $50/ora e spendi 2 ore nel setup + 1 ora nel troubleshooting + 30 minuti nella configurazione dei proxy, sono $175 prima ancora di estrarre una sola scheda. Aggiungi i costi dei proxy e la manutenzione continua quando Google cambia l’interfaccia, e l’opzione "gratuita" inizia a sembrare costosa.
Come Thunderbit semplifica lo scraping di Google Maps
Questo è il flusso reale con :
- Installa la
- Vai su Google Maps ed esegui la ricerca
- Clicca "AI Suggest Fields" — l’AI di Thunderbit legge la pagina e suggerisce le colonne (nome attività, indirizzo, telefono, valutazione, sito web, ecc.)
- Clicca "Scrape" e i dati vengono strutturati automaticamente
- Usa lo scraping delle sottopagine per visitare il sito di ciascuna attività dagli URL estratti ed estrarre ulteriori contatti (email, numeri di telefono) — automatizzando ciò che gli utenti dei repository GitHub fanno manualmente
- Esporta in — senza paywall sugli export
Niente Python. Niente Docker. Niente proxy. Niente manutenzione. Per il pubblico sales e marketing che fa lead generation, questo elimina l’intero carico di setup richiesto dai repository GitHub.
Contesto prezzi: Thunderbit usa un modello a crediti in cui . Il piano gratuito copre 6 pagine al mese, la prova gratuita copre 10 pagine e il piano starter costa .
Dopo lo scraping: pulizia e arricchimento dei dati di Google Maps
La maggior parte delle guide si ferma all’estrazione grezza. I dati grezzi non sono una lista di lead. Gli utenti nei forum riportano regolarmente e chiedono: "Come gestite i duplicati con questo setup?" Ecco cosa succede dopo lo scraping.
Eliminare i duplicati
I duplicati entrano da overlap nelle pagine di risultati, ricerche ripetute su aree sovrapposte, strategie a griglia/bounding box che coprono le stesse attività e attività con più schede.
Ordine di dedup migliore:
- Match su place_id se il tuo scraper lo espone (il più affidabile)
- Match esatto su nome attività normalizzato + indirizzo
- Fuzzy matching su nome + indirizzo, confermato da telefono o sito web
Le formule base di Excel/Sheets (COUNTIF, Rimuovi duplicati) gestiscono la maggior parte dei casi. Per dataset più grandi, uno script Python veloce con pandas funziona bene.
Normalizzare numeri di telefono e indirizzi
I numeri di telefono estratti arrivano in ogni formato immaginabile: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. Per l’import in CRM, normalizza tutto nel formato E.164 — cioè + prefisso paese + numero nazionale, ad esempio +15551234567.
durante lo scraping — un passaggio di pulizia in meno.
Per gli indirizzi, standardizza a un formato coerente: via, città, stato/provincia, CAP. Rimuovi gli spazi extra, correggi le incongruenze nelle abbreviazioni (St vs Street) e convalida con un servizio di geocoding se l’accuratezza è importante.
Arricchire con email, siti web e profili social
Le schede Google Maps quasi sempre includono un URL del sito web. Quasi mai includono direttamente un indirizzo email. Il pattern vincente:
- Estrarre da Maps i dati per la discovery delle attività (nome, indirizzo, telefono, URL del sito)
- Visitare il sito di ciascuna attività per estrarre indirizzi email, link social e altre informazioni di contatto
Qui i migliori repository GitHub e gli strumenti no-code convergono:
- visitando i siti web delle attività
- può visitare il sito di ciascuna attività a partire dagli URL estratti ed estrarre email e numeri di telefono, aggiungendoli alla tabella originale
Per gli utenti GitHub senza enrichment integrato, questo significa scrivere un secondo scraper o visitare manualmente ogni sito. Thunderbit comprime entrambi i passaggi in un unico workflow.
Esportare nel tuo CRM o nei tuoi strumenti di workflow
Le destinazioni di export più pratiche:
- Google Sheets per pulizia e condivisione collaborativa
- Airtable per database strutturati con filtri e viste
- Notion per database operativi leggeri
- CSV/JSON per import CRM o automazioni downstream
Thunderbit supporta . La maggior parte dei repository GitHub esporta solo in CSV o JSON: dovrai gestire l’integrazione CRM separatamente. Se stai cercando altri modi per portare i dati estratti nei fogli di calcolo, dai un’occhiata alla nostra guida su .
Repository GitHub Google Maps Scraper: confronto completo affiancato
Ecco la tabella riepilogativa da salvare tra i preferiti che copre tutti gli approcci:
| Strumento / Repo | Tipo | Modello di costo | Tempo di setup | Gestione proxy | Manutenzione | Opzioni di export | Funziona nel 2026? |
|---|---|---|---|---|---|---|---|
| Google Places API | API ufficiale | $7–32 / 1K chiamate (Pro) | Basso | Non necessaria | Bassa | JSON / integrazione app | ✅ |
| gosom/google-maps-scraper | OSS su GitHub | Gratis + proxy + tempo | Medio | Sì, documentati | Alta | CSV, JSON, DB, API | ⚠️ |
| omkarcloud/google-maps-scraper | GitHub impacchettato | Gratis-ish, prodotto | Medio | Poco chiaro | Medio-alta | Output dell’app | ⚠️ |
| gaspa93/googlemaps-scraper | Scraper recensioni GitHub | Gratis + tempo | Medio | Limitata | Medio-alta | CSV | ⚠️ (nicchia) |
| conor-is-my-name/google-maps-scraper | API Docker GitHub | Gratis + tempo | Medio | Possibile | Alta | JSON / servizio Docker | ⚠️ |
| Zubdata/Google-Maps-Scraper | App GUI GitHub | Gratis + tempo | Medio | Limitata | Alta | Output dell’app | ❌ |
| Thunderbit | Estensione no-code | Crediti / righe | Basso | Astratta (cloud) | Bassa-media | Sheets, Excel, Airtable, Notion, CSV, JSON | ✅ |
Per maggior contesto sulla scelta tra approcci di scraping, potrebbe esserti utile anche la nostra panoramica sui oppure il confronto tra .
Considerazioni legali e sui Termini di servizio
Sezione breve, ma importante.
Gli attuali Termini di Google Maps Platform sono espliciti: i clienti non possono inclusa la copia e il salvataggio di nomi attività, indirizzi o recensioni degli utenti al di fuori dell’uso consentito del servizio. I termini specifici del servizio di Google consentono inoltre solo una cache limitata per alcune API, in genere .
La gerarchia legale è chiara:
- Uso dell’API ha la base contrattuale più solida
- Scraper GitHub operano in uno spazio molto più ambiguo
- Strumenti no-code riducono il carico operativo, ma non eliminano i tuoi obblighi di conformità
Consulta il tuo legale per il caso d’uso specifico. Per uno sguardo più approfondito al quadro legale, abbiamo trattato separatamente le .
Punti chiave: scegliere l’approccio giusto a Google Maps Scraper nel 2026
Dopo aver passato in rassegna repository, issue, forum e pagine di prezzo, ecco dove siamo arrivati:
-
Controlla sempre la freschezza del repository prima di investire tempo nel setup. Il numero di stelle non è un proxy per "funziona oggi". Leggi gli ultimi tre issue. Cerca commit di codice negli ultimi 3–6 mesi.
-
La migliore opzione open source attuale è gosom/google-maps-scraper — ma anche quella mostra regressioni fresche sui campi nel 2026. Trattalo come un sistema vivo che richiede monitoraggio, non come uno strumento da impostare e dimenticare.
-
Google Places API è la risposta giusta per stabilità e chiarezza legale — ma ha limiti (massimo 5 recensioni, pricing per chiamata) e non risolve bene la discovery in bulk.
-
Per i team non tecnici, strumenti no-code come sono l’alternativa pratica. Il divario tra setup e primo dato si misura in minuti, non in ore, e non stai firmando per diventare un manutentore part-time di scraper.
-
I dati grezzi sono solo metà del lavoro. Metti a budget tempo per deduplicazione, normalizzazione dei numeri di telefono, arricchimento email ed export nel CRM. Gli strumenti che gestiscono automaticamente questi passaggi (come lo scraping delle sottopagine e la normalizzazione E.164 di Thunderbit) fanno risparmiare più tempo di quanto la maggior parte delle persone si aspetti.
-
Uno "scraper gratuito" va inteso come software con manutenzione non pagata annessa. Va benissimo se hai le competenze e ti piace questo lavoro. È un pessimo affare se sei un sales rep che ha solo bisogno di 500 lead di dentisti a Phoenix entro venerdì.
Se vuoi esplorare altre opzioni per estrarre dati aziendali, consulta le nostre guide su , e . Puoi anche guardare tutorial sul .
FAQ
Usare uno scraper di Google Maps da GitHub è gratis?
Il software è gratuito. Il lavoro no. Dovrai investire 30–90 minuti nel setup, tempo continuo per risolvere le rotture e spesso $10–100+/mese in costi proxy per volumi seri. Se il tuo tempo ha un valore, "gratis" è un termine improprio.
Mi servono competenze Python per usare uno scraper di Google Maps da GitHub?
La maggior parte dei repository popolari richiede conoscenze base di Python e della riga di comando. I repository orientati a Docker riducono il carico ma non lo eliminano: devi comunque fare debug dei problemi del container, configurare i parametri di ricerca e gestire il setup dei proxy. Per gli utenti non tecnici, strumenti no-code come offrono un’alternativa in 2 clic senza bisogno di codice.
Con che frequenza si rompono i repository GitHub di Google Maps scraper?
Non esiste una cadenza fissa, ma la cronologia recente degli issue su GitHub mostra rotture core e regressioni dei campi che compaiono con un ciclo di settimane o mesi. Google aggiorna regolarmente l’interfaccia di Maps, e questo può rompere selector e logica di parsing da un giorno all’altro. I repository attivi risolvono in fretta; quelli abbandonati restano rotti indefinitamente.
Posso estrarre le recensioni di Google Maps con uno scraper GitHub?
Alcuni repository supportano l’estrazione completa delle recensioni (gaspa93/googlemaps-scraper è progettato proprio per questo), mentre altri estraggono solo dati riassuntivi come valutazione e numero di recensioni. Le recensioni sono anche uno dei primi gruppi di campi a degradarsi quando Google cambia il comportamento della pagina, quindi anche i repo che le supportano possono restituire dati incompleti dopo un aggiornamento dell’interfaccia.
Qual è la migliore alternativa se non voglio usare uno scraper GitHub?
Due strade principali: la Google Places API per un accesso ufficiale e strutturato (con limiti di costo e di campi), oppure uno strumento no-code come per un’estrazione rapida, con AI, senza codice. L’API è la scelta migliore per gli sviluppatori che hanno bisogno di certezza di conformità. Thunderbit è la scelta migliore per chi in azienda ha bisogno di dati in un foglio di calcolo rapidamente.
Scopri di più