Auf GitHub gibt es rund , die zu „google maps scraper“ passen. Die meisten davon sind defekt.
Das klingt dramatisch, aber wer schon einmal Repos geklont, mit Playwright-Abhängigkeiten gekämpft und dann um 2 Uhr morgens eine leere CSV vom Scraper zurückbekommen hat, kennt dieses Gefühl. Google Maps hat weltweit — eine der reichsten lokalen Unternehmensdatenbanken überhaupt. Kein Wunder also, dass alle von Vertriebsmitarbeitern bis zu Agenturinhabern genau diese Daten extrahieren wollen. Das Problem: Google verändert die Maps-Oberfläche im Rhythmus von Wochen bis Monaten, und jede Änderung kann den Scraper, den du gerade eine Stunde lang eingerichtet hast, still und heimlich zerschießen. Wie ein GitHub-Nutzer es in einem Issue im März 2026 formulierte: Das Tool Das ist kein seltener Sonderfall. Das ist der Ausfall des Kernablaufs. Ich habe diese Repos dieses Jahr sehr genau beobachtet, und die Lücke zwischen „sieht auf GitHub aktiv aus“ und „liefert heute tatsächlich Daten“ ist größer, als die meisten erwarten. Dieser Leitfaden ist mein ehrlicher Versuch, die Signale vom Rauschen zu trennen — mit Blick darauf, welche Repos funktionieren, welche brechen, wann du GitHub ganz überspringen solltest und was du nach dem Scraping mit deinen Daten machst.
Was ist ein Google-Maps-Scraper auf GitHub – und warum nutzen ihn Leute?
Ein Google-Maps-Scraper auf GitHub ist typischerweise ein Python- oder Go-Skript, manchmal in Docker verpackt, das Google Maps in einem Headless-Browser öffnet, eine Suchanfrage wie „Zahnärzte in Chicago“ ausführt und die angezeigten Einträge extrahiert — Namen, Adressen, Telefonnummern, Websites, Bewertungen, Anzahl der Rezensionen, Kategorien, Öffnungszeiten und manchmal auch Breiten-/Längengrade.
GitHub ist das Standard-Zuhause für solche Tools, weil der Code kostenlos, Open Source und theoretisch anpassbar ist. Du kannst ein Repo forken, Suchparameter anpassen, deine eigene Proxy-Logik ergänzen und in jedes gewünschte Format exportieren.

Die typischen Datenfelder, die sich Leute ziehen wollen, sehen so aus:
| Feld | Häufigkeit über Repos hinweg |
|---|---|
| Unternehmensname | Nahezu universell |
| Adresse | Nahezu universell |
| Telefonnummer | Nahezu universell |
| Website-URL | Nahezu universell |
| Sternebewertung | Nahezu universell |
| Anzahl der Rezensionen | Sehr häufig |
| Kategorie / Typ | Häufig |
| Öffnungszeiten | Häufig |
| Breite / Länge | Häufig in stärkeren Repos |
| E-Mail / Social Links | Nur wenn der Scraper auch die Unternehmenswebsite besucht |
| Vollständiger Rezensionstext | Häufig in spezialisierten Review-Scrapern, im Massenscraping weniger zuverlässig |
Wer nutzt das? Vertriebsteams, die Outbound-Leadlisten aufbauen. Immobilienprofis, die lokale Märkte kartieren. E-Commerce-Teams, die Wettbewerber analysieren. Marketingteams, die Local-SEO-Audits durchführen. Der gemeinsame Nenner: Sie alle brauchen strukturierte lokale Unternehmensdaten und wollen sie lieber nicht Eintrag für Eintrag manuell aus dem Browser kopieren.
Warum Vertriebs- und Ops-Teams nach Google-Maps-Scraper-Repos auf GitHub suchen
Google Maps ist aus einem einfachen Grund attraktiv: Dort liegen lokale Unternehmensinformationen tatsächlich vor. Nicht in irgendeinem Nischenverzeichnis. Nicht hinter einer Paywall. Direkt in den Suchergebnissen.
Der geschäftliche Nutzen lässt sich in drei große Bereiche einteilen.
Lead-Generierung und Prospecting
Das ist der große Anwendungsfall. Ein Gründer, der einen Google-Maps-Scraper für Freelancer und Agenturen entwickelt, ziemlich direkt: Leads in bestimmten Städten und Nischen finden, Kontaktdaten für Cold Outreach sammeln und CSVs mit Name, Adresse, Telefonnummer, Website, Bewertungen, Rezensionen, Kategorie, Öffnungszeiten, E-Mails und Social Handles erzeugen. Eines der aktivsten Repos (gosom/google-maps-scraper) sagt Nutzern sogar wörtlich, sie könnten seinen Agenten bitten: Das ist kein Hobby-Anwendungsfall — das ist eine Vertriebspipeline.
Marktanalyse und Wettbewerbsanalyse
Ops- und Strategieteams nutzen gescrapte Maps-Daten, um Wettbewerber nach Stadtteil zu zählen, die Stimmung in Rezensionen zu analysieren und Lücken zu erkennen. Ein Local-SEO-Praktiker — in einer einzigen Nische, indem öffentliche Google-Maps-Daten extrahiert wurden. Solche Analysen sind manuell in großem Maßstab praktisch unmöglich.
Local-SEO-Audits und Verzeichnisaufbau
Marketer scrapen Google Maps, um die lokale Sichtbarkeit zu prüfen, die NAP-Konsistenz zu kontrollieren und Verzeichnis-Websites aufzubauen. Ein Nutzer in WordPress mit WP All Import einpflegte.
Die Arbeitszeitrechnung, die Scraping verlockend macht
Manuelles Sammeln ist nicht kostenlos, nur weil ein Browserfenster im Spiel ist. Upwork beziffert administrative VA-Arbeit für Datenerfassung auf . Wenn ein Mensch pro Unternehmen 1 Minute braucht, um die Basics zu erfassen, dann kosten 1.000 Unternehmen etwa 16,7 Stunden — grob $200–$334 Lohnkosten vor der Qualitätssicherung. Bei 2 Minuten pro Unternehmen liegen die Kosten für dieselbe Liste bei $400–$668. Das ist die echte Benchmark, gegen die jeder „kostenlose GitHub-Scraper“ antritt.
Google Places API vs. GitHub-Scraper-Repos vs. No-Code-Tools: Entscheidungsbaum für 2026
Lege deinen Weg fest, bevor du irgendetwas klonst. Datenmenge, Budget, technisches Know-how und Wartungsbereitschaft spielen hier alle mit hinein.
| Kriterium | Google Places API | GitHub-Scraper | No-Code-Tool (z. B. Thunderbit) |
|---|---|---|---|
| Kosten pro 1.000 Abfragen | $7–32 (gängige Pro-Aufrufe) | Kostenlose Software + Proxy-Kosten + Zeit | Freemium, danach kreditbasiert |
| Datenfelder | Strukturiert, auf API-Schema begrenzt | Flexibel, abhängig vom Repo | KI-konfiguriert pro Website |
| Rezensionen-Zugriff | Max. 5 Rezensionen pro Ort | Vollständig (wenn der Scraper das unterstützt) | Hängt vom Tool ab |
| Rate Limits | Kostenfreie Caps pro SKU, danach kostenpflichtig | Selbst verwaltet (proxy-abhängig) | Vom Anbieter gemanagt |
| Rechtliche Klarheit | Explizite Lizenz | Graubereich (ToS-Risiko) | Anbieter übernimmt die operative Compliance |
| Wartung | Von Google gewartet | Du wartest selbst | Vom Anbieter gewartet |
| Einrichtungsaufwand | API-Schlüssel + Code | Python + Abhängigkeiten + Proxies | Erweiterung installieren, Scrape klicken |
Wann die Google Places API sinnvoll ist
Für kleine bis mittlere Abfragen, bei denen du eine offizielle Lizenz und planbare Kosten brauchst, ist die API die naheliegende Wahl. Googles ersetzte das universelle Monatsguthaben durch kostenlose Caps pro SKU: für viele Essentials-SKUs, 5.000 für Pro und 1.000 für Enterprise. Danach kostet Text Search Pro , und Place Details Enterprise + Atmosphere kostet $5 pro 1.000.
Die größte Einschränkung: Rezensionen. Die API liefert . Wenn du die vollständigen Rezensionen brauchst, reicht die API nicht aus.
Wann ein GitHub-Scraper sinnvoll ist
Bulk-Discovery nach Keyword plus Geografie, browserseitig sichtbare Daten außerhalb der API-Felder, vollständiger Rezensionstext, eigene Parsing-Logik — wenn du all das brauchst und die Python-/Docker-Skills hast, um einen Scraper zu warten, sind GitHub-Repos die richtige Wahl. Der Nachteil: „kostenlos“ verlagert die Rechnung auf Zeit, Proxies, Retries und Ausfälle. Schon die Proxy-Kosten können ins Gewicht fallen: , und .
Wann ein No-Code-Tool wie Thunderbit sinnvoll ist
Kein technisches Team? Muss die Daten möglichst schnell in Sheets, Airtable, Notion oder CSV landen? Ein No-Code-Tool spart dir den kompletten Python-/Docker-/Proxy-Aufbau. Mit installierst du die Chrome-Erweiterung, öffnest Google Maps, klickst auf „AI Suggest Fields“ und dann auf „Scrape“ — und . Der Cloud-Scraping-Modus übernimmt Anti-Bot-Schutz automatisch und , ohne Proxy-Konfiguration.
Der einfache Entscheidungsweg: Unter 500 Unternehmen und Budget vorhanden → API. Tausende Datensätze und Python-Know-how → GitHub-Repo. Schnelle Daten ohne technische Einrichtung → No-Code-Tool.
Der Frische-Check 2026: Welche Google-Maps-Scraper-GitHub-Repos heute wirklich funktionieren
Das ist der Abschnitt, den ich mir gewünscht hätte, als ich mit der Recherche angefangen habe. Die meisten Artikel zu „best Google Maps scraper“ listen nur Repos mit Kurzbeschreibung und Sternezahl auf. Kein einziger sagt dir, ob das Ding diesen Monat tatsächlich Daten liefert.
Woran du erkennst, ob ein Google-Maps-Scraper-GitHub-Repo noch lebt
Bevor du irgendetwas klonst, geh diese Checkliste durch:
- Jüngster Code-Push: Suche nach einem echten Commit aus den letzten 3–6 Monaten, nicht nur nach Issue-Kommentaren.
- Issue-Gesundheit: Lies die drei zuletzt aktualisierten Issues. Geht es um Kernfehler (leere Felder, Selector-Fehler, Browser-Abstürze) oder um Feature-Wünsche?
- README-Qualität: Dokumentiert es den aktuellen Browser-Stack, das Docker-Setup und die Proxy-Konfiguration?
- Warnsignale in Issues: Suche nach „search box“, „reviews_count = 0“, „driver“, „Target page“, „selector“, „empty“.
- Fork- und PR-Aktivität: Aktive Forks und gemergte PRs sprechen für eine lebendige Community.
Keine aktuelle Code-Aktivität, ungelöste Kernfehler beim Scraping und keine Hinweise zu Proxies oder Browser-Wartung? Dann ist dieses Repo für Business-Zwecke wahrscheinlich nicht lebendig genug — auch wenn die Sternezahl beeindruckend aussieht.
Die wichtigsten Google-Maps-Scraper-GitHub-Repos im Check

Ich habe die meistgestarten Repos nach der oben beschriebenen Methodik bewertet. Hier ist die Zusammenfassung, danach folgen Einzelnotizen.
| Repo | Stars | Letzter Push | Funktioniert es 2026? | Kommt es mit UI-Änderungen klar? | Proxy-Unterstützung | Stack |
|---|---|---|---|---|---|---|
| gosom/google-maps-scraper | 3,7k | 2026-04-19 | ⚠️ Kernextraktion lebt; Review-Felder fehleranfällig | Aktive Wartung | Ja, explizit | Go + Playwright |
| omkarcloud/google-maps-scraper | 2,6k | 2026-04-10 | ⚠️ Aktive App, aber Absturz-/Support-Probleme | Vom Anbieter gewartet | Nicht klar dokumentiert | Desktop-App / Binary |
| gaspa93/googlemaps-scraper | 498 | 2026-03-26 | ⚠️ Enger Nischen-Fokus auf Review-Scraping | Begrenzte Anzeichen | Keine starke Proxy-Strategie | Python |
| conor-is-my-name/google-maps-scraper | 284 | 2026-04-14 | ⚠️ Vielversprechender Docker-Flow, aber im März Selector-Bruch | Einige Hinweise auf Fixes | Dockerisiert, Proxy unklar | Python + Docker |
| Zubdata/Google-Maps-Scraper | 120 | 2025-01-19 | ❌ Zu viele veraltete/Nullfeld-Probleme | Kaum Belege | Nicht hervorgehoben | Python-GUI |
| patxijuaristi/google_maps_scraper | 113 | 2025-02-24 | ❌ Geringes Signal, altes Chrome-Driver-Problem | Kaum Belege | Keine starken Belege | Python |
gosom/google-maps-scraper
Derzeit die stärkste Open-Source-Allround-Option. Das README ist ungewöhnlich ausgereift: CLI, Web-UI, REST API, Docker-Anleitungen, Proxy-Konfiguration, Grid-/Bounding-Box-Modus, E-Mail-Extraktion und mehrere Exportziele. Es wirbt mit und dokumentiert Proxies ausdrücklich, weil sie „bei größeren Scraping-Jobs helfen, Rate Limits zu vermeiden“.
Das Problem ist nicht, dass das Projekt aufgegeben wäre — sondern dass die Genauigkeit bei Randfeldern driftet. Aktuelle Issues aus 2026 zeigen , und . Für das Extrahieren von Unternehmenseinträgen ist das glaubwürdig, für reichhaltige Review- und Öffnungszeiten-Daten aber noch wackeliger, bis Fixes landen.
omkarcloud/google-maps-scraper
Dank Sternezahl und langer Präsenz sehr sichtbar, liest sich aber weniger wie transparentes Open Source und eher wie ein verpacktes Extraktionsprodukt — Support-Kanäle, Desktop-Installer, Upsells für Enrichment. Ein Nutzer im April 2026 schrieb, die App starte und spucke dann im Terminal aus, bis sie hänge. Ein anderes offenes Issue beklagt, das Tool sei Nicht tot, aber auch nicht die sauberste Lösung für Leser, die inspectable OSS wollen, das sie selbst zuverlässig patchen können.
gaspa93/googlemaps-scraper
Kein allgemeiner Bulk-Search-Lead-Gen-Scraper. Es ist ein fokussierter , der bei einer konkreten Google-Maps-POI-Review-URL startet und aktuelle Rezensionen abruft, mit Optionen für Metadaten-Scraping und Sortierung der Reviews. Dieser engere Fokus ist für bestimmte Workflows tatsächlich ein Vorteil — löst aber nicht das eigentliche Problem der Such- und Entdeckungsschicht, das die meisten Business-Nutzer im Kopf haben.
conor-is-my-name/google-maps-scraper
Gute Instinkte für moderne Ops-Teams: Docker-first-Installation, JSON-API, geschäftstaugliche Felder und Community-Sichtbarkeit in . Aber das Issue aus März 2026 ist das perfekte Beispiel dafür, warum diese Kategorie fragil ist: Ein Nutzer aktualisierte den Container und die Ausgabe meldete, der Scraper Das ist ein Kernfehler, kein kosmetischer Randfall.
Zubdata/Google-Maps-Scraper
Auf dem Papier ist das Feldset breit: E-Mail, Rezensionen, Bewertungen, Adresse, Website, Telefon, Kategorie, Öffnungszeiten. In der Praxis erzählt die öffentliche Issue-Lage eine andere Geschichte: Nutzer berichten über , und . Zusammen mit der älteren Commit-Historie ist das für den Einsatz 2026 schwer zu empfehlen.
patxijuaristi/google_maps_scraper
Leicht in der GitHub-Suche zu finden, aber das stärkste öffentliche Signal ist ein statt aktiver Wartung. In diesem Artikel ist es vor allem ein Beispiel dafür, was „sieht in der Suche lebendig aus, ist in der Praxis aber riskant“ bedeutet.
Schritt für Schritt: Einen Google-Maps-Scraper von GitHub einrichten
Hast du entschieden, dass ein GitHub-Repo der richtige Weg ist? So sieht das Setup tatsächlich aus. Ich halte es bewusst allgemein statt repo-spezifisch — die Schritte sind über die aktiven Optionen hinweg erstaunlich ähnlich.
Schritt 1: Repository klonen und Abhängigkeiten installieren
Der übliche Weg:
git clonedes Repos- Python-virtuelle Umgebung anlegen oder ein Docker-Image ziehen
- Abhängigkeiten per
pip install -r requirements.txtoderdocker-compose upinstallieren - Manchmal zusätzlich eine Browser-Runtime installieren (Chromium für Playwright, ChromeDriver für Selenium)
Docker-first-Repos wie und reduzieren Abhängigkeitsprobleme, beseitigen sie aber nicht — Docker muss trotzdem laufen, und du brauchst genug Speicherplatz für die Browser-Images.
Schritt 2: Suchparameter konfigurieren
Die meisten Generalisten-Scraper wollen:
- Keyword + Ort (z. B. „plumbers in Austin TX“)
- Ergebnislimit (wie viele Einträge extrahiert werden sollen)
- Ausgabeformat (CSV, JSON, Datenbank)
- Manchmal geografische Bounding Boxes oder einen Radius für Grid-basierte Suche
Stärkere Repos stellen das über CLI-Flags oder JSON-Request-Bodies bereit. Ältere Repos verlangen manchmal, dass du direkt eine Python-Datei bearbeitest.
Schritt 3: Proxies einrichten, falls nötig
Alles über einen kleinen Testlauf hinaus? Dann brauchst du Proxies. und beschreibt Proxies ausdrücklich als Standardlösung für größere Jobs. Ohne sie musst du nach einigen Dutzend Requests mit CAPTCHAs oder IP-Blocks rechnen.
Schritt 4: Scraper ausführen und Daten exportieren
Skript starten, beobachten, wie der Browser durch die Ergebnis-Karten navigiert, und auf die CSV- oder JSON-Ausgabe warten. Der Happy Path dauert Minuten. Der weniger glückliche Pfad — und der ist häufiger, als viele zugeben — sieht so aus:
- Browser schließt sich unerwartet
- Chrome-Driver-Version passt nicht
- Selector-/Search-Box-Fehler
- Rezensionen oder Öffnungszeiten kommen leer zurück
Alle vier Muster tauchen in aktuellen .
Schritt 5: Fehler und Brüche beheben
Wenn der Scraper leere Ergebnisse oder Fehler liefert:
- Im GitHub-Issue-Bereich des Repos nach ähnlichen Meldungen suchen
- Auf Google-Maps-UI-Änderungen achten (neue Selektoren, andere Seitenstruktur)
- Das Repo auf den neuesten Commit aktualisieren
- Wenn der Maintainer es nicht gefixt hat, Forks nach Community-Patches prüfen
- Abwägen, ob die Debug-Zeit den Wechsel des Tools überhaupt wert ist
Realistische Einrichtungszeit beim ersten Mal: Für jemanden, der mit Terminals zurechtkommt, aber noch kein funktionierendes Playwright-/Docker-/Proxy-Setup hat, sind 30–90 Minuten bis zum ersten erfolgreichen Scrape realistisch. Nicht fünf Minuten.
So vermeidest du Bans und Rate Limits beim Scrapen von Google Maps
Es gibt keinen öffentlich dokumentierten Google-Maps-Web-Schwellwert nach dem Motto: „Bei X Requests wirst du blockiert.“ Google hält das absichtlich unklar. Manche Nutzer berichten von CAPTCHAs nach etwa in serverbasierten Playwright-Setups. Ein anderer Nutzer behauptete für einen firmeneigenen Maps-Scraper. Die Schwellenwerte sind weder hoch noch niedrig. Sie sind instabil und kontextabhängig.
Hier ist eine praktische Strategietabelle:
| Strategie | Schwierigkeit | Wirksamkeit | Kosten |
|---|---|---|---|
| Zufällige Verzögerungen (2–5 s zwischen Requests) | Einfach | Mittel | Kostenlos |
| Geringere Parallelität (weniger gleichzeitige Sessions) | Einfach | Mittel | Kostenlos |
| Rotation von Residential Proxies | Mittel | Hoch | $1–6/GB |
| Datacenter-Proxies (für einfache Ziele) | Mittel | Mittel | $0.02–0.6/GB |
| Randomisierung des Headless-Browser-Fingerprints | Schwer | Hoch | Kostenlos |
| Browser-Persistenz / aufgebaute Sessions | Mittel | Mittel | Kostenlos |
| Cloud-basiertes Scraping (das Problem auslagern) | Einfach | Hoch | Variiert |
Zufällige Verzögerungen zwischen Requests einbauen
Feste 1-Sekunden-Intervalle sind ein Warnsignal. Verwende zufälligen Jitter — 2 bis 5 Sekunden zwischen Aktionen, mit gelegentlich längeren Pausen. Das ist das Einfachste, was du tun kannst, und es kostet nichts.
Proxies rotieren (Residential vs. Datacenter)
Residential Proxies sind wirksamer, weil sie wie echte Nutzer aussehen, aber sie sind teurer. Aktuelle Preise: , , . Datacenter-Proxies funktionieren für leichteres Scraping, werden bei Google-Angeboten aber schneller erkannt.
Browser-Fingerprints randomisieren
Bei Headless-Browser-Scrapern: User Agents, Viewport-Größen und andere Fingerprint-Signale rotieren. Standardkonfigurationen von Playwright/Puppeteer sind trivial erkennbar. Das ist schwerer umzusetzen, aber kostenlos und sehr wirksam.
Cloud-basiertes Scraping nutzen, um das Problem auszulagern
Tools wie übernehmen Anti-Bot-Schutz, IP-Rotation und Rate-Limits automatisch über ihre Cloud-Scraping-Infrastruktur. Thunderbit — ohne Proxy-Setup oder Verzögerungskonfiguration. Für Teams, die nicht nebenbei Anti-Bot-Ingenieure werden wollen, ist das der praktischste Weg.
Wie Googles Rate-Limit-Schwellen tatsächlich aussehen
Anzeichen dafür, dass du gedrosselt wirst:
- CAPTCHAs erscheinen mitten im Scrape
- Leere Ergebnismengen nach zuvor erfolgreichen Abfragen
- Temporäre IP-Blocks (meist 1–24 Stunden)
- Verschlechterte Seitenladezeiten (langsamer, Inhalte nur teilweise geladen)
Erholung: Scraping stoppen, IPs wechseln, 15–60 Minuten warten und dann mit geringerer Parallelität fortfahren. Wenn du regelmäßig an Grenzen stößt, braucht dein Setup Proxies oder grundsätzlich einen anderen Ansatz.
Der No-Code-Ausweg: Wann sich ein Google-Maps-Scraper-GitHub-Repo nicht lohnt
Etwa 90 % der Artikel zum Scraping von Google Maps setzen Python-Know-how voraus. Aber ein großer Teil der Zielgruppe — Agenturinhaber, Vertriebsmitarbeiter, Local-SEO-Teams, Researcher — braucht einfach nur Zeilen in einer Tabelle. Kein Browser-Automatisierungsprojekt. Wenn du dich darin wiederfindest, ist dieser Abschnitt ehrlich zu den Abwägungen.
Die echten Kosten von „kostenlosen“ GitHub-Scrapern
| Faktor | GitHub-Repo-Ansatz | No-Code-Alternative (z. B. Thunderbit) | |---|---|---|---| | Einrichtungszeit | 30–90 Min. (Python/Docker/Proxies) | ca. 2 Min. (Browser-Erweiterung) | | Wartung | Manuell (du behebst Brüche selbst) | Automatisch (Anbieter wartet) | | Anpassbarkeit | Hoch (voller Codezugriff) | Mittel (KI-konfigurierte Felder) | | Kosten | Kostenlose Software, aber Zeit + Proxies | Freemium verfügbar, dann kreditbasiert | | Skalierung | Hängt von deiner Infrastruktur ab | Cloud-basiert skalierbar |
„Kostenlose“ GitHub-Scraper verlagern die Rechnung auf die Zeit. Wenn du deine Zeit mit 50 $/Stunde bewertest und 2 Stunden für das Setup, 1 Stunde für Fehlersuche und 30 Minuten für die Proxy-Konfiguration brauchst, sind das 175 $, bevor du auch nur einen einzigen Eintrag gescrapt hast. Mit Proxy-Kosten und laufender Wartung, wenn Google die UI ändert, wirkt die „kostenlose“ Option schnell teuer.
Wie Thunderbit das Google-Maps-Scraping vereinfacht
So sieht der tatsächliche Workflow mit aus:
- installieren
- Zu Google Maps navigieren und deine Suche ausführen
- Auf „AI Suggest Fields“ klicken — die KI von Thunderbit liest die Seite und schlägt Spalten vor (Unternehmensname, Adresse, Telefonnummer, Bewertung, Website usw.)
- Auf „Scrape“ klicken und die Daten werden automatisch strukturiert
- Subpage Scraping verwenden, um von den gescrapten URLs aus die Website jedes Unternehmens zu besuchen und zusätzliche Kontaktdaten zu extrahieren (E-Mails, Telefonnummern) — also genau das zu automatisieren, was GitHub-Repo-Nutzer manuell machen
- Nach — ohne Paywall beim Export
Kein Python. Kein Docker. Keine Proxies. Keine Wartung. Für Vertriebs- und Marketing-Teams, die Leads generieren, entfällt damit der gesamte Einrichtungsaufwand, den GitHub-Repos erfordern.
Preiskontext: Thunderbit nutzt ein Kreditmodell, bei dem . Der Free-Tarif umfasst 6 Seiten pro Monat, die Testphase 10 Seiten, und der Starter-Plan kostet .
Nach dem Scrape: Bereinigen und Anreichern deiner Google-Maps-Daten
Die meisten Leitfäden hören beim Roh-Export auf. Rohdaten sind noch keine Leadliste. In Foren berichten Nutzer regelmäßig von und fragen: „Wie gehst du mit Duplikaten in diesem Setup um?“ Hier kommt der Teil nach dem Scrape.
Deine Ergebnisse deduplizieren
Duplikate entstehen durch Überschneidungen bei der Paginierung, wiederholte Suchen über überlappende Gebiete, Grid-/Bounding-Box-Strategien, die dieselben Unternehmen abdecken, und Unternehmen mit mehreren Einträgen.
Beste Reihenfolge für Deduping:
- Auf place_id matchen, wenn dein Scraper das ausgibt (am zuverlässigsten)
- Exakter Match auf normalisiertem Unternehmensnamen + Adresse
- Fuzzy-Matching auf Name + Adresse, bestätigt über Telefonnummer oder Website
Einfache Excel-/Sheets-Formeln (COUNTIF, Duplikate entfernen) lösen die meisten Fälle. Für größere Datensätze funktioniert ein kurzes Python-Dedup-Skript mit pandas gut.
Telefonnummern und Adressen normalisieren
Gescrapte Telefonnummern kommen in allen denkbaren Formaten vor: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. Für den CRM-Import normalisiere alles auf E.164-Format — also +Ländervorwahl + nationale Nummer, z. B. +15551234567.
— ein Bereinigungsschritt weniger.
Bei Adressen solltest du auf ein konsistentes Format standardisieren: Straße, Stadt, Bundesland, PLZ. Entferne überflüssige Leerzeichen, korrigiere uneinheitliche Abkürzungen (St vs. Street) und validiere gegen einen Geocoding-Dienst, wenn Genauigkeit wichtig ist.
Mit E-Mails, Websites und Social Profiles anreichern
Google-Maps-Einträge enthalten fast immer eine Website-URL. Direkt enthalten sie fast nie eine E-Mail-Adresse. Das Erfolgsrezept:
- Google Maps für die Unternehmensfindung scrapen (Name, Adresse, Telefonnummer, Website-URL)
- Die Website jedes Unternehmens besuchen, um E-Mail-Adressen, Social Links und andere Kontaktdaten zu extrahieren
Genau hier nähern sich die besten GitHub-Repos und No-Code-Tools an:
- , indem Unternehmenswebsites besucht werden
- kann von den gescrapten URLs aus die Website jedes Unternehmens besuchen und E-Mail-Adressen sowie Telefonnummern extrahieren — alles direkt an deine ursprüngliche Tabelle angehängt
Für GitHub-Repo-Nutzer ohne integriertes Enrichment bedeutet das: entweder einen zweiten Scraper schreiben oder jede Website manuell besuchen. Thunderbit fasst beide Schritte in einem Workflow zusammen.
Export in CRM- oder Workflow-Tools
Die praktischsten Exportziele:
- Google Sheets für gemeinsames Bereinigen und Teilen
- Airtable für strukturierte Datenbanken mit Filtern und Ansichten
- Notion für leichte Ops-Datenbanken
- CSV/JSON für CRM-Import oder nachgelagerte Automatisierung
Thunderbit unterstützt . Die meisten GitHub-Repos exportieren nur als CSV oder JSON — die CRM-Integration musst du separat lösen. Wenn du mehr Möglichkeiten suchst, gescrapte Daten in Tabellen zu bekommen, lies unseren Leitfaden zum .
Google-Maps-Scraper-GitHub-Repos: Der vollständige Vergleich Seite an Seite
Hier ist die übersichtliche Vergleichstabelle für alle Ansätze:
| Tool / Repo | Typ | Kostenmodell | Einrichtungszeit | Proxy-Management | Wartung | Exportoptionen | Funktioniert 2026? |
|---|---|---|---|---|---|---|---|
| Google Places API | Offizielle API | $7–32 / 1K Calls (Pro) | Niedrig | Nicht nötig | Niedrig | JSON / App-Integration | ✅ |
| gosom/google-maps-scraper | GitHub OSS | Kostenlos + Proxies + Zeit | Mittel | Ja, dokumentiert | Hoch | CSV, JSON, DB, API | ⚠️ |
| omkarcloud/google-maps-scraper | GitHub-Packaged | Quasi kostenlos, produktisiert | Mittel | Unklar | Mittel-hoch | App-Ausgabe | ⚠️ |
| gaspa93/googlemaps-scraper | GitHub-Review-Scraper | Kostenlos + Zeit | Mittel | Begrenzt | Mittel-hoch | CSV | ⚠️ (Nische) |
| conor-is-my-name/google-maps-scraper | GitHub-Docker-API | Kostenlos + Zeit | Mittel | Möglich | Hoch | JSON / Docker-Service | ⚠️ |
| Zubdata/Google-Maps-Scraper | GitHub-GUI-App | Kostenlos + Zeit | Mittel | Begrenzt | Hoch | App-Ausgabe | ❌ |
| Thunderbit | No-Code-Erweiterung | Credits / Zeilen | Niedrig | Abstrahiert (Cloud) | Niedrig-mittel | Sheets, Excel, Airtable, Notion, CSV, JSON | ✅ |
Mehr Kontext zur Wahl zwischen Scraping-Ansätzen findest du vielleicht auch in unserem Überblick zu den oder im Vergleich .
Rechtliche Aspekte und AGB-Bedenken
Kurz, aber wichtig.
Googles aktuelle Maps-Platform-Bedingungen sind eindeutig: Kunden dürfen Google-Maps-Inhalte nicht also Geschäftsnamen, Adressen oder Nutzerrezensionen nicht außerhalb der erlaubten Nutzung kopieren, speichern oder scrapen. Die dienstspezifischen Bedingungen erlauben für bestimmte APIs nur begrenztes Caching, typischerweise .
Die rechtliche Hierarchie ist klar:
- API-Nutzung hat die klarste vertragliche Grundlage
- GitHub-Scraper bewegen sich in deutlich unsichererem Terrain
- No-Code-Tools reduzieren den operativen Aufwand, beseitigen aber deine eigenen Compliance-Pflichten nicht
Sprich für deinen konkreten Anwendungsfall mit einer eigenen Rechtsberatung. Einen tieferen Blick auf die Rechtslage findest du in unserem separaten Beitrag zu den .
Wichtigste Erkenntnisse: Den richtigen Google-Maps-Scraper-Ansatz 2026 wählen
Nach dem Durchforsten von Repos, Issues, Foren und Preisseiten ist das der Stand:
-
Prüfe immer die Aktualität eines Repos, bevor du Zeit ins Setup investierst. Die Sternezahl ist kein Indikator dafür, dass es heute funktioniert. Lies die drei neuesten Issues. Suche nach Code-Commits aus den letzten 3–6 Monaten.
-
Die derzeit beste Open-Source-Option ist gosom/google-maps-scraper — aber selbst dort zeigen sich frische Feldregressionen aus 2026. Behandle es wie ein lebendiges System, das überwacht werden muss, nicht wie ein einmal einrichten und vergessen-Tool.
-
Die Google Places API ist die richtige Wahl für Stabilität und rechtliche Klarheit — aber sie ist eingeschränkt (maximal 5 Rezensionen, Preis pro Aufruf) und löst Bulk-Discovery nicht besonders gut.
-
Für nicht-technische Teams sind No-Code-Tools wie die praktische Alternative. Die Zeit bis zu den ersten Daten beträgt Minuten statt Stunden, und du meldest dich nicht an, um nebenbei Scraper-Maintainer zu werden.
-
Rohdaten sind nur die halbe Arbeit. Plane Zeit für Deduplizierung, Normalisierung von Telefonnummern, E-Mail-Enrichment und CRM-Export ein. Tools, die diese Schritte automatisch erledigen — wie Thunderbits Subpage-Scraping und E.164-Normalisierung — sparen mehr Zeit, als viele erwarten.
-
„Kostenloser Scraper“ bedeutet im besten Fall: Software mit unbezahlter Wartung. Das ist völlig okay, wenn du die Skills hast und die Arbeit magst. Es ist ein schlechtes Geschäft, wenn du ein Vertriebsmitarbeiter bist, der bis Freitag einfach nur 500 Zahnarzt-Leads in Phoenix braucht.
Wenn du mehr Optionen zum Extrahieren von Unternehmensdaten erkunden willst, schau dir unsere Leitfäden zu , und an. Außerdem kannst du Tutorials auf dem ansehen.
FAQs
Ist die Nutzung eines Google-Maps-Scrapers von GitHub kostenlos?
Die Software ist kostenlos. Die Arbeit nicht. Du investierst 30–90 Minuten ins Setup, anschließend Zeit in die Fehlersuche bei Brüchen und oft 10–100+ $ pro Monat an Proxy-Kosten, sobald das Volumen ernst wird. Wenn deine Zeit einen Wert hat, ist „kostenlos“ ein irreführender Begriff.
Brauche ich Python-Kenntnisse, um einen Google-Maps-Scraper von GitHub zu nutzen?
Die meisten beliebten Repos erfordern grundlegende Python- und Kommandozeilenkenntnisse. Docker-first-Repos reduzieren den Aufwand, beseitigen ihn aber nicht — du musst weiterhin Containerprobleme debuggen, Suchparameter konfigurieren und Proxies einrichten. Für nicht-technische Nutzer bieten No-Code-Tools wie eine 2-Klick-Alternative ohne Programmierung.
Wie oft brechen Google-Maps-Scraper-GitHub-Repos?
Es gibt keinen festen Zeitplan, aber die aktuelle GitHub-Issue-Historie zeigt, dass Kernfehler und Feldregressionen in einem Wochen- bis Monatsrhythmus auftreten. Google aktualisiert die Maps-Oberfläche regelmäßig, was Selektoren und Parsing-Logik über Nacht kaputt machen kann. Aktive Repos beheben das schnell; aufgegebene Repos bleiben dauerhaft defekt.
Kann ich Google-Maps-Rezensionen mit einem GitHub-Scraper auslesen?
Einige Repos unterstützen die vollständige Extraktion von Rezensionen (gaspa93/googlemaps-scraper ist genau dafür ausgelegt), während andere nur Zusammenfassungsdaten wie Bewertung und Anzahl der Rezensionen ziehen. Rezensionen gehören außerdem zu den ersten Feldern, die bei Änderungen im Seitenverhalten driften — selbst Repos mit Review-Unterstützung können also nach einem UI-Update unvollständige Daten liefern.
Was ist die beste Alternative, wenn ich keinen GitHub-Scraper nutzen will?
Zwei Hauptwege: die Google Places API für offiziellen, strukturierten Zugriff (mit Kosten- und Feldlimits) oder ein No-Code-Tool wie für schnelles, KI-gestütztes Extrahieren ohne Programmierung. Die API ist am besten für Entwickler, die Compliance-Sicherheit brauchen. Thunderbit ist am besten für Business-Nutzer, die Daten schnell in einer Tabelle brauchen.
Mehr erfahren