Google-Maps-Scraper auf GitHub: Was 2026 funktioniert und was scheitert

Zuletzt aktualisiert am April 22, 2026

Auf GitHub gibt es rund , die zu „google maps scraper“ passen. Die meisten davon sind defekt.

Das klingt dramatisch, aber wer schon einmal Repos geklont, mit Playwright-Abhängigkeiten gekämpft und dann um 2 Uhr morgens eine leere CSV vom Scraper zurückbekommen hat, kennt dieses Gefühl. Google Maps hat weltweit — eine der reichsten lokalen Unternehmensdatenbanken überhaupt. Kein Wunder also, dass alle von Vertriebsmitarbeitern bis zu Agenturinhabern genau diese Daten extrahieren wollen. Das Problem: Google verändert die Maps-Oberfläche im Rhythmus von Wochen bis Monaten, und jede Änderung kann den Scraper, den du gerade eine Stunde lang eingerichtet hast, still und heimlich zerschießen. Wie ein GitHub-Nutzer es in einem Issue im März 2026 formulierte: Das Tool Das ist kein seltener Sonderfall. Das ist der Ausfall des Kernablaufs. Ich habe diese Repos dieses Jahr sehr genau beobachtet, und die Lücke zwischen „sieht auf GitHub aktiv aus“ und „liefert heute tatsächlich Daten“ ist größer, als die meisten erwarten. Dieser Leitfaden ist mein ehrlicher Versuch, die Signale vom Rauschen zu trennen — mit Blick darauf, welche Repos funktionieren, welche brechen, wann du GitHub ganz überspringen solltest und was du nach dem Scraping mit deinen Daten machst.

Was ist ein Google-Maps-Scraper auf GitHub – und warum nutzen ihn Leute?

Ein Google-Maps-Scraper auf GitHub ist typischerweise ein Python- oder Go-Skript, manchmal in Docker verpackt, das Google Maps in einem Headless-Browser öffnet, eine Suchanfrage wie „Zahnärzte in Chicago“ ausführt und die angezeigten Einträge extrahiert — Namen, Adressen, Telefonnummern, Websites, Bewertungen, Anzahl der Rezensionen, Kategorien, Öffnungszeiten und manchmal auch Breiten-/Längengrade.

GitHub ist das Standard-Zuhause für solche Tools, weil der Code kostenlos, Open Source und theoretisch anpassbar ist. Du kannst ein Repo forken, Suchparameter anpassen, deine eigene Proxy-Logik ergänzen und in jedes gewünschte Format exportieren. Gemini_Generated_Image_i0rxr6i0rxr6i0rx_compressed.webp

Die typischen Datenfelder, die sich Leute ziehen wollen, sehen so aus:

FeldHäufigkeit über Repos hinweg
UnternehmensnameNahezu universell
AdresseNahezu universell
TelefonnummerNahezu universell
Website-URLNahezu universell
SternebewertungNahezu universell
Anzahl der RezensionenSehr häufig
Kategorie / TypHäufig
ÖffnungszeitenHäufig
Breite / LängeHäufig in stärkeren Repos
E-Mail / Social LinksNur wenn der Scraper auch die Unternehmenswebsite besucht
Vollständiger RezensionstextHäufig in spezialisierten Review-Scrapern, im Massenscraping weniger zuverlässig

Wer nutzt das? Vertriebsteams, die Outbound-Leadlisten aufbauen. Immobilienprofis, die lokale Märkte kartieren. E-Commerce-Teams, die Wettbewerber analysieren. Marketingteams, die Local-SEO-Audits durchführen. Der gemeinsame Nenner: Sie alle brauchen strukturierte lokale Unternehmensdaten und wollen sie lieber nicht Eintrag für Eintrag manuell aus dem Browser kopieren.

Warum Vertriebs- und Ops-Teams nach Google-Maps-Scraper-Repos auf GitHub suchen

Google Maps ist aus einem einfachen Grund attraktiv: Dort liegen lokale Unternehmensinformationen tatsächlich vor. Nicht in irgendeinem Nischenverzeichnis. Nicht hinter einer Paywall. Direkt in den Suchergebnissen.

Der geschäftliche Nutzen lässt sich in drei große Bereiche einteilen.

Lead-Generierung und Prospecting

Das ist der große Anwendungsfall. Ein Gründer, der einen Google-Maps-Scraper für Freelancer und Agenturen entwickelt, ziemlich direkt: Leads in bestimmten Städten und Nischen finden, Kontaktdaten für Cold Outreach sammeln und CSVs mit Name, Adresse, Telefonnummer, Website, Bewertungen, Rezensionen, Kategorie, Öffnungszeiten, E-Mails und Social Handles erzeugen. Eines der aktivsten Repos (gosom/google-maps-scraper) sagt Nutzern sogar wörtlich, sie könnten seinen Agenten bitten: Das ist kein Hobby-Anwendungsfall — das ist eine Vertriebspipeline.

Marktanalyse und Wettbewerbsanalyse

Ops- und Strategieteams nutzen gescrapte Maps-Daten, um Wettbewerber nach Stadtteil zu zählen, die Stimmung in Rezensionen zu analysieren und Lücken zu erkennen. Ein Local-SEO-Praktiker — in einer einzigen Nische, indem öffentliche Google-Maps-Daten extrahiert wurden. Solche Analysen sind manuell in großem Maßstab praktisch unmöglich.

Local-SEO-Audits und Verzeichnisaufbau

Marketer scrapen Google Maps, um die lokale Sichtbarkeit zu prüfen, die NAP-Konsistenz zu kontrollieren und Verzeichnis-Websites aufzubauen. Ein Nutzer in WordPress mit WP All Import einpflegte.

Die Arbeitszeitrechnung, die Scraping verlockend macht

Manuelles Sammeln ist nicht kostenlos, nur weil ein Browserfenster im Spiel ist. Upwork beziffert administrative VA-Arbeit für Datenerfassung auf . Wenn ein Mensch pro Unternehmen 1 Minute braucht, um die Basics zu erfassen, dann kosten 1.000 Unternehmen etwa 16,7 Stunden — grob $200–$334 Lohnkosten vor der Qualitätssicherung. Bei 2 Minuten pro Unternehmen liegen die Kosten für dieselbe Liste bei $400–$668. Das ist die echte Benchmark, gegen die jeder „kostenlose GitHub-Scraper“ antritt.

Google Places API vs. GitHub-Scraper-Repos vs. No-Code-Tools: Entscheidungsbaum für 2026

Lege deinen Weg fest, bevor du irgendetwas klonst. Datenmenge, Budget, technisches Know-how und Wartungsbereitschaft spielen hier alle mit hinein.

KriteriumGoogle Places APIGitHub-ScraperNo-Code-Tool (z. B. Thunderbit)
Kosten pro 1.000 Abfragen$7–32 (gängige Pro-Aufrufe)Kostenlose Software + Proxy-Kosten + ZeitFreemium, danach kreditbasiert
DatenfelderStrukturiert, auf API-Schema begrenztFlexibel, abhängig vom RepoKI-konfiguriert pro Website
Rezensionen-ZugriffMax. 5 Rezensionen pro OrtVollständig (wenn der Scraper das unterstützt)Hängt vom Tool ab
Rate LimitsKostenfreie Caps pro SKU, danach kostenpflichtigSelbst verwaltet (proxy-abhängig)Vom Anbieter gemanagt
Rechtliche KlarheitExplizite LizenzGraubereich (ToS-Risiko)Anbieter übernimmt die operative Compliance
WartungVon Google gewartetDu wartest selbstVom Anbieter gewartet
EinrichtungsaufwandAPI-Schlüssel + CodePython + Abhängigkeiten + ProxiesErweiterung installieren, Scrape klicken

Wann die Google Places API sinnvoll ist

Für kleine bis mittlere Abfragen, bei denen du eine offizielle Lizenz und planbare Kosten brauchst, ist die API die naheliegende Wahl. Googles ersetzte das universelle Monatsguthaben durch kostenlose Caps pro SKU: für viele Essentials-SKUs, 5.000 für Pro und 1.000 für Enterprise. Danach kostet Text Search Pro , und Place Details Enterprise + Atmosphere kostet $5 pro 1.000.

Die größte Einschränkung: Rezensionen. Die API liefert . Wenn du die vollständigen Rezensionen brauchst, reicht die API nicht aus.

Wann ein GitHub-Scraper sinnvoll ist

Bulk-Discovery nach Keyword plus Geografie, browserseitig sichtbare Daten außerhalb der API-Felder, vollständiger Rezensionstext, eigene Parsing-Logik — wenn du all das brauchst und die Python-/Docker-Skills hast, um einen Scraper zu warten, sind GitHub-Repos die richtige Wahl. Der Nachteil: „kostenlos“ verlagert die Rechnung auf Zeit, Proxies, Retries und Ausfälle. Schon die Proxy-Kosten können ins Gewicht fallen: , und .

Wann ein No-Code-Tool wie Thunderbit sinnvoll ist

Kein technisches Team? Muss die Daten möglichst schnell in Sheets, Airtable, Notion oder CSV landen? Ein No-Code-Tool spart dir den kompletten Python-/Docker-/Proxy-Aufbau. Mit installierst du die Chrome-Erweiterung, öffnest Google Maps, klickst auf „AI Suggest Fields“ und dann auf „Scrape“ — und . Der Cloud-Scraping-Modus übernimmt Anti-Bot-Schutz automatisch und , ohne Proxy-Konfiguration.

Der einfache Entscheidungsweg: Unter 500 Unternehmen und Budget vorhanden → API. Tausende Datensätze und Python-Know-how → GitHub-Repo. Schnelle Daten ohne technische Einrichtung → No-Code-Tool.

Der Frische-Check 2026: Welche Google-Maps-Scraper-GitHub-Repos heute wirklich funktionieren

Das ist der Abschnitt, den ich mir gewünscht hätte, als ich mit der Recherche angefangen habe. Die meisten Artikel zu „best Google Maps scraper“ listen nur Repos mit Kurzbeschreibung und Sternezahl auf. Kein einziger sagt dir, ob das Ding diesen Monat tatsächlich Daten liefert.

Woran du erkennst, ob ein Google-Maps-Scraper-GitHub-Repo noch lebt

Bevor du irgendetwas klonst, geh diese Checkliste durch:

  • Jüngster Code-Push: Suche nach einem echten Commit aus den letzten 3–6 Monaten, nicht nur nach Issue-Kommentaren.
  • Issue-Gesundheit: Lies die drei zuletzt aktualisierten Issues. Geht es um Kernfehler (leere Felder, Selector-Fehler, Browser-Abstürze) oder um Feature-Wünsche?
  • README-Qualität: Dokumentiert es den aktuellen Browser-Stack, das Docker-Setup und die Proxy-Konfiguration?
  • Warnsignale in Issues: Suche nach „search box“, „reviews_count = 0“, „driver“, „Target page“, „selector“, „empty“.
  • Fork- und PR-Aktivität: Aktive Forks und gemergte PRs sprechen für eine lebendige Community.

Keine aktuelle Code-Aktivität, ungelöste Kernfehler beim Scraping und keine Hinweise zu Proxies oder Browser-Wartung? Dann ist dieses Repo für Business-Zwecke wahrscheinlich nicht lebendig genug — auch wenn die Sternezahl beeindruckend aussieht.

Die wichtigsten Google-Maps-Scraper-GitHub-Repos im Check

github-google-maps-scrapers-evaluation.webp

Ich habe die meistgestar­ten Repos nach der oben beschriebenen Methodik bewertet. Hier ist die Zusammenfassung, danach folgen Einzelnotizen.

RepoStarsLetzter PushFunktioniert es 2026?Kommt es mit UI-Änderungen klar?Proxy-UnterstützungStack
gosom/google-maps-scraper3,7k2026-04-19⚠️ Kernextraktion lebt; Review-Felder fehleranfälligAktive WartungJa, explizitGo + Playwright
omkarcloud/google-maps-scraper2,6k2026-04-10⚠️ Aktive App, aber Absturz-/Support-ProblemeVom Anbieter gewartetNicht klar dokumentiertDesktop-App / Binary
gaspa93/googlemaps-scraper4982026-03-26⚠️ Enger Nischen-Fokus auf Review-ScrapingBegrenzte AnzeichenKeine starke Proxy-StrategiePython
conor-is-my-name/google-maps-scraper2842026-04-14⚠️ Vielversprechender Docker-Flow, aber im März Selector-BruchEinige Hinweise auf FixesDockerisiert, Proxy unklarPython + Docker
Zubdata/Google-Maps-Scraper1202025-01-19❌ Zu viele veraltete/Nullfeld-ProblemeKaum BelegeNicht hervorgehobenPython-GUI
patxijuaristi/google_maps_scraper1132025-02-24❌ Geringes Signal, altes Chrome-Driver-ProblemKaum BelegeKeine starken BelegePython

gosom/google-maps-scraper

Derzeit die stärkste Open-Source-Allround-Option. Das README ist ungewöhnlich ausgereift: CLI, Web-UI, REST API, Docker-Anleitungen, Proxy-Konfiguration, Grid-/Bounding-Box-Modus, E-Mail-Extraktion und mehrere Exportziele. Es wirbt mit und dokumentiert Proxies ausdrücklich, weil sie „bei größeren Scraping-Jobs helfen, Rate Limits zu vermeiden“.

Das Problem ist nicht, dass das Projekt aufgegeben wäre — sondern dass die Genauigkeit bei Randfeldern driftet. Aktuelle Issues aus 2026 zeigen , und . Für das Extrahieren von Unternehmenseinträgen ist das glaubwürdig, für reichhaltige Review- und Öffnungszeiten-Daten aber noch wackeliger, bis Fixes landen.

omkarcloud/google-maps-scraper

Dank Sternezahl und langer Präsenz sehr sichtbar, liest sich aber weniger wie transparentes Open Source und eher wie ein verpacktes Extraktionsprodukt — Support-Kanäle, Desktop-Installer, Upsells für Enrichment. Ein Nutzer im April 2026 schrieb, die App starte und spucke dann im Terminal aus, bis sie hänge. Ein anderes offenes Issue beklagt, das Tool sei Nicht tot, aber auch nicht die sauberste Lösung für Leser, die inspectable OSS wollen, das sie selbst zuverlässig patchen können.

gaspa93/googlemaps-scraper

Kein allgemeiner Bulk-Search-Lead-Gen-Scraper. Es ist ein fokussierter , der bei einer konkreten Google-Maps-POI-Review-URL startet und aktuelle Rezensionen abruft, mit Optionen für Metadaten-Scraping und Sortierung der Reviews. Dieser engere Fokus ist für bestimmte Workflows tatsächlich ein Vorteil — löst aber nicht das eigentliche Problem der Such- und Entdeckungsschicht, das die meisten Business-Nutzer im Kopf haben.

conor-is-my-name/google-maps-scraper

Gute Instinkte für moderne Ops-Teams: Docker-first-Installation, JSON-API, geschäftstaugliche Felder und Community-Sichtbarkeit in . Aber das Issue aus März 2026 ist das perfekte Beispiel dafür, warum diese Kategorie fragil ist: Ein Nutzer aktualisierte den Container und die Ausgabe meldete, der Scraper Das ist ein Kernfehler, kein kosmetischer Randfall.

Zubdata/Google-Maps-Scraper

Auf dem Papier ist das Feldset breit: E-Mail, Rezensionen, Bewertungen, Adresse, Website, Telefon, Kategorie, Öffnungszeiten. In der Praxis erzählt die öffentliche Issue-Lage eine andere Geschichte: Nutzer berichten über , und . Zusammen mit der älteren Commit-Historie ist das für den Einsatz 2026 schwer zu empfehlen.

patxijuaristi/google_maps_scraper

Leicht in der GitHub-Suche zu finden, aber das stärkste öffentliche Signal ist ein statt aktiver Wartung. In diesem Artikel ist es vor allem ein Beispiel dafür, was „sieht in der Suche lebendig aus, ist in der Praxis aber riskant“ bedeutet.

Schritt für Schritt: Einen Google-Maps-Scraper von GitHub einrichten

Hast du entschieden, dass ein GitHub-Repo der richtige Weg ist? So sieht das Setup tatsächlich aus. Ich halte es bewusst allgemein statt repo-spezifisch — die Schritte sind über die aktiven Optionen hinweg erstaunlich ähnlich.

Schritt 1: Repository klonen und Abhängigkeiten installieren

Der übliche Weg:

  1. git clone des Repos
  2. Python-virtuelle Umgebung anlegen oder ein Docker-Image ziehen
  3. Abhängigkeiten per pip install -r requirements.txt oder docker-compose up installieren
  4. Manchmal zusätzlich eine Browser-Runtime installieren (Chromium für Playwright, ChromeDriver für Selenium)

Docker-first-Repos wie und reduzieren Abhängigkeitsprobleme, beseitigen sie aber nicht — Docker muss trotzdem laufen, und du brauchst genug Speicherplatz für die Browser-Images.

Schritt 2: Suchparameter konfigurieren

Die meisten Generalisten-Scraper wollen:

  • Keyword + Ort (z. B. „plumbers in Austin TX“)
  • Ergebnislimit (wie viele Einträge extrahiert werden sollen)
  • Ausgabeformat (CSV, JSON, Datenbank)
  • Manchmal geografische Bounding Boxes oder einen Radius für Grid-basierte Suche

Stärkere Repos stellen das über CLI-Flags oder JSON-Request-Bodies bereit. Ältere Repos verlangen manchmal, dass du direkt eine Python-Datei bearbeitest.

Schritt 3: Proxies einrichten, falls nötig

Alles über einen kleinen Testlauf hinaus? Dann brauchst du Proxies. und beschreibt Proxies ausdrücklich als Standardlösung für größere Jobs. Ohne sie musst du nach einigen Dutzend Requests mit CAPTCHAs oder IP-Blocks rechnen.

Schritt 4: Scraper ausführen und Daten exportieren

Skript starten, beobachten, wie der Browser durch die Ergebnis-Karten navigiert, und auf die CSV- oder JSON-Ausgabe warten. Der Happy Path dauert Minuten. Der weniger glückliche Pfad — und der ist häufiger, als viele zugeben — sieht so aus:

  • Browser schließt sich unerwartet
  • Chrome-Driver-Version passt nicht
  • Selector-/Search-Box-Fehler
  • Rezensionen oder Öffnungszeiten kommen leer zurück

Alle vier Muster tauchen in aktuellen .

Schritt 5: Fehler und Brüche beheben

Wenn der Scraper leere Ergebnisse oder Fehler liefert:

  1. Im GitHub-Issue-Bereich des Repos nach ähnlichen Meldungen suchen
  2. Auf Google-Maps-UI-Änderungen achten (neue Selektoren, andere Seitenstruktur)
  3. Das Repo auf den neuesten Commit aktualisieren
  4. Wenn der Maintainer es nicht gefixt hat, Forks nach Community-Patches prüfen
  5. Abwägen, ob die Debug-Zeit den Wechsel des Tools überhaupt wert ist

Realistische Einrichtungszeit beim ersten Mal: Für jemanden, der mit Terminals zurechtkommt, aber noch kein funktionierendes Playwright-/Docker-/Proxy-Setup hat, sind 30–90 Minuten bis zum ersten erfolgreichen Scrape realistisch. Nicht fünf Minuten.

So vermeidest du Bans und Rate Limits beim Scrapen von Google Maps

Es gibt keinen öffentlich dokumentierten Google-Maps-Web-Schwellwert nach dem Motto: „Bei X Requests wirst du blockiert.“ Google hält das absichtlich unklar. Manche Nutzer berichten von CAPTCHAs nach etwa in serverbasierten Playwright-Setups. Ein anderer Nutzer behauptete für einen firmeneigenen Maps-Scraper. Die Schwellenwerte sind weder hoch noch niedrig. Sie sind instabil und kontextabhängig.

Hier ist eine praktische Strategietabelle:

StrategieSchwierigkeitWirksamkeitKosten
Zufällige Verzögerungen (2–5 s zwischen Requests)EinfachMittelKostenlos
Geringere Parallelität (weniger gleichzeitige Sessions)EinfachMittelKostenlos
Rotation von Residential ProxiesMittelHoch$1–6/GB
Datacenter-Proxies (für einfache Ziele)MittelMittel$0.02–0.6/GB
Randomisierung des Headless-Browser-FingerprintsSchwerHochKostenlos
Browser-Persistenz / aufgebaute SessionsMittelMittelKostenlos
Cloud-basiertes Scraping (das Problem auslagern)EinfachHochVariiert

Zufällige Verzögerungen zwischen Requests einbauen

Feste 1-Sekunden-Intervalle sind ein Warnsignal. Verwende zufälligen Jitter — 2 bis 5 Sekunden zwischen Aktionen, mit gelegentlich längeren Pausen. Das ist das Einfachste, was du tun kannst, und es kostet nichts.

Proxies rotieren (Residential vs. Datacenter)

Residential Proxies sind wirksamer, weil sie wie echte Nutzer aussehen, aber sie sind teurer. Aktuelle Preise: , , . Datacenter-Proxies funktionieren für leichteres Scraping, werden bei Google-Angeboten aber schneller erkannt.

Browser-Fingerprints randomisieren

Bei Headless-Browser-Scrapern: User Agents, Viewport-Größen und andere Fingerprint-Signale rotieren. Standardkonfigurationen von Playwright/Puppeteer sind trivial erkennbar. Das ist schwerer umzusetzen, aber kostenlos und sehr wirksam.

Cloud-basiertes Scraping nutzen, um das Problem auszulagern

Tools wie übernehmen Anti-Bot-Schutz, IP-Rotation und Rate-Limits automatisch über ihre Cloud-Scraping-Infrastruktur. Thunderbit — ohne Proxy-Setup oder Verzögerungskonfiguration. Für Teams, die nicht nebenbei Anti-Bot-Ingenieure werden wollen, ist das der praktischste Weg.

Wie Googles Rate-Limit-Schwellen tatsächlich aussehen

Anzeichen dafür, dass du gedrosselt wirst:

  • CAPTCHAs erscheinen mitten im Scrape
  • Leere Ergebnismengen nach zuvor erfolgreichen Abfragen
  • Temporäre IP-Blocks (meist 1–24 Stunden)
  • Verschlechterte Seitenladezeiten (langsamer, Inhalte nur teilweise geladen)

Erholung: Scraping stoppen, IPs wechseln, 15–60 Minuten warten und dann mit geringerer Parallelität fortfahren. Wenn du regelmäßig an Grenzen stößt, braucht dein Setup Proxies oder grundsätzlich einen anderen Ansatz.

Der No-Code-Ausweg: Wann sich ein Google-Maps-Scraper-GitHub-Repo nicht lohnt

Etwa 90 % der Artikel zum Scraping von Google Maps setzen Python-Know-how voraus. Aber ein großer Teil der Zielgruppe — Agenturinhaber, Vertriebsmitarbeiter, Local-SEO-Teams, Researcher — braucht einfach nur Zeilen in einer Tabelle. Kein Browser-Automatisierungsprojekt. Wenn du dich darin wiederfindest, ist dieser Abschnitt ehrlich zu den Abwägungen.

Die echten Kosten von „kostenlosen“ GitHub-Scrapern

| Faktor | GitHub-Repo-Ansatz | No-Code-Alternative (z. B. Thunderbit) | |---|---|---|---| | Einrichtungszeit | 30–90 Min. (Python/Docker/Proxies) | ca. 2 Min. (Browser-Erweiterung) | | Wartung | Manuell (du behebst Brüche selbst) | Automatisch (Anbieter wartet) | | Anpassbarkeit | Hoch (voller Codezugriff) | Mittel (KI-konfigurierte Felder) | | Kosten | Kostenlose Software, aber Zeit + Proxies | Freemium verfügbar, dann kreditbasiert | | Skalierung | Hängt von deiner Infrastruktur ab | Cloud-basiert skalierbar |

„Kostenlose“ GitHub-Scraper verlagern die Rechnung auf die Zeit. Wenn du deine Zeit mit 50 $/Stunde bewertest und 2 Stunden für das Setup, 1 Stunde für Fehlersuche und 30 Minuten für die Proxy-Konfiguration brauchst, sind das 175 $, bevor du auch nur einen einzigen Eintrag gescrapt hast. Mit Proxy-Kosten und laufender Wartung, wenn Google die UI ändert, wirkt die „kostenlose“ Option schnell teuer.

Wie Thunderbit das Google-Maps-Scraping vereinfacht

So sieht der tatsächliche Workflow mit aus:

  1. installieren
  2. Zu Google Maps navigieren und deine Suche ausführen
  3. Auf „AI Suggest Fields“ klicken — die KI von Thunderbit liest die Seite und schlägt Spalten vor (Unternehmensname, Adresse, Telefonnummer, Bewertung, Website usw.)
  4. Auf „Scrape“ klicken und die Daten werden automatisch strukturiert
  5. Subpage Scraping verwenden, um von den gescrapten URLs aus die Website jedes Unternehmens zu besuchen und zusätzliche Kontaktdaten zu extrahieren (E-Mails, Telefonnummern) — also genau das zu automatisieren, was GitHub-Repo-Nutzer manuell machen
  6. Nach — ohne Paywall beim Export

Kein Python. Kein Docker. Keine Proxies. Keine Wartung. Für Vertriebs- und Marketing-Teams, die Leads generieren, entfällt damit der gesamte Einrichtungsaufwand, den GitHub-Repos erfordern.

Preiskontext: Thunderbit nutzt ein Kreditmodell, bei dem . Der Free-Tarif umfasst 6 Seiten pro Monat, die Testphase 10 Seiten, und der Starter-Plan kostet .

Nach dem Scrape: Bereinigen und Anreichern deiner Google-Maps-Daten

Die meisten Leitfäden hören beim Roh-Export auf. Rohdaten sind noch keine Leadliste. In Foren berichten Nutzer regelmäßig von und fragen: „Wie gehst du mit Duplikaten in diesem Setup um?“ Hier kommt der Teil nach dem Scrape.

Deine Ergebnisse deduplizieren

Duplikate entstehen durch Überschneidungen bei der Paginierung, wiederholte Suchen über überlappende Gebiete, Grid-/Bounding-Box-Strategien, die dieselben Unternehmen abdecken, und Unternehmen mit mehreren Einträgen.

Beste Reihenfolge für Deduping:

  1. Auf place_id matchen, wenn dein Scraper das ausgibt (am zuverlässigsten)
  2. Exakter Match auf normalisiertem Unternehmensnamen + Adresse
  3. Fuzzy-Matching auf Name + Adresse, bestätigt über Telefonnummer oder Website

Einfache Excel-/Sheets-Formeln (COUNTIF, Duplikate entfernen) lösen die meisten Fälle. Für größere Datensätze funktioniert ein kurzes Python-Dedup-Skript mit pandas gut.

Telefonnummern und Adressen normalisieren

Gescrapte Telefonnummern kommen in allen denkbaren Formaten vor: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. Für den CRM-Import normalisiere alles auf E.164-Format — also +Ländervorwahl + nationale Nummer, z. B. +15551234567.

— ein Bereinigungsschritt weniger.

Bei Adressen solltest du auf ein konsistentes Format standardisieren: Straße, Stadt, Bundesland, PLZ. Entferne überflüssige Leerzeichen, korrigiere uneinheitliche Abkürzungen (St vs. Street) und validiere gegen einen Geocoding-Dienst, wenn Genauigkeit wichtig ist.

Mit E-Mails, Websites und Social Profiles anreichern

Google-Maps-Einträge enthalten fast immer eine Website-URL. Direkt enthalten sie fast nie eine E-Mail-Adresse. Das Erfolgsrezept:

  1. Google Maps für die Unternehmensfindung scrapen (Name, Adresse, Telefonnummer, Website-URL)
  2. Die Website jedes Unternehmens besuchen, um E-Mail-Adressen, Social Links und andere Kontaktdaten zu extrahieren

Genau hier nähern sich die besten GitHub-Repos und No-Code-Tools an:

  • , indem Unternehmenswebsites besucht werden
  • kann von den gescrapten URLs aus die Website jedes Unternehmens besuchen und E-Mail-Adressen sowie Telefonnummern extrahieren — alles direkt an deine ursprüngliche Tabelle angehängt

Für GitHub-Repo-Nutzer ohne integriertes Enrichment bedeutet das: entweder einen zweiten Scraper schreiben oder jede Website manuell besuchen. Thunderbit fasst beide Schritte in einem Workflow zusammen.

Export in CRM- oder Workflow-Tools

Die praktischsten Exportziele:

  • Google Sheets für gemeinsames Bereinigen und Teilen
  • Airtable für strukturierte Datenbanken mit Filtern und Ansichten
  • Notion für leichte Ops-Datenbanken
  • CSV/JSON für CRM-Import oder nachgelagerte Automatisierung

Thunderbit unterstützt . Die meisten GitHub-Repos exportieren nur als CSV oder JSON — die CRM-Integration musst du separat lösen. Wenn du mehr Möglichkeiten suchst, gescrapte Daten in Tabellen zu bekommen, lies unseren Leitfaden zum .

Google-Maps-Scraper-GitHub-Repos: Der vollständige Vergleich Seite an Seite

Hier ist die übersichtliche Vergleichstabelle für alle Ansätze:

Tool / RepoTypKostenmodellEinrichtungszeitProxy-ManagementWartungExportoptionenFunktioniert 2026?
Google Places APIOffizielle API$7–32 / 1K Calls (Pro)NiedrigNicht nötigNiedrigJSON / App-Integration
gosom/google-maps-scraperGitHub OSSKostenlos + Proxies + ZeitMittelJa, dokumentiertHochCSV, JSON, DB, API⚠️
omkarcloud/google-maps-scraperGitHub-PackagedQuasi kostenlos, produktisiertMittelUnklarMittel-hochApp-Ausgabe⚠️
gaspa93/googlemaps-scraperGitHub-Review-ScraperKostenlos + ZeitMittelBegrenztMittel-hochCSV⚠️ (Nische)
conor-is-my-name/google-maps-scraperGitHub-Docker-APIKostenlos + ZeitMittelMöglichHochJSON / Docker-Service⚠️
Zubdata/Google-Maps-ScraperGitHub-GUI-AppKostenlos + ZeitMittelBegrenztHochApp-Ausgabe
ThunderbitNo-Code-ErweiterungCredits / ZeilenNiedrigAbstrahiert (Cloud)Niedrig-mittelSheets, Excel, Airtable, Notion, CSV, JSON

Mehr Kontext zur Wahl zwischen Scraping-Ansätzen findest du vielleicht auch in unserem Überblick zu den oder im Vergleich .

Rechtliche Aspekte und AGB-Bedenken

Kurz, aber wichtig.

Googles aktuelle Maps-Platform-Bedingungen sind eindeutig: Kunden dürfen Google-Maps-Inhalte nicht also Geschäftsnamen, Adressen oder Nutzerrezensionen nicht außerhalb der erlaubten Nutzung kopieren, speichern oder scrapen. Die dienstspezifischen Bedingungen erlauben für bestimmte APIs nur begrenztes Caching, typischerweise .

Die rechtliche Hierarchie ist klar:

  • API-Nutzung hat die klarste vertragliche Grundlage
  • GitHub-Scraper bewegen sich in deutlich unsichererem Terrain
  • No-Code-Tools reduzieren den operativen Aufwand, beseitigen aber deine eigenen Compliance-Pflichten nicht

Sprich für deinen konkreten Anwendungsfall mit einer eigenen Rechtsberatung. Einen tieferen Blick auf die Rechtslage findest du in unserem separaten Beitrag zu den .

Wichtigste Erkenntnisse: Den richtigen Google-Maps-Scraper-Ansatz 2026 wählen

Nach dem Durchforsten von Repos, Issues, Foren und Preisseiten ist das der Stand:

  1. Prüfe immer die Aktualität eines Repos, bevor du Zeit ins Setup investierst. Die Sternezahl ist kein Indikator dafür, dass es heute funktioniert. Lies die drei neuesten Issues. Suche nach Code-Commits aus den letzten 3–6 Monaten.

  2. Die derzeit beste Open-Source-Option ist gosom/google-maps-scraper — aber selbst dort zeigen sich frische Feldregressionen aus 2026. Behandle es wie ein lebendiges System, das überwacht werden muss, nicht wie ein einmal einrichten und vergessen-Tool.

  3. Die Google Places API ist die richtige Wahl für Stabilität und rechtliche Klarheit — aber sie ist eingeschränkt (maximal 5 Rezensionen, Preis pro Aufruf) und löst Bulk-Discovery nicht besonders gut.

  4. Für nicht-technische Teams sind No-Code-Tools wie die praktische Alternative. Die Zeit bis zu den ersten Daten beträgt Minuten statt Stunden, und du meldest dich nicht an, um nebenbei Scraper-Maintainer zu werden.

  5. Rohdaten sind nur die halbe Arbeit. Plane Zeit für Deduplizierung, Normalisierung von Telefonnummern, E-Mail-Enrichment und CRM-Export ein. Tools, die diese Schritte automatisch erledigen — wie Thunderbits Subpage-Scraping und E.164-Normalisierung — sparen mehr Zeit, als viele erwarten.

  6. „Kostenloser Scraper“ bedeutet im besten Fall: Software mit unbezahlter Wartung. Das ist völlig okay, wenn du die Skills hast und die Arbeit magst. Es ist ein schlechtes Geschäft, wenn du ein Vertriebsmitarbeiter bist, der bis Freitag einfach nur 500 Zahnarzt-Leads in Phoenix braucht.

Wenn du mehr Optionen zum Extrahieren von Unternehmensdaten erkunden willst, schau dir unsere Leitfäden zu , und an. Außerdem kannst du Tutorials auf dem ansehen.

FAQs

Ist die Nutzung eines Google-Maps-Scrapers von GitHub kostenlos?

Die Software ist kostenlos. Die Arbeit nicht. Du investierst 30–90 Minuten ins Setup, anschließend Zeit in die Fehlersuche bei Brüchen und oft 10–100+ $ pro Monat an Proxy-Kosten, sobald das Volumen ernst wird. Wenn deine Zeit einen Wert hat, ist „kostenlos“ ein irreführender Begriff.

Brauche ich Python-Kenntnisse, um einen Google-Maps-Scraper von GitHub zu nutzen?

Die meisten beliebten Repos erfordern grundlegende Python- und Kommandozeilenkenntnisse. Docker-first-Repos reduzieren den Aufwand, beseitigen ihn aber nicht — du musst weiterhin Containerprobleme debuggen, Suchparameter konfigurieren und Proxies einrichten. Für nicht-technische Nutzer bieten No-Code-Tools wie eine 2-Klick-Alternative ohne Programmierung.

Wie oft brechen Google-Maps-Scraper-GitHub-Repos?

Es gibt keinen festen Zeitplan, aber die aktuelle GitHub-Issue-Historie zeigt, dass Kernfehler und Feldregressionen in einem Wochen- bis Monatsrhythmus auftreten. Google aktualisiert die Maps-Oberfläche regelmäßig, was Selektoren und Parsing-Logik über Nacht kaputt machen kann. Aktive Repos beheben das schnell; aufgegebene Repos bleiben dauerhaft defekt.

Kann ich Google-Maps-Rezensionen mit einem GitHub-Scraper auslesen?

Einige Repos unterstützen die vollständige Extraktion von Rezensionen (gaspa93/googlemaps-scraper ist genau dafür ausgelegt), während andere nur Zusammenfassungsdaten wie Bewertung und Anzahl der Rezensionen ziehen. Rezensionen gehören außerdem zu den ersten Feldern, die bei Änderungen im Seitenverhalten driften — selbst Repos mit Review-Unterstützung können also nach einem UI-Update unvollständige Daten liefern.

Was ist die beste Alternative, wenn ich keinen GitHub-Scraper nutzen will?

Zwei Hauptwege: die Google Places API für offiziellen, strukturierten Zugriff (mit Kosten- und Feldlimits) oder ein No-Code-Tool wie für schnelles, KI-gestütztes Extrahieren ohne Programmierung. Die API ist am besten für Entwickler, die Compliance-Sicherheit brauchen. Thunderbit ist am besten für Business-Nutzer, die Daten schnell in einer Tabelle brauchen.

Mehr erfahren

Inhaltsverzeichnis

Thunderbit testen

Leads und andere Daten in nur 2 Klicks scrapen. Mit KI.

Thunderbit holen Kostenlos
Daten mit KI extrahieren
Daten einfach nach Google Sheets, Airtable oder Notion übertragen
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week