10 beste Craigslist-Scraper, die auch 2026 noch funktionieren

Zuletzt aktualisiert am April 24, 2026

Craigslist wirkt, als hätte sich seit 2003 kaum etwas verändert – aber die Daten in diesen schlichten Textanzeigen sind erstaunlich wertvoll. Mit und ist die Plattform nach wie vor eine der größten Kleinanzeigen-Seiten in den USA – und eine öffentliche API gibt es nicht.

Ich arbeite seit Jahren an Automatisierungstools bei und höre von Vertriebs-, Operations- und Immobilienteams immer wieder denselben Satz: „Ich brauche Craigslist-Daten in einer Tabelle, und ich will nicht drei Stunden lang Copy-and-paste machen.“ Das Problem ist: Die meisten Ratgeber zu „besten Craigslist-Scrapern“ sind veraltet, lassen die schwierigen Punkte aus – etwa Anti-Bot-Schutz – oder listen nur Tools auf, ohne sie wirklich zu vergleichen.

Also habe ich diesen Leitfaden mit 10 Tools zusammengestellt, die 2026 tatsächlich noch funktionieren – von No-Code-Chrome-Erweiterungen über Enterprise-Proxy-Plattformen bis hin zu Open-Source-Python-Bibliotheken. Egal, ob du ein Business-User bist, der noch nie eine Zeile Code geschrieben hat, oder ein Entwickler, der in Python zu Hause ist: Hier ist etwas für dich dabei.

Warum Craigslist 2026 scrapen? Die wichtigsten Use Cases für Business-Teams

Craigslist mag altmodisch wirken, aber genau das ist Teil seines Reizes – und seines Werts. Die Plattform liegt weltweit immer noch auf und ist laut offiziellem Verzeichnis in vertreten. Das bedeutet: eine enorme Menge hyperlokaler Angebote, die es sonst nirgendwo gebündelt gibt.

Das sind die Anwendungsfälle, auf die Teams immer wieder zurückkommen:

  • Lead-Generierung: Beiträge in den Bereichen Services und Gigs enthalten oft eine Unternehmensbeschreibung, geografische Angaben und einen Craigslist-Relay-Kontaktpfad – genug, damit Vertriebsteams eine lokale Lead-Liste aufbauen können.
  • Immobilien-Monitoring: Wohnungsseiten zeigen Miete, Stadtteil, Zimmer/Bäder, Quadratmeter und Zeitstempel – ideal für Mietvergleiche und Verfügbarkeits-Tracking.
  • Wettbewerbsfähige Preisanalysen: Anzeigen im Bereich „Zu verkaufen“ zeigen Titel, Preis, Zustand und Standort – pures Gold für Resale- oder Arbitrage-Recherchen.
  • Recruiting und Arbeitsmarkt-Monitoring: In den Kategorien Jobs und Gigs werden Vergütung, Beschäftigungsart und Rollenbeschreibungen sichtbar – perfekt für lokale Talentmarkt-Analysen.
  • Marktanalyse über mehrere Regionen hinweg: Weil Craigslist nach Subdomain und Stadt segmentiert ist, kannst du Region für Region nach Preisen, Volumen oder Kategorienmix abfragen.
  • Workflow-Automatisierung: Viele Nutzer wollen Craigslist-Daten einfach in CSV, Google Sheets, Airtable oder ein CRM fließen lassen – ganz ohne manuelles Browsen.

Ein Nutzer berichtete, dass ein täglicher Craigslist-Scrape, der früher 60–90 Minuten dauerte, mit Automatisierung auf etwa 5 Minuten geschrumpft ist. Genau solche Zeiteinsparungen summieren sich schnell.

Wie wir die besten Craigslist-Scraper ausgewählt haben: Unsere Bewertungskriterien

Nicht alle Craigslist-Scraper sind gleich, und das „beste“ Tool hängt stark davon ab, wer du bist und was du brauchst. Ich habe jedes Tool anhand von sechs Kriterien bewertet:

  1. Einrichtungsaufwand – Ist es anfängerfreundlich (No-Code), oder braucht man einen Entwickler?
  2. Umgang mit Craigslist-anti-Bot-Schutz – Gibt es eingebautes Proxy-Rotation-Management, CAPTCHA-Handling oder Browser-Fingerprinting?
  3. Preismodell – Kostenlos, Freemium, kostenpflichtig oder Enterprise?
  4. Exportoptionen – CSV, Excel, Google Sheets, Airtable, Notion, JSON, Datenbank?
  5. Multi-Region-Unterstützung – Kann das Tool alle 416 US-Craigslist-Seiten scrapen oder nur jeweils eine Stadt?
  6. Wartungsaufwand – Bricht das Tool, wenn Craigslist sein Seitenlayout ändert, oder passt es sich automatisch an?

Kein Konkurrenzartikel, den ich gefunden habe, liefert einen so konsistenten direkten Vergleich – falls dich also vage „Top 10“-Listen frustriert haben, ist dieser hier für dich.

Die 10 besten Craigslist-Scraper im Überblick

Bevor wir auf jedes Tool im Detail eingehen, hier die Hauptvergleichstabelle. Ich habe sie in drei Gruppen eingeteilt: No-Code-Tools für Business-User, Enterprise-Plattformen für Skalierung und Open-Source-Bibliotheken für Entwickler.

ToolTypKostenlose Stufe?Proxy-/Anti-Bot-SupportCAPTCHA-HandlingExportformateAm besten für
ThunderbitNo-Code-Chrome-ErweiterungJa (6 Seiten/Monat)Browser-Modus (für moderate Läufe kein Proxy nötig)N/A (Browser-Sitzung)Excel, Sheets, Airtable, Notion, CSV, JSONNicht-technische Business-User
Bright DataEnterprise-Scraper + Proxy + DatasetTestphaseVerwaltetes Unblocking, Proxies, Retries, RenderingJa (automatisch gelöst)JSON, NDJSON, CSV, Parquet, XLSX, APIErfassung im Enterprise-Maßstab
OxylabsAPI + Proxy-StackTestphaseVerwaltetes Unblocking, Residential-/ISP-ProxiesJaHTML, Screenshot, API-AusgabenEntwickler, die Enterprise-Infrastruktur brauchen
ApifyCloud-Actor-MarktplatzJa ($5/Monat Guthaben)Proxy-Rotation (abhängig vom Actor)Teilweise / actor-spezifischJSON, CSV, XML, Excel, JSONLFlexible Low-Code-Cloud-Automatisierung
ParseHubVisueller No-Code-ScraperJaKostenpflichtige Proxy-Rotation, Cloud-RunsKein KernfeatureCSV, JSON, API/S3/Dropbox (kostenpflichtig)Preisbewusste No-Code-Nutzer
PhantombusterCloud-AutomatisierungsplattformJa (eingeschränkt)Proxy-Support vorhandenCredits / workflow-basiertCSV, JSON (kostenpflichtig)Multi-Plattform-Sales-Automatisierung
ScrapyOpen-Source-Python-CrawlerKostenlos (OSS)Eigene Proxies/Middleware mitbringenNeinJSON, JSONL, CSV, XML, DBProduktions-Crawler
PlaywrightOpen-Source-Browser-AutomatisierungKostenlos (OSS)Eigenen Browser/Proxy mitbringenNeinBenutzerdefinierter ExportKontrolle auf Browser-Ebene
SeleniumOpen-Source-Browser-AutomatisierungKostenlos (OSS)Eigenen Browser/Proxy mitbringenNeinBenutzerdefinierter ExportÄltere Multi-Language-Stacks
BeautifulSoupOpen-Source-HTML-ParserKostenlos (OSS)Allein keineNeinBenutzerdefinierter ExportLeichtgewichtiges Parsen

Hier zeichnen sich drei Gruppen klar ab:

  • No-Code-Tools (Thunderbit, ParseHub, Phantombuster) für Business-User, die Daten ohne Engineering-Overhead wollen.
  • Enterprise-Plattformen (Bright Data, Oxylabs, Apify) für Teams, die Skalierung, Anti-Bot-Infrastruktur und verwaltete Auslieferung brauchen.
  • Open-Source-Entwicklertools (Scrapy, Playwright, Selenium, BeautifulSoup) für maximale Kontrolle – aber mit Einrichtungs-, Wartungs- und Proxy-Management-Aufwand.

Jetzt zu den Deep Dives.

1. Thunderbit

thunderbit-ai-web-scraper.webp ist eine KI-gestützte Chrome-Erweiterung für Menschen, die strukturierte Daten von jeder Website – einschließlich Craigslist – wollen, ohne Code zu schreiben oder Proxies zu konfigurieren.

Ich bin hier natürlich voreingenommen (wir haben es gebaut), aber der Grund, warum ich Thunderbit an erste Stelle setze, ist, dass es genau die Probleme löst, die Craigslist-Scraping für nicht-technische Nutzer mit sich bringt: wechselnde Seitenlayouts zwischen Kategorien, Anreicherung über Unterseiten und das ständige Brechen, wenn sich CSS-Selektoren ändern.

So funktioniert es auf Craigslist:

  1. Installiere die und öffne eine beliebige Craigslist-Anzeigenseite (zum Beispiel Wohnungen in deiner Stadt).
  2. Klicke auf „KI-Felder vorschlagen“ – Thunderbits KI liest die Seite und schlägt Spalten vor, die genau zu den vorhandenen Inhalten passen. Bei Wohnungsanzeigen bekommst du Titel, Preis, Quadratmeter, Schlafzimmer, Standort, Datum und Link. Bei Jobs bekommst du Titel, Vergütung, Jobtyp und so weiter. Keine manuelle Selektor-Konfiguration.
  3. Klicke auf „Scrapen“ und beobachte, wie die Daten in einer strukturierten Tabelle erscheinen.
  4. Die Paginierung ist kein Problem – Thunderbit funktioniert mit Craigs­lists klickbasierter Seitennavigation.
  5. Nutze „Unterseiten scrapen“, um jede einzelne Anzeige aufzurufen und Felder nur von der Detailseite zu extrahieren: vollständige Beschreibung, alle Bilder, eingebettete Kontaktdaten und mehr.
  6. Exportiere nach Google Sheets, Excel, Airtable, Notion oder CSV – .

Wichtige Funktionen:

  • KI-gestützte Felderkennung: Passt sich automatisch an unterschiedliche Craigslist-Kategorien an – Wohnungen bekommen Quadratmeter-/Schlafzimmer-Spalten, Jobs bekommen Vergütungs-/Jobtyp-Spalten, Angebote zum Verkauf bekommen Zustand/Preis. Kein manuelles CSS-Arbeiten.
  • Scraping von Unterseiten: Nach dem Scrapen einer Ergebnisseite ruft das Tool jede Anzeige auf, um Felder von der Detailseite zu holen (vollständige Beschreibung, Bilder, Kontaktinfos).
  • Browserbasierter Scraping-Modus: Läuft in deiner eigenen Chrome-Sitzung, sodass bei moderaten Mengen kein Proxy nötig ist. Das senkt Kosten und Komplexität erheblich.
  • Null Wartungsaufwand: Die KI liest die Seite jedes Mal neu. Wenn Craigslist sein Layout ändert (und das passiert), bricht dein Scraper nicht.
  • Kostenloser Export: Excel, Google Sheets, Airtable, Notion, CSV, JSON – keine Paywall für Exporte.

Preis: Kostenlose Stufe (6 Seiten/Monat), kostenlose Testphase (10 Seiten), für höhere Volumina.

Am besten für: Vertriebsteams, die Leads aus Craigslist-Services/Gigs scrapen, Immobilien-Teams, die Mietpreise überwachen, Operations-Teams, die strukturierte Craigslist-Daten ohne Entwicklerunterstützung brauchen, und alle, die Daten in einem Schritt scrapen, kennzeichnen und exportieren wollen.

2. Bright Data

Screenshot 2026-04-22 at 12.27.50 PM_compressed.webp ist die schwere Enterprise-Option. Es ist die einzige Plattform auf dieser Liste mit einer dedizierten -Produktseite und einem -Marktplatz.

Wenn du täglich Tausende Craigslist-Anzeigen über alle US-Regionen hinweg scrapen musst, ist Bright Data genau dafür gebaut. Der kümmert sich um IPs, Retries, Rendering und Blockaden – inklusive . Mit der Web Scraper IDE kannst du eigene Craigslist-Workflows bauen und programmgesteuert durch alle 416 Regional-URLs iterieren.

Wichtige Funktionen:

  • Riesiges Residential-Proxy-Netzwerk (Millionen IPs)
  • Integrierte CAPTCHA-Lösung und Anti-Bot-Umgehung
  • Craigslist-spezifische Scraper- und Dataset-Produkte
  • Export: JSON, NDJSON, CSV, Parquet, XLSX, API-Auslieferung, Webhooks

Preis: Der Craigslist-Scraper kostet im Pay-as-you-go-Modell; es gibt auch Pläne wie 380.000 Seitenaufrufe für 499 $. Residential Proxies starten bei im Pay-as-you-go-Modell. Eine kostenlose Testphase umfasst 1.000 Anfragen für eine Woche.

Am besten für: Enterprise-Teams, die Craigslist in hohem Volumen und über mehrere Regionen hinweg mit garantierter Verfügbarkeit und dediziertem Support erfassen müssen. Kleine, kostenbewusste Teams sollten sich anderswo umsehen.

3. Oxylabs

oxylabs-data-for-ai-proxies.webp ist ein Premium-Anbieter für Proxy- und Scraping-Infrastruktur mit einer dedizierten und einer .

Oxylabs ist stärker entwicklerorientiert als Bright Datas All-in-one-Ansatz. Die Web Scraper API und der unterstützen JS-Rendering, Retries, Sitzungsverwaltung, Fingerprint-Erzeugung und breiteres Anti-Bot-Handling. Die kostenlose Testphase der Craigslist Scraper API geht bis zu .

Wichtige Funktionen:

  • Residential- und ISP-Proxy-Pools (Residential ab , ISP ab )
  • Web Unblocker mit automatischem Fingerprint- und Sitzungsmanagement
  • Craigslist-spezifischer API-Endpunkt
  • 7-tägige kostenlose Testphase verfügbar

Preis: Die Scraper-API für „andere Websites“ startet bei etwa . Die Micro-Stufe des Web Unblockers beginnt bei etwa . Residential Proxies in großem Umfang können bei 1 TB rund 0,50 $/GB kosten.

Am besten für: Entwickler-Teams, die verwaltete Proxy-Infrastruktur und API-basierte Workflows für dauerhaftes Craigslist-Scraping wollen. Teams, die bereits Oxylabs-Proxies für andere Projekte nutzen, können Craigslist leicht ergänzen.

4. Apify

apify-web-data-scrapers.webp ist eine cloudbasierte Plattform für Web-Scraping und Automatisierung mit einem Marktplatz vorgefertigter „Actors“ – Scraper-Vorlagen, die du ohne Code ausführen kannst.

Die Craigslist-Landschaft auf Apify ist interessant: Es gibt mehrere von der Community gepflegte Craigslist-Actors mit sehr unterschiedlicher Qualität. Der Actor ivanvs/craigslist-scraper hat 829 Nutzer insgesamt und eine 5,0-Bewertung, während automation-lab/craigslist-scraper 44 Nutzer und eine 1,0-Bewertung hat. Die Qualität ist uneinheitlich, also solltest du vor einer Entscheidung testen.

Wichtige Funktionen:

  • Mehrere Craigslist-Actors verfügbar (einige extrahieren mit eingebauten Verzögerungen)
  • Cloud-Ausführung, geplante Läufe, API-Zugriff, Webhook-Integrationen
  • verfügbar
  • Export:

Preis: , kostenpflichtige Pläne ab etwa 49 $/Monat. Die Compute-basierte Preisgestaltung kann bei hoher Nutzung stark ansteigen – behalte deinen CU-Verbrauch im Blick.

Am besten für: Teams, die eine Cloud-Lösung wollen, ohne Infrastruktur zu verwalten, Nutzer mit Komfort im Low-Code-Setup und Teams, die geplante, wiederkehrende Craigslist-Scrapes brauchen.

5. ParseHub

parsehub.com-homepage-1920x1080_compressed.webp ist ein desktopbasiertes visuelles Web-Scraping-Tool, bei dem du auf Seitenelemente klickst, um festzulegen, was extrahiert werden soll.

Um einen Craigslist-Scrape in ParseHub einzurichten, klickst du auf Anzeigentitel, Preise und Links, damit das Tool lernt, was es erfassen soll. Es verarbeitet Paginierung über AJAX-Klickschleifen und unterstützt Cloud-Runs in kostenpflichtigen Plänen. Die kostenlose Stufe bietet bis zu 5 Projekte, was für kleinere Craigslist-Aufgaben ordentlich ist.

Wichtige Funktionen:

  • Visueller Point-and-Click-Workflow-Builder
  • Paginierung und dynamische Inhalte
  • Cloud-Runs und Planung in kostenpflichtigen Plänen
  • Export: CSV, Excel, JSON

Preis: Kostenlose Stufe (5 Projekte), kostenpflichtige Pläne ab etwa 189 $/Monat für mehr Seiten und geplante Läufe.

Einschränkungen: Kann bei großen Scrapes langsam sein, in der kostenlosen Stufe sind geplante Läufe begrenzt, und – besonders wichtig – es basiert auf CSS-Selektoren, braucht also manuelle Pflege, wenn Craigslist sein Layout ändert.

Am besten für: Einzelanwender oder kleine Teams mit mittlerem Scraping-Bedarf, die ein visuelles No-Code-Tool wollen, aber keine KI-gestützte Felderkennung benötigen.

6. Phantombuster

phantombuster-website-screenshot.webp ist eine cloudbasierte Automatisierungsplattform, die ursprünglich für LinkedIn- und Social-Media-Scraping bekannt wurde. Es ist kein Craigslist-natives Tool, aber sein Web Element Extractor kann öffentliche Seiten mit CSS-Selektoren scrapen.

Ein Craigslist-Scrape in Phantombuster einzurichten, erfordert mehr Arbeit als ein dediziertes Tool – du musst Selektoren angeben, den Workflow bauen und die Planung einrichten. Wenn du Phantombuster aber ohnehin für LinkedIn oder Social-Media-Lead-Gen nutzt, ist Craigslist schnell in deine Pipeline integriert.

Wichtige Funktionen:

  • Vorgefertigte Automatisierungsvorlagen und Cloud-Ausführung
  • Planung und CRM-Integrationen
  • Proxy-Support und Credits für CAPTCHA-Lösung verfügbar
  • Export: CSV, JSON in kostenpflichtigen Plänen (kostenlose Stufe auf 10 Zeilen begrenzt)

Preis: Kostenlose Stufe mit 5 Slots, 2 Stunden/Monat und Exportlimit von 10 Zeilen. Kostenpflichtige Jahrespläne starten bei etwa 56 $/Monat bei jährlicher Abrechnung.

Am besten für: Vertriebsteams, die Phantombuster bereits für Multi-Plattform-Lead-Generierung nutzen und Craigslist zu ihrem Workflow hinzufügen wollen.

7. Scrapy

scrapy.org-homepage-1920x1080_compressed.webp ist das beliebteste Open-Source-Python-Web-Scraping-Framework und die naheliegende Wahl für Entwicklerteams, die maximale Kontrolle über ihr Craigslist-Crawling wollen.

Die aktuelle stabile Version ist . Scrapy unterstützt Multi-Region-Crawling (durch alle regionalen URLs iterieren), integrierte Anfrageplanung und Drosselung, für Proxy-Rotation und nach CSV, JSON, JSONL, XML und in Datenbank-Pipelines. Das scrapy-playwright-Plugin ergänzt Browser-Rendering, wenn du es brauchst.

Wichtige Funktionen:

  • Hochgradig anpassbarer Crawler in Produktionsqualität
  • Middleware für Proxies, Retries, Cookies und Rotation von User-Agents
  • Feed-Exporte: JSON, JSONL, CSV, XML, Datenbank-Pipelines
  • Kostenlos und Open Source

Die versteckten Kosten: Scrapy selbst ist kostenlos, aber der Betrieb in großem Maßstab auf Craigslist bedeutet Proxy-Abos (50–500+ $/Monat), Hosting-/Serverkosten und laufende Wartung, wenn Craigslist seine HTML-Struktur ändert.

Am besten für: Entwicklerteams mit Python-Erfahrung, die maximale Flexibilität, vorhandene Proxy-Infrastruktur und Craigslist-Crawling in hohem Volumen und über mehrere Regionen hinweg brauchen.

8. Playwright

playwright.dev-homepage-1920x1080_compressed.webp ist eine moderne Browser-Automatisierungsbibliothek von Microsoft, die Chromium, Firefox und WebKit programmatisch steuert. Der aktuelle Release-Zyklus ist aktiv – .

In Entwickler-Communities wird Playwright beim Craigslist-Scraping zunehmend gegenüber Selenium bevorzugt. Es ist schneller, zuverlässiger und bietet mit Community-Plugins wie playwright-extra bessere Stealth-Funktionen gegen Erkennung. Es unterstützt Headless- und Headed-Modi, automatisches Warten auf Elemente, Netzwerk-Interception und Screenshot-/PDF-Erfassung.

Wichtige Funktionen:

  • Unterstützt
  • Headless- und Headed-Browser-Modi
  • Automatisches Warten auf Elemente, Netzwerk-Interception
  • Kostenlos und Open Source

Craigslist-Vorteil: Playwright kann echtes Nutzerverhalten überzeugender nachahmen als rohe HTTP-Anfragen, was das Blockierungsrisiko senkt. Die Community-Stimmung auf Reddit bevorzugt Playwright für neue Projekte klar gegenüber Selenium.

Versteckte Kosten: Dieselben wie bei Scrapy – Proxy-Kosten, Hosting und Wartung, wenn Selektoren brechen.

Am besten für: Entwickler, die feingranulare Browser-Kontrolle brauchen, Teams, die Scraper für JavaScript-gerenderte Inhalte bauen, und alle, die eine moderne Alternative zu Selenium bevorzugen.

9. Selenium

selenium.dev-homepage-1920x1080_compressed.webp ist das seit Langem etablierte und weit verbreitete Browser-Automatisierungs-Framework. Die aktuelle Version ist , und es erweitert weiterhin .

Selenium unterstützt mehrere Sprachen (Python, Java, C#, JavaScript) und alle wichtigen Browser. Es kann vollständige Browsersitzungen simulieren, sich bei Bedarf einloggen und durch Seiten scrollen. Im Vergleich zu Playwright ist es aber langsamer, ausführlicher und ohne zusätzliche Stealth-Bibliotheken wie undetected-chromedriver leichter als Bot zu erkennen.

Wichtige Funktionen:

  • Unterstützung für mehrere Sprachen (Python, Java, C#, JavaScript)
  • Simulation vollständiger Browsersitzungen
  • Reifes Ökosystem mit umfangreicher Dokumentation
  • Kostenlos und Open Source

Einschränkungen: Die Community tendiert 2026 bei neuen Projekten klar zu Playwright. In einem Reddit-Thread wurde erwähnt, dass Cloudflare Selenium immer noch erkennt, „auch mit Residential Proxies“ – Stealth ist also out of the box schwerer.

Am besten für: Entwicklerteams, die bereits in Selenium investiert haben und nicht migrieren wollen, Projekte mit Bedarf an Multi-Language-Support (Java, C#) und ältere Scraping-Setups.

10. BeautifulSoup

crummy.com-homepage-1920x1080_compressed.webp ist eine leichtgewichtige Python-Bibliothek zum Parsen von HTML und XML. Die aktuelle PyPI-Version ist .

Wichtige Klarstellung: BeautifulSoup ist ein Parser, kein vollständiger Scraper. Es ruft keine Webseiten ab und übernimmt keine Browser-Automatisierung. Man kombiniert es mit der Bibliothek requests für das Abrufen per HTTP, und es parst dann das HTML, das du ihm gibst. Das macht es zum einfachsten Einstiegspunkt für Entwickler, aber auch zum am stärksten eingeschränkten.

Wichtige Funktionen:

  • Extrem leicht zu lernen – minimaler Code nötig
  • Ideal für kleine oder einmalige Craigslist-Scrapes
  • Kostenlos und Open Source

Einschränkungen: Keine integrierte Paginierung, kein JavaScript-Rendering, keine Proxy-Rotation – all das muss manuell ergänzt werden. Wenn Craigslist seine HTML-Struktur ändert, brechen deine Selektoren und du reparierst sie von Hand.

Am besten für: Python-Anfänger, die Craigslist-Scraping mit minimalem Aufwand ausprobieren wollen, schnelle Einzelabrufe aus einer einzelnen Kategorie oder Region und Entwickler, die einfach nur einen leichten Parser brauchen.

Das Anti-Ban-Playbook für Craigslist: Proxies, Rate Limits und was dich blockiert

Das ist der Abschnitt, den die meisten Craigslist-Scraping-Guides überspringen – und genau der ist am wichtigsten. stufen Craigslist als Ziel mit 3/5 Schwierigkeit ein und verweisen auf benutzerdefinierte CAPTCHA-Abfragen, Rate-Limits und IP-Blocking. Das empfiehlt statt normalem HTTP den Web Unlocker oder einen Playwright-basierten Scraping Browser. Oxylabs’ sagt, dass Craigslist Proxies erkennen kann und dass Residential Proxies die beste Wahl sind.

Das funktioniert in der Praxis:

StrategieWirksamkeit auf CraigslistKostenKomplexität
Residential Proxies✅ Hoch$$ (4–6 $/GB)Mittel
ISP Proxies✅ Hoch$ (0,60–0,80 $/IP)Mittel
Datacenter-Proxies⚠️ Niedrig (oft blockiert)$ (0,20–0,40 $/IP)Niedrig
Browserbasiertes Scraping (eigene Sitzung)✅ Mittel bis hochKostenlosNiedrig
Rate-Limiting + zufällige Verzögerungen✅ Unverzichtbare BasisKostenlosNiedrig

Praktische Tipps:

  • Anfrageverzögerungen: Mindestens 2–5 Sekunden zwischen den Anfragen. Scraperly empfiehlt, bei etwa 5–10 Anfragen/Minute pro IP zu bleiben und nach 20–30 Anfragen zu rotieren.
  • Sitzungsrotation: User-Agents und Browser-Fingerprints rotieren. Vorhersehbare Crawl-Muster werden schnell erkannt.
  • Datacenter-Proxies vermeiden: Sie sind günstig, werden auf Craigslist aber schnell blockiert.
  • Browserbasiertes Scraping eliminiert das Proxy-Problem bei moderaten Volumina fast vollständig. Thunderbits Browser-Modus läuft in deiner eigenen Chrome-Sitzung – keine Proxy-Einrichtung, keine IP-Rotation, keine Kosten. Für die meisten Business-User, die ein paar hundert Anzeigen scrapen, reicht das mehr als aus.

Und hier ist der Wartungsaspekt, den die meisten übersehen: Wenn Craigslist sein CSS ändert (und das passiert regelmäßig), bricht jeder Scraper auf Basis von CSS-Selektoren. Dann musst du die Seite inspizieren, die neuen Selektoren finden, deinen Code aktualisieren und erneut testen. KI-gestützte Tools wie Thunderbit umgehen das vollständig – die KI liest die Seitenstruktur jedes Mal frisch aus, sodass Layoutänderungen deinen Workflow nicht zerstören.

Code vs. No-Code: Zwei komplette Craigslist-Scraping-Anleitungen

Ich weiß, dass sich die Leserschaft dieses Artikels grob 50/50 aufteilt: nicht-technische Business-User, die einfach nur die Daten wollen, und Entwickler mit Anfänger- bis Mittelniveau, die funktionierenden Code möchten. Deshalb hier beide Wege nebeneinander.

No-Code: So scrapest du Craigslist mit Thunderbit (Schritt für Schritt)

  1. Installiere die Thunderbit Chrome-Erweiterung aus dem .
  2. Öffne eine Craigslist-Anzeigenseite – zum Beispiel Wohnungen in deiner Stadt (https://yourcity.craigslist.org/search/apa).
  3. Klicke auf „KI-Felder vorschlagen“ – Thunderbits KI liest die Seite und schlägt Spalten vor, die zur Kategorie passen. Bei Wohnungsanzeigen siehst du Titel, Preis, Quadratmeter, Schlafzimmer, Standort, Veröffentlichungsdatum und Link.
  4. Prüfe und passe die vorgeschlagenen Spalten bei Bedarf an. Felder lassen sich mit einem Klick hinzufügen oder entfernen.
  5. Klicke auf „Scrapen“ – und beobachte, wie die Daten in einer strukturierten Tabelle erscheinen.
  6. Handle die Paginierung – klicke dich durch die Seiten oder lass Thunderbit das übernehmen.
  7. Nutze „Unterseiten scrapen“, um jede einzelne Anzeige aufzurufen und mit Detailseiten-Feldern anzureichern: vollständige Beschreibung, alle Bilder, eingebettete Kontaktdaten.
  8. Exportiere kostenlos nach Google Sheets, Excel, Airtable, Notion oder CSV.

Der gesamte Prozess dauert für eine Ergebnisseite etwa 2 Minuten. Keine CSS-Selektoren, keine Proxies, kein Code.

Code-Weg: So scrapest du Craigslist mit Python + Playwright

Playwright ist 2026 die am häufigsten empfohlene Bibliothek für Craigslist-Scraping in Entwicklerforen. Hier ist ein funktionierender Python-Snippet, der eine Craigslist-Wohnungs-Ergebnisseite scrapt, Titel/Preis/Link extrahiert, Paginierung behandelt und Ergebnisse ausgibt.

Der Ansatz: Zuerst JSON-LD-Strukturdaten prüfen (Craigslist bettet auf manchen Seiten ItemList-Schema ein), dann auf DOM-Selektoren zurückfallen. Die Paginierung erfolgt über s=120.

1import asyncio, json
2from urllib.parse import urlparse, parse_qs, urlencode, urlunparse
3from playwright.async_api import async_playwright
4def next_page_url(url, step=120):
5    p = urlparse(url)
6    qs = parse_qs(p.query)
7    offset = int(qs.get("s", ["0"])[0]) + step
8    qs["s"] = [str(offset)]
9    return urlunparse((p.scheme, p.netloc, p.path, "", urlencode(qs, doseq=True), ""))
10async def scrape_page(page, url):
11    await page.goto(url, wait_until="domcontentloaded")
12    await page.wait_for_timeout(1500)
13    data = []
14    # Zuerst JSON-LD prüfen
15    for raw in await page.locator('script[type="application/ld+json"]').all_text_contents():
16        try:
17            obj = json.loads(raw)
18        except Exception:
19            continue
20        if isinstance(obj, dict) and obj.get("@type") == "ItemList":
21            for item in obj.get("itemListElement", []):
22                thing = item.get("item", {})
23                data.append({
24                    "title": thing.get("name"),
25                    "price": thing.get("offers", {}).get("price"),
26                    "link": thing.get("url"),
27                })
28            if data:
29                return data
30    # Fallback: DOM-Selektoren
31    cards = page.locator("div.cl-search-result, li.cl-static-search-result")
32    count = await cards.count()
33    for i in range(count):
34        card = cards.nth(i)
35        title = await card.locator("a.posting-title, a.titlestring").first.text_content()
36        link = await card.locator("a.posting-title, a.titlestring").first.get_attribute("href")
37        price = (await card.locator(".price, .result-price").first.text_content()
38                 if await card.locator(".price, .result-price").count() else None)
39        data.append({"title": (title or "").strip(), "price": (price or "").strip(), "link": link})
40    return data
41async def main():
42    start_url = "https://newyork.craigslist.org/search/apa?query=studio"
43    async with async_playwright() as p:
44        browser = await p.chromium.launch(headless=True)
45        page = await browser.new_page()
46        url = start_url
47        all_rows = []
48        for _ in range(3):  # 3 Seiten scrapen
49            rows = await scrape_page(page, url)
50            if not rows:
51                break
52            all_rows.extend(rows)
53            url = next_page_url(url)
54        await browser.close()
55        for row in all_rows[:10]:
56            print(row)
57asyncio.run(main())

Was du zusätzlich zu diesem Skript brauchst: Installiertes Playwright (pip install playwright && playwright install), Proxy-Konfiguration für hohe Volumina und manuelles CAPTCHA-Handling, falls du Rate-Limits triffst. Das ist der Kompromiss: volle Kontrolle, aber auch volle Verantwortung.

Kostenlos vs. kostenpflichtig: Ehrliche Kostenübersicht für jeden Craigslist-Scraper

Das ist die Tabelle, die ich mir gewünscht hätte, als ich zu diesem Thema recherchiert habe. „Kostenlos“ ist beim Web Scraping ein dehnbarer Begriff.

ToolVöllig kostenlos?Grenzen der kostenlosen StufePreis abVersteckte Kosten
ThunderbitKostenlose Stufe (6 Seiten)6 Seiten/Monat; Testphase = 10 SeitenKostenpflichtige Pläne für höhere VoluminaKeine – Export ist kostenlos
Scrapy✅ Open SourceUnbegrenzt0 $Proxy-Kosten, Hosting, Wartung
BeautifulSoup✅ Open SourceUnbegrenzt0 $Proxy-Kosten, Hosting, Wartung
Playwright✅ Open SourceUnbegrenzt0 $Proxy-Kosten, Hosting, Wartung
Selenium✅ Open SourceUnbegrenzt0 $Proxy-Kosten, Hosting, Wartung
ParseHubKostenlose Stufe5 Projekteca. 189 $/MonatEingeschränkte geplante Läufe in der kostenlosen Stufe
ApifyKostenlose Stufe5 $/Monat Guthaben kostenlosca. 49 $/MonatCompute-basierte Preise können stark ansteigen
PhantombusterKostenlose Stufe5 Slots, 2 Std./Monat, Export auf 10 Zeilen begrenztca. 56 $/Monat (jährlich)Slot-basierte Preisgestaltung
Bright DataNur Testphase1.000 Anfragen / 1 Wocheca. 500 $+/MonatProxy-Kosten extra
OxylabsNur Testphase2.000 Ergebnisse / 1 GBca. 75 $+/Monat (Unblocker)Enterprise-Preisniveau

Der große Haken bei „kostenlosen“ Open-Source-Tools: Scrapy, Playwright, Selenium und BeautifulSoup kosten zwar 0 $ beim Installieren, aber der Betrieb in großem Maßstab auf Craigslist bedeutet Stunden an Entwicklerzeit für das Setup, 50–500+ $/Monat für Residential Proxies und laufende Wartung bei jeder HTML-Änderung von Craigslist. Thunderbits KI liest die Seite jedes Mal frisch aus (keine Wartung), Exporte sind kostenlos und browserbasiertes Scraping macht Proxy-Kosten bei moderaten Volumina überflüssig. Das ist ein echter Vorteil für Nicht-Entwickler.

Was du tatsächlich extrahieren kannst: Craigslist-Datenfelder nach Kategorie

Verschiedene Craigslist-Kategorien haben völlig unterschiedliche Datenstrukturen. Eine Wohnungsanzeige sieht überhaupt nicht aus wie eine Jobanzeige. Hier ist, was du aus den wichtigsten Bereichen realistisch extrahieren kannst:

Craigslist-KategorieExtrahierbare FelderKontaktinfos verfügbar?
Wohnen / WohnungenTitel, Preis, Quadratmeter, Schlafzimmer, Badezimmer, Standort, Datum, Bilder, Beschreibung, Kartenlink, Verfügbarkeit, Haustierregelung, Wasch-/Parkoptionen⚠️ Manchmal (anonymisierte E-Mail-Weiterleitung)
Zu verkaufenTitel, Preis, Zustand, Standort, Datum, Bilder, Beschreibung, Marke/Modell/Baujahr (variiert)⚠️ Manchmal
JobsTitel, Unternehmen, Vergütung, Standort, Jobtyp, Erfahrungsniveau, Datum, BeschreibungSelten (meist nur Bewerbungslink)
ServicesTitel, Standort, Beschreibung, Bilder⚠️ Manchmal
GigsTitel, Vergütung, Standort, Datum, Beschreibung⚠️ Manchmal

Ein paar wichtige Hinweise:

  • Kontaktinfos: Craigslist nutzt anonymisierte E-Mail-Weiterleitungen ausdrücklich, um direktes E-Mail-Scraping zu verhindern. Tools, die behaupten, „E-Mails zu extrahieren“, ziehen oft nur die Relay-Adresse (reply+randomstring@craigslist.org) heraus, nicht die echte E-Mail des Inserenten.
  • Detailseiten-Felder wie vollständige Beschreibung, alle Bilder und eingebettete Kontaktdaten erscheinen nur, wenn du jede einzelne Anzeige aufrufst – nicht auf der Suchergebnisseite.
  • Thunderbits „KI-Felder vorschlagen“ erkennt automatisch, welche Felder auf der aktuellen Seite verfügbar sind, und schlägt die passende Spaltenstruktur vor. Wer Wohnungsanzeigen scrapt, bekommt Spalten für Quadratmeter/Schlafzimmer; wer Jobs scrapt, bekommt Spalten für Vergütung/Jobtyp – ganz ohne manuelle Konfiguration. Das ruft dann jede Anzeige auf, um nur auf der Detailseite verfügbare Felder zu holen.

Rechtliche Einordnung: Craigslist-AGB, der 3Taps-Fall und was du wissen solltest

Ich bin kein Anwalt, und das hier ist keine Rechtsberatung. Aber ich weiß, dass Nutzer sich darüber Sorgen machen, und das verdient eine klare Antwort.

Der wichtigste Präzedenzfall: In erwirkte Craigslist eine einstweilige Verfügung gegen 3Taps, weil nach einer Unterlassungsaufforderung Anzeigen gescrapt und erneut veröffentlicht wurden. 3Taps umging angeblich IP-Blocks mit Proxy-Servern, und das Gericht wertete den Zugriff nach einem Block möglicherweise als „ohne Genehmigung“. Die , dass der Fall 2015 beigelegt wurde.

Craigslist-Nutzungsbedingungen verbieten ausdrücklich den Einsatz von „robots, spiders, scripts, scrapers, crawlers oder deren automatischem oder manuellem Äquivalent“, um mit der Website zu interagieren. Bei Verstößen werden sogar pauschale Schadensersatzansprüche von 0,25 $ pro Seite nach den ersten 1.000 Seitenaufrufen in einem 24-Stunden-Zeitraum festgelegt.

Praktische Leitlinien:

  • ✅ Öffentliche Anzeigendaten für Marktrecherche oder private Zwecke scrapen
  • ✅ Robots.txt und Rate-Limits respektieren
  • ⚠️ Gescrapte Anzeigen nicht massenhaft erneut veröffentlichen
  • ⚠️ Gescrapte Kontaktdaten nicht für unerwünschtes Marketing nutzen
  • ❌ Technische Zugriffsbeschränkungen nicht umgehen, nachdem du blockiert wurdest

Der Unterschied ist wichtig: Öffentlich sichtbare Daten für die eigene Analyse zu scrapen ist etwas anderes als massenhaftes Republizieren oder das Sammeln von E-Mail-Adressen für Spam. Aber sei dir bewusst, dass Craigslist historisch von AGB-Durchsetzung über IP-Blocking bis hin zu rechtlichen Schritten eskaliert ist.

Welcher Craigslist-Scraper ist der beste für dich?

Nach dem Testen und Bewerten aller 10 lautet meine szenariobasierte Empfehlung:

  • Nicht-technischer Business-User, der schnell Craigslist-Daten brauchtThunderbit. Kein Code, KI-gestützte Felderkennung, keine Wartung, kostenloser Export. Der schnellste Weg von „Ich brauche diese Daten“ zu „Sie stehen in meiner Tabelle“.
  • Enterprise-Team, das täglich Tausende Anzeigen in allen Regionen scrapen mussBright Data. Craigslist-spezifischer Scraper, massive Proxy-Infrastruktur, automatische CAPTCHA-Lösung, dedizierter Support.
  • Entwicklerteam, das verwaltete API-/Proxy-Infrastruktur brauchtOxylabs für proxy-first Workflows, Apify für Flexibilität im Actor-Marktplatz.
  • Entwickler, der volle Kontrolle und Anpassbarkeit willScrapy + Playwright. Open Source, maximale Flexibilität, aber Proxies und Wartung musst du selbst mitbringen.
  • Preisbewusster Nutzer mit moderatem Bedarf → Apify kostenlose Stufe (5 $/Monat Guthaben) oder ParseHub kostenlose Stufe (5 Projekte).
  • Vertriebsteam, das bereits Multi-Plattform-Lead-Gen-Tools nutztPhantombuster. Ergänze Craigslist zu deiner bestehenden Pipeline.
  • Python-Anfänger, der einen einmaligen Scrape machen willBeautifulSoup + requests. Minimaler Code, minimale Einrichtung, minimale Möglichkeiten.

Für die meisten nicht-technischen Business-User bietet Thunderbit die beste Balance aus Einfachheit, Genauigkeit und Kosten. Für Entwickler ist Scrapy + Playwright die leistungsstärkste Kombination. Für Enterprise-Skalierung ist Bright Data schwer zu schlagen.

Wenn du sehen willst, wie KI-gestütztes Craigslist-Scraping tatsächlich aussieht, – die kostenlose Stufe reicht aus, um es an deinem eigenen Use Case zu testen. Und wenn du tiefer in Web-Scraping-Techniken eintauchen willst, schau dir unsere Anleitungen an zu , und an. Du kannst auch unseren für Schritt-für-Schritt-Videoanleitungen besuchen.

Viel Erfolg beim Scrapen – und mögen deine Daten immer sauber, strukturiert und einsatzbereit sein.

FAQs

Craigs­listes Nutzungsbedingungen verbieten automatisiertes Scraping ausdrücklich, und der ist das wichtigste rechtliche Präzedenzurteil. Öffentlich sichtbare Anzeigendaten für persönliche oder analytische Zwecke zu scrapen wird in der Regel anders behandelt als massenhaftes Republizieren oder Spam, aber du solltest immer Rate-Limits und Seitenregeln respektieren – und das hier ist keine Rechtsberatung.

Kann ich Craigslist ohne Programmieren scrapen?

Ja. Tools wie , ParseHub und Apify bieten No-Code- oder Low-Code-Optionen zum Extrahieren von Craigslist-Daten. Thunderbits KI-gestützte Felderkennung macht es besonders einfach – einfach auf „KI-Felder vorschlagen“ und „Scrapen“ klicken.

Was ist der beste kostenlose Craigslist-Scraper?

Für Entwickler sind oder komplett kostenlos und Open Source (auch wenn Proxy- und Wartungskosten anfallen). Für Nicht-Programmierer ist Thunderbits kostenlose Stufe (6 Seiten/Monat) der beste Einstieg, mit ParseHubs kostenloser Stufe (5 Projekte) als weitere Option.

Wie vermeide ich Blockierungen beim Scrapen von Craigslist?

Nutze Rate-Limiting (mindestens 2–5 Sekunden Verzögerung), rotiere User-Agents, vermeide Datacenter-Proxies (Residential- oder ISP-Proxies funktionieren auf Craigslist deutlich besser) und folge keinen vorhersehbaren Crawl-Mustern. Bei moderaten Volumina umgehen browserbasierte Tools wie Thunderbit das Proxy-Problem vollständig, indem sie in deiner eigenen Chrome-Sitzung laufen.

Kann ich alle Craigslist-Regionen auf einmal scrapen?

Mit Entwicklertools wie Scrapy oder Playwright kannst du programmatisch durch alle iterieren. Enterprise-Tools wie und haben Multi-Region-Scraping eingebaut. Mit Thunderbit kannst du jede regionale Website öffnen und mit demselben Workflow scrapen – die KI passt sich automatisch an jede Seite an.

Thunderbit fürs Craigslist-Scraping ausprobieren

Mehr erfahren

Inhaltsverzeichnis

Thunderbit testen

Leads und andere Daten in nur 2 Klicks scrapen. Mit KI.

Thunderbit holen Es ist kostenlos
Daten mit KI extrahieren
Daten ganz einfach zu Google Sheets, Airtable oder Notion übertragen
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week