eBay verarbeitet auf seinem weltweiten Marktplatz. Wenn du schon einmal versucht hast, die Preise von Wettbewerbern manuell zu verfolgen, verkaufte Vergleichsangebote auszuwerten oder auch nur einen kleinen Teil dieser Seiten in eine Produktdatenbank zu überführen, kennst du die Antwort bereits: Das lässt sich so nicht skalieren.
Ich beschäftige mich seit Jahren bei mit Automatisierungstools. Von E-Commerce-Händlern, Resellern und Analysten höre ich immer wieder dasselbe: Das Problem ist nicht, überhaupt einen eBay-Scraper zu finden. Die eigentliche Herausforderung ist, einen zu finden, der auch dann noch funktioniert, wenn eBay mit CAPTCHAs, IP-Sperren und Session-Fingerprinting zurückschlägt. Ein Reddit-Nutzer beschrieb es so, als brauche man durch die Verifizierungsbarrieren von eBay, während ein Beitrag in der eBay-Community berichtete, man sei bei gescheitert.
Das ist die Realität des eBay-Scrapings im Jahr 2026, und genau darum geht es in diesem Leitfaden. Ich habe 9 Tools aus den Bereichen Chrome-Erweiterungen, Desktop-Apps, Cloud-APIs und Enterprise-Plattformen getestet – Thunderbit, Octoparse, Apify, ScrapingBee, Bright Data, ParseHub, Oxylabs, Crawlbase und Helium Scraper – und etwas gemacht, das die meisten Vergleichsartikel auslassen: Ich habe Browser-Erweiterungen als eigene Kategorie mit aufgenommen, die Preise auf Kosten pro 1.000 Seiten normalisiert und verglichen, wie jedes Tool mit eBays aktuellem Anti-Bot-Stack tatsächlich umgeht.
Warum eBay-Daten im Jahr 2026 scrapen?
Die Gründe, warum Unternehmen eBay scrapen, haben sich kaum verändert – die Dringlichkeit aber schon. Mit , die eBay in den Ergebnissen für Q4/FY2025 gemeldet hat, und Kategorien wie Blind Boxes, die ein verzeichnen, entstehen auf dem Marktplatz Preis- und Nachfragesignale, die sich per Hand kaum noch nachverfolgen lassen.
So gliedern sich die wichtigsten Anwendungsfälle:
| Anwendungsfall | Benötigte Daten | Warum Scraping hilft |
|---|---|---|
| Preisüberwachung der Konkurrenz | Titel, Preis, Versand, Zustand, Verkäufer, Aktionen | Auf echte Angebotsänderungen reagieren statt Suchergebnisse manuell zu prüfen |
| Nachfrageanalyse über verkaufte Angebote | Verkaufte/abgeschlossene Angebote, Endpreis, Verkaufsdatum, Zustand, Verkäuferanzahl | Nachfrage validieren und Vergleichspreise vor dem Einkauf einschätzen |
| Aufbau eines Produktkatalogs | Titel, Artikeldetails, Bild-URLs, Marke, UPC/MPN, Kategorie | eBay-Angebote in strukturierte Produktdatenbanken verwandeln |
| Verkäufer-Intelligence | Verkäufername, Bewertungswert, verkaufte Artikel, Shop-Inventar, Rückgabebedingungen | Top-Verkäufer, Dropshipper und Preismuster erkennen |
| Beschaffungs- und Lieferkettenrecherche | Shop-Seiten, Standort, Losgröße, Versandkosten, verfügbare Menge | Wiederkehrende Verkäufer oder Bezugsquellen finden |
Zwei Dinge sind hier wichtig, die viele Leitfäden auslassen. Erstens decken die offiziellen APIs von eBay aktuelle Marktplatzdaten ziemlich gut ab, aber eben nicht jeden Anwendungsfall. Zweitens ist gerade bei den verkauften/abgeschlossenen Angeboten die API-Hürde besonders hoch. Die von eBay befindet sich in der Limited Release, ist kategoriebeschränkt und nur für genehmigte Anwendungsfälle zugänglich. Community-Beiträge aus 2025 und 2026 zeigen, dass , seit der alte Endpunkt findCompletedItems verschwunden ist.
Wenn dein Geschäft auf Vergleichspreisen, Recherchen zu Verkaufspreisen oder der Analyse von Produktgeschwindigkeiten basiert, ist Web-Scraping oft der einzige praktikable Weg.
eBay-API vs. Web-Scraping: Ein ehrlicher Entscheidungsrahmen
Bevor du dich in Tools stürzt, solltest du dir die Frage stellen, ob du überhaupt einen Scraper brauchst. Wenn die eBay-API deinen Workflow abdeckt, ist das sauberer und vollständig legitimiert. Wenn du aber verkaufte Daten, reichhaltigere Seiteninhalte oder alles jenseits der freigegebenen API-Felder brauchst, wird Scraping zur praktischen Option.
| Faktor | Offizielle eBay-API | Web-Scraping |
|---|---|---|
| Zugriff auf aktive Angebote | Ja, über die Browse API | Ja, alle Tools |
| Zugriff auf verkaufte/abgeschlossene Daten | Eingeschränkt – Marketplace Insights ist Limited Release | Ja, sofern die Seite öffentlich zugänglich ist |
| Rate Limits | Streng – standardmäßig 5.000 Aufrufe/Tag pro App, Suche auf 10.000 Ergebnisse begrenzt | Hängt von Tool, Proxies und Anti-Bot-Handling ab |
| Datenumfang | Strukturiert, aber auf freigegebene Felder begrenzt | Voller Seiteninhalt inklusive Verkäuferhinweisen, Bildern und Artikeldetails |
| Einrichtungsaufwand | OAuth, App-Registrierung, Freigaben für den Produktivbetrieb | Reicht von 2 Klicks bis zu individuellem Code |
| Rechtliche Klarheit | Vollständig von eBay legitimiert | Grauzone – Nutzungsbedingungen prüfen und verantwortungsvoll einsetzen |
Die aktuelle eBay-API-Lage im Jahr 2026:
- Die , wodurch viele ältere Workflows für verkaufte Angebote kaputtgegangen sind.
- Die Suchergebnisse der Browse API sind auf einen Bereich von 10.000 Artikeln begrenzt.
- Die Marketplace Insights API, in der die Historie verkaufter Artikel liegt, ist nicht für alle offen.
Das ist der Rahmen für den Rest dieses Artikels: Was du verwenden solltest, wenn die offizielle API nicht ausreicht.
Was macht den besten eBay-Scraper aus? Unsere Bewertungskriterien
Ich habe die 9 Tools anhand von acht Kriterien bewertet, die direkt auf die Probleme einzahlen, von denen ich am häufigsten höre:
- Einfachheit der Nutzung – Kann ein nicht-technischer Verkäufer Daten aus eBay ziehen, ohne Code zu schreiben?
- Anti-Bot-Umgang bei eBay – Hat das Tool einen realistischen Weg durch Rate Limits, CAPTCHAs und Fingerprinting?
- Normalisierte Preisgestaltung – Lässt sich ein sinnvoller Preis pro 1.000 Seiten abschätzen, ohne das Abrechnungsmodell zu zerlegen?
- Exportformate – Lässt sich die Daten sauber in CSV, Excel, JSON, Sheets oder per API aus dem Tool herausbekommen?
- Anreicherung von Unterseiten – Kann das Tool bei Suchergebnissen starten und dann jede Artikelseite besuchen, um weitere Spalten hinzuzufügen?
- Planung/Scheduling – Kann es für Preisüberwachung oder Bestandsverfolgung automatisch erneut laufen?
- Tool-Typ – Browser-Erweiterung, Cloud-API oder Desktop-App beeinflusst Einrichtung, Wartung und Login-Handling.
- Kostenloses Kontingent oder Testphase – Kleine Verkäufer testen meist erst, bevor sie sich festlegen.
Diese Kriterien spiegeln wider, worüber sich Nutzer tatsächlich beschweren. In Foren werden immer wieder Blockaden, API-Einschränkungen oder der Wunsch nach einer No-Code-Option ohne Proxy-Stack genannt. Der Preis ist ebenfalls wichtig – aber erst, nachdem der Scraper genug Seiten übersteht, um nützlich zu sein.
Warum Browser-Erweiterungs-Scraper auf dieser Liste einen Platz verdienen
Die meisten Listen zu den „besten eBay-Scrapern“ konzentrieren sich nur auf APIs, Proxy-Plattformen oder Desktop-Builder. Dabei wird eine echte Nachfragekategorie übersehen. Ein fragte ausdrücklich nach einer Browser-Erweiterung oder Software, die Preisvergleiche bei verkauften Artikeln vor dem Bieten automatisieren kann. Genau hier spielen Tools im Erweiterungsstil ihre Stärke aus.
| Faktor | Chrome-Erweiterung (z. B. Thunderbit) | Cloud-API (z. B. ScrapingBee) | Desktop-App (z. B. Octoparse) |
|---|---|---|---|
| Einrichtungszeit | Unter 2 Minuten | 10–30 Minuten | 5–15 Minuten |
| Programmierung erforderlich | Nein | Meist ja | Meist nein |
| Funktioniert hinter eBay-Login | Ja, im Browser-Scraping-Modus | Erfordert Session- oder Cookie-Handling | Manchmal |
| Anti-Bot-Handling | Nutzt deine echte Browser-Session | Proxy-Rotation integriert | Hängt vom Setup ab |
Browser-Erweiterungs-Scraper sind nicht immer die günstigsten bei großem Umfang, lösen aber ein anderes Problem: Sie ermöglichen es auch nicht-technischen Nutzern, genau die Seite zu scrapen, die sie gerade ansehen – einschließlich Seiten hinter einer angemeldeten Browser-Session.
Die 9 besten eBay-Scraper im Überblick
Bevor wir in die einzelnen Tools eintauchen, hier die Hauptvergleichstabelle. Hinweis zu den Preisen: Die Spalte „Kosten pro 1.000 Seiten“ verwendet nach Möglichkeit die niedrigste praktikable bezahlte Stufe des Anbieters. Bei abonnementbasierten Desktop-Tools, die Seiten nicht einzeln abrechnen, geht die Schätzung davon aus, dass dein 1.000-Seiten-Job in einen Abrechnungsmonat passt. Beim Helium Scraper ist die Schätzung eine amortisierte Einmallizenz über 10.000 Seiten.
| Tool | Tool-Typ | Einfachheit der Nutzung | eBay Anti-Bot | Kosten pro 1.000 Seiten (ca.) | Exportformate | Anreicherung von Unterseiten | Planung | Kostenloses Kontingent | Am besten geeignet für |
|---|---|---|---|---|---|---|---|---|---|
| Thunderbit | Chrome-Erweiterung + Cloud | Sehr einfach | Hoch | 12,67–30 $ | CSV, JSON, Excel, Sheets, Airtable, Notion | Ja | Ja | Ja | Einsteiger, No-Code-Nutzer |
| Octoparse | Desktop + Cloud | Einfach bis mittel | Mittel bis hoch | 39–83 $ | CSV, Excel, JSON, HTML, XML, DB, API | Teilweise bis ja | Ja | Ja | Visueller Workflow-Aufbau |
| Apify | Cloud-Marktplatz | Mittel | Mittel bis hoch | 5–50 $+ | JSON, CSV, Excel, API | Einige Actors ja | Ja | Ja | Flexible Cloud-Workflows |
| ScrapingBee | API | Mittel | Hoch | 0,91–3,16 $ | HTML, JSON, benutzerdefinierte Extraktion | Benutzerdefiniert | Extern | Testphase | Entwickler |
| Bright Data | Enterprise-API + Datensätze | Mittel bis schwer | Sehr hoch | 1,30–1,50 $ | JSON, CSV, APIs, Zustellung | Ja | Ja | Testphase | Datenerhebung im Enterprise-Maßstab |
| ParseHub | Desktop + Cloud | Mittel | Mittel | 189 $+ | JSON, CSV, Sheets | Manuell | Bezahlte Pläne | Ja | Kostenlose kleine Projekte |
| Oxylabs | API | Mittel bis schwer | Sehr hoch | 1,10–1,35 $ | HTML, gelieferte Outputs | Benutzerdefiniert | Ja | Testphase | Globale Daten in hohem Volumen |
| Crawlbase | API | Mittel | Mittel bis hoch | 0,60–3,00 $ | JSON, CSV, Excel | Benutzerdefiniert | Ja | Ja (1K Anfragen) | Anonyme API-Scraping |
| Helium Scraper | Windows-Desktop | Mittel bis schwer | Mittel | 9,90–19,90 $ amortisiert | CSV, XLSX, JSON, XML | Manuell | Teilweise | Testphase | Offline-Windows-Projekte |
Jetzt folgt die detaillierte Aufschlüsselung.
1. Thunderbit
ist die einfachste Lösung, wenn du eBay scrapen willst, ohne einen Workflow zu bauen, Proxies zu konfigurieren oder eine einzige Codezeile zu schreiben. Ich bin natürlich nicht ganz unbefangen – mein Team hat das Produkt gebaut –, aber das Versprechen passt zum tatsächlichen Ablauf: eBay-Such- oder Produktseite öffnen, auf KI-Felder vorschlagen klicken und dann auf Scrapen. Für Einsteiger ist das wichtiger als die reine Funktionsmenge.
Wichtige Funktionen für eBay-Scraping
Thunderbit hat eine dedizierte mit expliziter Unterstützung für Such-, Marken- und Kategorieseiten. Verifizierte Felder sind unter anderem product name, price, member price, item number, rating und review count.
Das macht Thunderbit für eBay-Workflows besonders:
- KI-Felder vorschlagen liest die eBay-Seite und schlägt Spalten automatisch vor – keine CSS-Selektoren, kein manuelles Mapping
- Unterseiten scrapen besucht jede Artikelseite und fügt zusätzliche Spalten wie Zustand, Verkäuferdetails, Versand oder Artikelspezifikationen hinzu. Diese Funktion verwandelt eine flache Liste aus Suchergebnissen in eine vollständige Produktdatenbank.
- Browser-Scraping-Modus nutzt deine echte Chrome-Session, was für eingeloggte Seiten hilfreich ist und weniger fragil als eine rein botbasierte Session sein kann
- Cloud-Scraping kann bei öffentlichen Angeboten bis zu 50 Seiten gleichzeitig verarbeiten
- Integrierte Planung für wiederkehrende Preisüberwachung
- Kostenloser Export nach Excel, Google Sheets, Airtable, Notion, CSV und JSON – ohne Paywall für Exporte
Preise, Vorteile und Fallstricke
Aktuelle :
- Kostenloses Kontingent mit begrenzter Testnutzung
- Starter: 15 $/Monat (oder ca. 9 $/Monat bei jährlicher Abrechnung), 500 Credits/Monat
- Pro 1: 38 $/Monat (oder ca. 16,5 $/Monat bei jährlicher Abrechnung), 3.000 Credits/Monat
- 1 Credit = 1 Ausgaberow
Das ergibt grob folgende Kosten:
- Starter: etwa 30 $ pro 1.000 Zeilen/Seiten
- Pro 1: etwa 12,67 $ pro 1.000 Zeilen/Seiten
Vorteile:
- Schnellstes Setup auf dieser Liste – vom Installieren bis zu Daten in unter 2 Minuten
- Kein Code, keine Selektoren, keine Proxy-Konfiguration
- KI passt sich Layout-Änderungen bei eBay besser an als starre Vorlagen
- Native Anreicherung von Unterseiten in einem einzigen Workflow
- Breite Exportunterstützung ohne Zusatzkosten
Fallstricke:
- Die Credit-Preise sind transparent, können bei sehr hohen Zeilenmengen aber teuer werden
- Es ist ein browserzentrierter Workflow, keine eigenständige Enterprise-API
- Einige Nutzer auf Trustpilot berichten, dass die Paginierung auf bestimmten Seiten nach einer begrenzten Zahl von Seiten stoppt
Wenn du Verkäufer, Forscher oder Analyst bist und den kürzesten Weg von der eBay-Seite zur Tabelle suchst, würde ich mit Thunderbit anfangen.
2. Octoparse
ist derzeit der stärkste klassische No-Code-Desktop-Scraper für eBay. Es gibt aktive , einen Cloud-Modus und Planung. Es ist nicht so direkt wie Thunderbit, aber besser konfigurierbar, wenn du einen visuellen Workflow-Builder willst.
Verifizierte Ausgabefelder aus den eBay-Vorlagen umfassen Kombinationen wie Title, Product_URL, Price, Condition, Shipping, Rating, Followers, Sales, Seller_Name, Positive_feedback und Ebay_item_number.
Preise, Vorteile und Fallstricke
:
- Kostenloser Plan verfügbar
- Basic: 39 $/Monat
- Standard: ab etwa 83 $/Monat
- Professional: ab etwa 299 $/Monat
Vorteile:
- Stärkste aktuelle eBay-Vorlagenabdeckung unter den Desktop-No-Code-Tools
- Gute Balance aus lokaler Kontrolle und Cloud-Automatisierung
- Planung und Exporte sind ausgereift
- Integrationen mit CSV, Excel, JSON, HTML, XML, Datenbanken, Google Sheets, Dropbox, S3, Zapier sowie API-Zugriff
Fallstricke:
- Die tatsächlichen Kosten können durch Add-ons steigen – Residential Proxies kosten extra (etwa 3 $/GB), (etwa 1–1,5 $ pro 1.000)
- Weniger elegant als Thunderbit für einen schnellen Start
- Kann bei sehr dynamischen Seiten oder wenn der Workflow manuell angepasst werden muss, Probleme bekommen
- Keine integrierte KI-gestützte Unterseiten-Anreicherung wie bei Thunderbits Ein-Klick-Ansatz
Octoparse ist die sicherere visuelle Wahl, wenn du weißt, dass du eBay regelmäßig scrapen wirst und Vorlagen plus Cloud-Automatisierung willst, ohne in Code abzutauchen. Mehr dazu findest du in unserem .
3. Apify
ist nicht ein einzelner eBay-Scraper. Es ist ein Marktplatz für eBay-spezifische „Actors“. Das ist seine größte Stärke und zugleich sein größtes Risiko. Wenn du einen gut gepflegten Actor auswählst, kann das extrem kosteneffizient sein. Wenn der Maintainer nach einer Layout-Änderung bei eBay nicht mehr nachzieht, übernimmst du diese Instabilität.
Einige Actors liefern reichhaltige Felder wie seller details, watchCount, soldCount, availableQuantity, shipping terms und return policies. Es gibt sogar einen dedizierten , was für Reseller und Vergleichspreisrecherchen ein echter Vorteil ist.
Preise, Vorteile und Fallstricke
:
- Plattformpläne: Free, Starter 49 $, Scale 499 $, Business 999 $, plus Nutzung
- Beispielhafte eBay-Actors reichen je nach Actor von ungefähr 5 $ pro 1.000 Produkte bis 50 $ pro 1.000 Ergebnisse
Vorteile:
- Enorme Flexibilität – mehrere eBay-Scraping-Workflows schnell testen
- Gut für Entwickler und Analysten, die Cloud-Runs plus Exporte wollen
- Native Planung, API-Zugriff und in JSON, CSV, Excel
- Einige Actors unterstützen bereits Such-zu-Detail- oder Workflows für verkaufte Angebote
Fallstricke:
- Die Qualität der Actors variiert je nach Maintainer – behandle jeden wie einen kleinen Anbieter
- Die Gesamtkosten können steigen, weil Plattformnutzung, Storage, Proxies und Actor-Preise nicht immer in einer einzigen, einfachen Rechnung auftauchen
- Nicht-technische Nutzer können das Marktplatzmodell verwirrend finden
Wenn du einen vorgefertigten Scraper-Marktplatz statt einer einzelnen Produktmeinung willst, ist Apify die beste Wahl. Für einen tieferen Vergleich sieh dir unseren an.
4. ScrapingBee
passt am besten zu Entwicklern, die lieber einen einfachen API-Call statt eines visuellen Tools wollen. Es kümmert sich im Hintergrund um Proxies, Headless Rendering und Anti-Bot-Infrastruktur, während die Parsing-Logik weitgehend bei dir bleibt.
ScrapingBee hat eine dedizierte und unterstützt JavaScript-Rendering, Premium-Proxy-Rotation, Geo-Targeting und für strukturierte Ausgaben.
Preise, Vorteile und Fallstricke
Unter der Annahme eines gemischten eBay-Workloads von ungefähr 11 Credits pro Seite ergibt sich aus der ungefähr:
- Freelance: etwa 3,16 $ pro 1.000 Seiten
- Business: etwa 0,91 $ pro 1.000 Seiten
Vorteile:
- Saubere API für Entwickler
- Starke Anti-Bot-Position ohne eigenen Proxy-Stack
- Gut geeignet für benutzerdefinierte eBay-Pipelines
Fallstricke:
- Erfordert Programmierung – kein visueller Builder für nicht-technische Nutzer
- Kein nativer Knopf für „Unterseiten anreichern“; die Schleife baust du selbst
- Die tatsächlichen Kosten hängen davon ab, ob du JS-Rendering und Premium-Proxy-Modi benötigst
ScrapingBee ist die richtige Antwort, wenn dein Team bereits weiß, wie man HTML parst, und einfach eine zuverlässige Abrufschicht will.
5. Bright Data
ist die enterprise-tauglichste Option in diesem Vergleich. Es kombiniert Scraping-Infrastruktur, Proxy-Netzwerke, Dataset-Auslieferung und . Wenn du ernsthaften Durchsatz brauchst oder lieber vorab gesammelte Daten kaufst, statt Scraping-Code zu pflegen, gehört Bright Data auf die Shortlist.
Zu den wichtigsten Funktionen gehören eine Web-Scraper-API mit expliziten eBay-Vorlagen, Batch-Jobs, sowie die Möglichkeit, vorab gesammelte eBay-Datensätze zu kaufen, die Titel, Preise, Gebote, Bilder, Versand, Verkäuferdaten und Workflows für abgeschlossene Verkäufe abdecken.
Preise, Vorteile und Fallstricke
:
- Web-Scraper-API nach Verbrauch: etwa 1,50 $ pro 1.000 Datensätze
- Effektiver Satz im Scale-Plan: etwa 1,30 $ pro 1.000 Datensätze
- Preise für Datensätze variieren
- Geschäftliche Testphase verfügbar
Vorteile:
- Höchste Gesamtzuverlässigkeit für Enterprise-Teams
- Mehrere Wege zu eBay-Daten: API, Browser-Automatisierung, Datensätze
- Starke Residential-Proxy- und Unlocker-Infrastruktur
- Besser geeignet als die meisten Tools, wenn Betriebszeit wichtiger ist als Bedienkomfort
Fallstricke:
- Komplexes Dashboard und steile Lernkurve
- Teuer für Hobby- oder Kleinverkäufer
- Für Leichtgewichtsprojekte überdimensioniert
Bright Data ist die Wahl, wenn eBay-Scraping keine Nebensache ist, sondern Teil einer zentralen Datenpipeline.
6. ParseHub
ist weiterhin brauchbar, wenn du einen klassischen Desktop-Scraper mit kostenloser Stufe suchst, aber es ist nicht mehr die ausgereifteste visuelle Option für eBay. Das deckt Suchergebnisse, Produktseiten und Paginierung ab, mit verifizierten Feldern wie product name, URL, price, days left, shipping cost, units sold, seller name, seller rating und seller review count.
Preise, Vorteile und Fallstricke
:
- Kostenloser Plan mit Limits (etwa 200 Seiten pro Lauf, Einschränkungen bei öffentlichen Projekten)
- Standard: 189 $/Monat
- Professional: 599 $/Monat
Vorteile:
- Kostenlose Version vorhanden und gut für Experimente
- Verarbeitet JavaScript-Seiten, Klicks und Paginierung
- Gute, didaktische Oberfläche für visuelles Extrahieren
Fallstricke:
- Für eBay-Workflows manueller als Thunderbit oder Octoparse
- Die kostenlose Stufe ist für ernsthafte, wiederkehrende Arbeit zu eingeschränkt
- Anti-Bot-Handling ist schwächer als bei Premium-API-Produkten
- Öffentliche eBay-Anleitungen sind älter als bei konkurrierenden Tools
ParseHub ist für kleine Projekte und zum Lernen immer noch sinnvoll, aber in dieser Kategorie nicht mehr die stärkste No-Code-Empfehlung. Mehr dazu findest du in unserem .
7. Oxylabs
ist eine Premium-Option für Teams, denen Durchsatz, Parallelität und globale Abdeckung wichtig sind. Es ist nicht das einfachste Tool in dieser Liste, aber eines der stabilsten, wenn es mit einer starken Parsing-Pipeline kombiniert wird.
Oxylabs bietet , hohe weltweite Proxy-Abdeckung, Scheduler-Support und ein Headless-Browser-Produkt für schwierigere Seiten.
Preise, Vorteile und Fallstricke
:
- Etwa 1,15 $ pro 1.000 Ergebnisse ohne JS
- Etwa 1,35 $ pro 1.000 Ergebnisse mit JS
- Headless Browser beginnt separat bei rund 300 $/Monat
Vorteile:
- Sehr gut geeignet für Scraping mit hohem Volumen weltweit
- Starke Anti-Bot- und Proxy-Infrastruktur
- Eher für Enterprise-Käufer als für Hobby-Nutzer geeignet
Fallstricke:
- Erfordert Programmierung
- Such- und Produktausgaben sind oft HTML-first, also liegt das Parsen bei dir
- Ein Workflow für verkaufte Angebote ist möglich, aber kein dediziertes Out-of-the-box-Produkt
Wenn du ein ernsthaftes Datenerfassungs-Setup für E-Commerce aufbaust, ist Oxylabs eine der stärksten API-Schicht-Optionen.
8. Crawlbase
(früher ProxyCrawl) liegt zwischen günstigen API-Tools und Premium-Enterprise-Stacks. Du bekommst einen API-first-Ansatz mit CAPTCHA-Umgehung und rotierenden IPs, ohne dich auf Enterprise-Niveau festzulegen.
Crawlbase hat eine dedizierte und unterstützt anonymes Cloud-Scraping, CAPTCHA-Bypass, IP-Rotation sowie auf JSON/CSV/Excel ausgerichtete Ausgaben.
Preise, Vorteile und Fallstricke
:
- Erste 1.000 Anfragen kostenlos
- Etwa 3,00 $ pro 1.000 Anfragen bei kostenpflichtigem Einstieg
- Bei größeren Volumina näher an 0,60 $ pro 1.000
Vorteile:
- Nützliches kostenloses Kontingent zum Testen
- Einfacher API-Einstieg
- Besseres Anti-Bot-Handling als einfache DIY-Skripte
Fallstricke:
- Erfordert weiterhin Programmierung
- Weniger eBay-spezifische Produktisierung als Bright Data
- Weniger ausgereifte Workflow-Funktionen für Nicht-Entwickler
Crawlbase ist attraktiv, wenn du einen anonymen API-Scraper mit niedriger Hürde zum Testen suchst.
9. Helium Scraper
ist der Ausreißer in dieser Liste. Es ist ein Windows-Desktop-Produkt mit Einmallizenz. Es ist nicht auf Einsteiger ausgerichtet, kann aber interessant sein, wenn du lokale Kontrolle willst und Abos nicht magst.
Zu den Funktionen gehören eine Point-and-Click-Extraktionsoberfläche, benutzerdefinierte JavaScript-Aktionen, parallele Browserunterstützung und starke Exportfunktionen nach CSV, XLSX, JSON und XML. Außerdem unterstützt es .
Preise, Vorteile und Fallstricke
:
- Basic: 99 $
- Professional: 199 $
- Business: 399 $
- Enterprise: 699 $
Geschätzte amortisierte Kosten, wenn du die Lizenz auf 10.000 Seiten verteilst:
- Basic: etwa 9,90 $ pro 1.000 Seiten
- Professional: etwa 19,90 $ pro 1.000 Seiten
Vorteile:
- Einmaliger Kauf – kein monatliches Abo
- Gut für Offline- oder lokale Projekte
- Flexibel, wenn du bereit bist, die Scraping-Logik selbst aufzubauen
Fallstricke:
- Nur für Windows
- Kein gebündelter Cloud-, Unlocker- oder Proxy-Stack
- Keine aktuelle offizielle eBay-Vorlage
- Steilere Lernkurve, als es zunächst aussieht
- Keine KI-gestützten Feldvorschläge oder Unterseiten-Anreicherung
Helium Scraper ist am besten für technisch versierte Windows-Nutzer geeignet, die ein lokales Desktop-Tool wollen – nicht für den einfachsten möglichen Workflow.
Kosten pro 1.000 Seiten: Der Preisvergleich, den sonst niemand liefert
Verschiedene Anbieter berechnen nach Zeilen, Anfragen, Datensätzen, Credits oder monatlichen Seats. Ein direkter Vergleich wird dadurch unübersichtlich. Ich habe fünf von sechs konkurrierenden Artikeln zu den „besten eBay-Scrapern“ mit Preisangaben gesehen, aber keiner hat sie auf einen Standardwert normalisiert. Gleichzeitig nennen Nutzer die Kosten durchgehend als zentrale Hürde.
Die Tabelle unten verwendet die niedrigste bezahlte Stufe und, wo sinnvoll, eine Mittel- oder Scale-Stufe. Perfekt ist das nicht – manche Tools rechnen pro Ausgaberow ab, andere pro Anfrage – aber es ist deutlich nützlicher als bloße Monatsangaben.
| Tool | Niedrigste bezahlte Stufe | Mittel-/Scale-Stufe | Kosten pro 1.000 Seiten (ca.) | Proxy/Rendering enthalten? | Hinweise |
|---|---|---|---|---|---|
| Thunderbit | Starter | Pro 1 | 30 $ / 12,67 $ | Enthalten | 1 Credit = 1 Zeile |
| Octoparse | Basic | Standard | 39 $ / 83 $ | Nein | Proxies und CAPTCHA extra |
| Apify | Abhängig vom Actor | Abhängig vom Actor | 5–50 $+ | Teilweise | Actor-Gebühren + Plattformnutzung |
| ScrapingBee | Freelance | Business | 3,16 $ / 0,91 $ | Größtenteils | Hängt vom Mix aus JS-/Proxy-Credits ab |
| Bright Data | PAYG | Scale | 1,50 $ / 1,30 $ | Größtenteils | Auf Datensatzbasis |
| ParseHub | Standard | Professional | 189 $ / 599 $ | Teilweise | Abonnement statt Seitenabrechnung |
| Oxylabs | Micro | Starter | 1,15–1,35 $ / 1,10–1,30 $ | Größtenteils | JS und Headless können die Kosten erhöhen |
| Crawlbase | Kostenpflichtiger Einstieg | Hohe Volumina | 3,00 $ / 0,60 $ | Größtenteils | Auf Anfragebasis |
| Helium Scraper | Basic-Lizenz | Professional | 9,90 $ / 19,90 $ amortisiert | Nein | Einmallizenz für Desktop |
Welche Tools sind im jeweiligen Maßstab am kosteneffizientesten?
- Unter 5.000 Seiten/Monat: Thunderbit ist vernünftig, wenn dir Geschwindigkeit wichtiger ist als reine Wirtschaftlichkeit. Auch Crawlbase mit freiem Kontingent und kleinere Apify-Actors können funktionieren.
- 5.000 bis 50.000 Seiten/Monat: ScrapingBee, Bright Data, Oxylabs und stärkere Apify-Actors sind oft wertvoller als No-Code-Tools mit Zeilenabrechnung.
- 50.000+ Seiten/Monat: Bright Data und Oxylabs sind die am ehesten vertretbaren Enterprise-Optionen. Apify kann funktionieren, wenn du dem Actor und der Plattformökonomie bereits vertraust.
Das versteckte Kostenmuster ist entscheidend: Desktop- und No-Code-Tools verstecken Kosten oft in Add-ons oder Arbeitszeit, API-Tools dagegen in Rendering-Multiplikatoren, Proxy-Klassen oder der Komplexität der Extraktion.
Welche eBay-Scraper überstehen 2026 tatsächlich die Anti-Bot-Abwehr?
eBays Anti-Scraping-Stack ist mehrschichtig. Aktuelle Community-Berichte, Anbieter-Dokumentationen und Forschung zur Bot-Abwehr zeigen immer dasselbe Muster: eBay nutzt Rate Limiting, CAPTCHA-Herausforderungen, JavaScript-abhängige Verifizierung, Cookie-/Session-Prüfungen, IP-Reputation und Browser-Fingerprinting. Deshalb scheitern so viele fragile Skripte, selbst wenn sie ein oder zwei Seiten abrufen können.
Daten von Drittanbietern zu Bots helfen zu erklären, warum das Scraping auf Marktplätzen schwieriger geworden ist. Akamai berichtete 2024, dass Bots ausmachten, und Radware stellte fest, dass Bots während der Weihnachtssaison 2024 ausmachten.
| Tool | Anti-Bot-Ansatz | Residential Proxies | CAPTCHA-Handling | Typische Erfolgsrate bei eBay |
|---|---|---|---|---|
| Thunderbit | Echte Browser-Session im Browser-Modus; integriertes Cloud-Routing für öffentliche Seiten | Im Cloud-Modus integriert | Cloud-Modus übernimmt das | Hoch für nicht-technische Workflows |
| Octoparse | Cloud-Extraktion + IP-Rotation | In kostenpflichtigen Stufen/Add-ons verfügbar | Über Cloud-Stack unterstützt | Mittel bis hoch |
| Apify | Hängt vom Actor ab; oft Playwright + Proxy-Unterstützung | Verfügbar | Variiert je nach Actor | Mittel bis hoch, wenn der Actor gepflegt wird |
| ScrapingBee | Gerenderter Browser-Fetch + Premium-Proxies | Ja, über Premium-Routing | Teil des verwalteten Stacks | Hoch |
| Bright Data | Unlocker + Residential-Netzwerk + Browser-Automatisierung | Ja | Ja | Sehr hoch |
| ParseHub | Desktop-/Browser-Simulation + kostenpflichtige IP-Rotation | Teilweise | Teilweise | Mittel |
| Oxylabs | Residential-/ISP-/Mobile-Proxies + Scraper-API + Headless Browser | Ja | Auf Plattformebene verwaltet | Sehr hoch |
| Crawlbase | Anonyme API + rotierende IPs + CAPTCHA-Bypass | Verwaltet | Verwaltet | Mittel bis hoch |
| Helium Scraper | Vom Nutzer gebaute Browser-Automatisierung; Proxy-Support bei Konfiguration | Eigene Proxies mitbringen | Manuell / durch Nutzer verwaltet | Mittel |
Die Debatte Datacenter- vs. Residential-Proxies
Das ist einer der wenigen Bereiche, in denen sich Anbieterempfehlungen und Nutzererfahrung klar decken. Die Apify-Actor-Dokumentation warnt ausdrücklich davor, dass eBay Datacenter-IPs aggressiver blockiert, und empfiehlt Residential Proxies. Oxylabs vertritt auf seinen eBay-Proxy-Seiten dieselbe Position. In einfachem Deutsch: Datacenter-IPs sind billiger, aber Residential- oder ISP-Traffic überlebt ein dauerhaftes eBay-Scraping viel eher.
Genau deshalb ist Thunderbits Browser-Modus aus Anti-Bot-Sicht interessant. Er umgeht einen Teil des üblichen Scraper-Fingerprinting-Problems, indem er von der echten Browser-Session des Nutzers ausgeht statt von einer frischen Cloud-only-Bot-Identität.
Über Suchergebnisse hinaus scrapen: Verkaufte Angebote, Unterseiten und komplette Produktdatenbanken
Die meisten eBay-Scraping-Projekte hören nicht bei Suchergebnissen auf. Der eigentliche Workflow besteht aus drei Schritten:
- Eine Suchergebnis- oder Ergebnisseite mit verkauften Artikeln scrapen
- Jede Angebots-URL besuchen
- Reichhaltigere Detailfelder in eine zusammengeführte Tabelle einfügen
Genau diesen Workflow brauchst du für ernsthafte Produktrecherche, weil Suchseiten selten alles enthalten. Artikelspezifikationen, Zustandsnotizen, Verkäuferregeln, Versanddetails und erweiterte Beschreibungen stehen auf der Detailseite.
Hier zeigt sich auch die größte Lücke der eBay-API. Die offizielle API ist für aktive Angebote in Ordnung, aber verkaufte/abgeschlossene Daten bleiben eingeschränkt. Wenn du Vergleichswerte, Wiederverkaufsvalidierung oder Preisverlaufsforschung über abgeschlossene Angebote hinweg brauchst, ist Web-Scraping weiterhin der praktische Weg – außer, deine Organisation hat bereits eine Marketplace-Insights-Freigabe.
Die Unterschiede zwischen den Tools sind hier erheblich:
- Thunderbit erledigt das nativ mit Unterseiten scrapen – einem seiner größten Vorteile für nicht-technische Nutzer. Auf den Knopf klicken, und die KI besucht jede Produkt-URL und ergänzt die ursprüngliche Tabelle um neue Spalten.
- Octoparse und ParseHub können das ebenfalls, aber der Workflow ist manueller und erfordert eine separate Konfiguration.
- Apify kann das, wenn der Actor Search-to-Detail-Fan-out unterstützt.
- Bright Data und Oxylabs unterstützen das selbstverständlich ebenfalls, aber du baust die Schleife meist selbst oder kaufst einen strukturierten Datensatz.
- Helium Scraper kann das lokal, verlangt aber ein manuelles Projekt-Design.
Wenn dein Ziel eine vollständige Produktdatenbank statt einer flachen Liste aus Titeln und Preisen ist, ist die Anreicherung von Unterseiten keine Option, sondern der Kern des Workflows. Mehr dazu, wie Subpage-Scraping in der Praxis funktioniert, findest du in unserem Leitfaden .
Ein kurzer Hinweis zur Legalität und Ethik beim Scraping von eBay
Kurz gesagt: Öffentlich zugängliche Daten zu scrapen ist nicht automatisch illegal, aber auch kein Freifahrtschein. Die Rechtsprechung rund um bleibt relevant für öffentliches Web-Scraping und den Computer Fraud and Abuse Act, und spätere Entscheidungen wie der haben bestätigt, dass Argumente zugunsten des Scrapings öffentlicher Daten unter Umständen auch vor Gericht tragen können.
Allerdings verbietet E-bays aktuelle ausdrücklich Robots, Spiders, Scraper und Data-Mining-Tools, sofern eBay nicht vorher ausdrücklich zustimmt. In der Praxis sollten Nutzer:
- Sich auf öffentlich zugängliche Daten konzentrieren
- Keine personenbezogenen Daten scrapen
- Verantwortlich mit Rate Limits umgehen
- E-Bays aktuelle Bedingungen und Robots-Erwartungen prüfen
- Bei kommerziellen oder sensiblen Anwendungsfällen rechtlichen Rat einholen
Dieser Artikel handelt von Tools, nicht von Rechtsberatung. Mehr zum rechtlichen Umfeld findest du in unserem Beitrag über .
Welcher eBay-Scraper ist der richtige für dich?
Wenn du eine kurze Empfehlungstabelle willst:
- Am besten für Einsteiger / No-Code-Nutzer: Thunderbit – 2-Klick-Setup, KI-Feldvorschläge, native Unterseiten-Anreicherung, Browser-Scraping-Modus, kostenlose Exporte
- Am besten für Entwickler, die eine API wollen: ScrapingBee – saubere API, starkes Anti-Bot-Handling, kein visueller Ballast
- Am besten für Enterprise-Scale: Bright Data – unübertroffene Infrastruktur, Dataset-Auslieferung, Residential-Proxy-Netzwerk
- Am besten für einen vorgefertigten Scraper-Marktplatz: Apify – riesige Actor-Bibliothek, Abdeckung verkaufter Angebote, flexible Cloud
- Am besten für visuelles Workflow-Building (Desktop): Octoparse – starke eBay-Vorlagen, Cloud-Modus, Planung
- Beste kostenlose Desktop-Option für kleine Projekte: ParseHub – kostenlose Stufe, verarbeitet dynamische Seiten, gut zum Lernen
- Am besten für globale Daten in hohem Volumen: Oxylabs – Enterprise-Proxy-Stack, Headless-Browser-Support, starke Verfügbarkeit
- Am besten für anonymes API-Scraping mit kleinem Budget: Crawlbase – günstiger Einstieg, kostenlose Anfragen, solides CAPTCHA-Bypass
- Bester Desktop-Scraper mit Einmallizenz: Helium Scraper – lokale Kontrolle, keine Monatsgebühr, flexibel, wenn du die Einrichtung selbst stemmen kannst
Wenn du dir noch unsicher bist, fang mit dem Tool an, das zu deinem Komfortniveau und deinem Datenvolumen passt. Für die meisten nicht-technischen Nutzer ist das – vor allem, wenn du von einer eBay-Seite in zwei Klicks zur Tabelle kommen willst.
Mehr erfahren