Amazon erzielte im vergangenen Jahr einen Nettoumsatz von , wobei über 60 % der verkauften Einheiten von Drittanbietern stammten. Das ist eine gewaltige Menge an Produkt-, Preis- und Bewertungsdaten — und jedes E-Commerce-Team, jeder FBA-Seller und jede Marktforschung will ein Stück davon abhaben.
Das Problem? Amazon 2026 zu scrapen ist wirklich schwierig. Ich habe bei Thunderbit jahrelang KI-gestützte Datentools entwickelt, und selbst unser Team respektiert, wie aggressiv Amazon seine Seiten schützt. CAPTCHAs, Browser-Fingerprinting, dynamisches Rendering, Rate Limiting — der Anti-Bot-Stack ist vielschichtig und entwickelt sich ständig weiter. Reddit-Threads sind voller Nutzer, die Dinge sagen wie und Also wollte ich die Sache auf den Punkt bringen. Mein Team und ich haben uns 10 Amazon-Scraper angesehen — von No-Code-Chrome-Erweiterungen bis zu Enterprise-APIs — und sie danach bewertet, worauf es wirklich ankommt: Erfolgsrate, Geschwindigkeit, Kosten, Bewertungs-Paginierung, Anti-Bot-Handling und ob Nicht-Entwickler sie realistisch nutzen können. Dieser Leitfaden deckt jeden Blickwinkel ab, egal ob du aus Spaß Python schreibst oder einfach bis zum Mittag eine Tabelle mit Konkurrenzpreisen brauchst.
No-Code vs. API vs. DIY: Welche Art von Amazon-Scraper brauchst du wirklich?
Bevor du ein Tool auswählst, solltest du die Kategorie festlegen. Die meisten Übersichten zu den „besten Amazon-Scrapern“ tun so, als wären nur Entwickler auf der Suche nach einer API. Das ist eine falsche Annahme. Auch FBA-Seller, E-Commerce-Operations-Teams und Marketer suchen nach diesen Tools — und sie wollen keine Proxy-Rotation verwalten oder rohes JSON parsen.
Dieses Raster empfehle ich:
| Kategorie | Am besten geeignet für | Technisches Niveau | Beispiel-Tools |
|---|---|---|---|
| 🖱️ No-Code / Browser-Erweiterung | Schnelles Scraping von Produkten/Bewertungen, einmalige Exporte, leichtes Monitoring | Keines | Thunderbit |
| ⚙️ Scraping-API | Produktions-Pipelines, groß angelegtes Preis-Tracking, Katalogextraktion | Mittel bis fortgeschritten | Bright Data, Oxylabs, ScraperAPI, Decodo, ScrapingBee, Nimble, Zyte, ZenRows |
| 🐍 DIY / Actor-basiert | Benutzerdefinierte Workflows, spezielle Seitenlogik, experimentelle Pipelines | Fortgeschritten | Apify-Actor, eigene Playwright-/Scrapy-Stacks |
Die meisten Amazon-Scraper-Listen sind immer noch API-zentriert. Business-User und No-Code-Workflows bekommen dort nicht dieselbe analytische Tiefe. Wenn du allein FBA-Seller oder Marketinganalyst bist, solltest du nicht erst Headless-Browser lernen müssen, nur um eine Liste mit Konkurrenzpreisen zu bekommen. Deshalb behandelt dieser Leitfaden alle drei Kategorien gleichgewichtig.
Mein Rat: Entscheide zuerst, in welche Schublade du gehörst, bevor du Tools vergleichst. Eine Chrome-Erweiterung, die mit zwei Klicks nach Google Sheets exportiert, konkurriert nicht mit einer Enterprise-API, die NDJSON an Snowflake liefert. Sie lösen unterschiedliche Probleme für unterschiedliche Menschen.
Worauf du 2026 bei den besten Amazon-Scrapern achten solltest
Ich habe jedes Tool anhand von 10 Kriterien bewertet. Das sind keine abstrakten Punkte — sie hängen direkt mit den Gründen zusammen, warum Amazon-Scraping-Jobs scheitern, Credits verschwendet werden oder Geschäftsentscheidungen auf schlechten Daten beruhen.
Erfolgsrate und Anti-Bot-Handling
Das ist die wichtigste Kennzahl überhaupt. Ein billiger Scraper, der bei echtem Volumen versagt, ist schlimmer als nutzlos — er kostet Zeit und gibt dir falsches Vertrauen in unvollständige Daten.
Amazon nutzt mehrere Anti-Bot-Ebenen: Browser-Fingerprinting, CAPTCHA-Sperren, dynamisches Rendering, Rate Limiting und mehr. hat 11 Scraping-APIs auf 15 geschützten Websites verglichen. Amazons durchschnittliche Erfolgsrate bei 2 Requests pro Sekunde lag bei — insgesamt nicht schlecht, aber die Unterschiede zwischen den Tools sind enorm, besonders auf Bewertungsseiten.
Die vom Anbieter selbst angegebenen Erfolgsraten und unabhängige Benchmarks erzählen oft unterschiedliche Geschichten. fand bei der Bewertungs-Extraktion Erfolgsraten von 96 % (Bright Data) bis hinunter zu 11 % (Decodo). Das Tool, das auf Produktseiten großartig aussieht, kann bei Reviews komplett auseinanderfallen.
Geschwindigkeit und Antwortzeit
Geschwindigkeit zählt, wenn du Tausende ASINs überwachen oder einen großen Katalog aktualisieren willst. Die typischen Antwortzeiten der von mir getesteten Tools liegen zwischen etwa 2 und 12 Sekunden pro Request. nannte Zeiten von rund 3 Sekunden (Scrape.do, Decodo) bis zu rund 12 Sekunden (ScraperAPI).
Das Muster ist konsistent: Tools, die reichhaltigere und strukturiertere Ausgaben liefern, sind meist langsamer. Bright Data liefert zum Beispiel oft Hunderte strukturierter Felder pro Produkt, braucht dafür aber 10+ Sekunden. Decodo und Zyte sind schneller, aber weniger granular.
Kosten pro 1.000 Requests auf verschiedenen Stufen
Die Preisgestaltung in diesem Bereich ist chaotisch. Einige Tools berechnen pro Request, andere pro Ergebnis, pro Credit oder pro „geschütztem Request“. Und die Stückkosten ändern sich drastisch bei 10K, 100K und 1M Request-Stufen.
Der fairste Vergleich ist zu sehen, was du bei deinem erwarteten Volumen tatsächlich pro 1.000 erfolgreiche Ergebnisse zahlst. Ich breche das unten Tool für Tool herunter, aber die Spanne ist groß: von Gratis-Tarifen bis weit über 3 $ pro 1.000 Requests, je nach Tool und Workload.
Gratis-Tarif und Freemium-Optionen
Viele Nutzer wollen vor dem Kauf testen. Mehrere Tools bieten sinnvolle Gratis-Tarife — Thunderbit, ScrapingBee, Apify und Zyte lassen dich alle vor dem Kauf ausprobieren. Wenn du nur einmalig recherchierst, reicht dir womöglich ein Gratis-Tarif völlig aus.
Endpunkt-Abdeckung, Paginierung und Ausgabeformate
Nicht jedes Tool deckt dieselben Amazon-Seitentypen ab. Die Kern-Endpunkte sind:
- Produktdetailseiten (PDP)
- Suchergebnisse
- Bewertungen
- Verkäuferseiten
- Bestsellers
- Angebote / Buy Box / Varianten-Seiten
Auch die Ausgabeformate sind wichtig. JSON ist großartig für Pipelines, aber Business-User wollen CSV, Excel oder einen direkten Export nach Google Sheets, Airtable oder Notion. Thunderbit ist bei direkten Exporten in Business-Tools am stärksten; Bright Data ist am stärksten bei der Auslieferung an Cloud- und Datenplattformen.
Und dann gibt es noch das Problem der Bewertungs-Paginierung — dazu unten mehr, weil es die größte Frustration der Nutzer ist.
Geo-Targeting und Marktplatz-Abdeckung
Amazons Produktsichtbarkeit, Verfügbarkeit und Preise variieren je nach Land und manchmal sogar je nach Postleitzahl. Wenn du international verkaufst oder Preise auf Amazon US, UK, DE, JP und anderen Märkten verfolgst, brauchst du ein Tool mit Geo-Targeting auf Marktplatz-Ebene — idealerweise auch auf ZIP-Code-Ebene. , und dokumentieren diese Funktionalität.
Die 10 besten Amazon-Scraper auf einen Blick
Unten findest du die umfassendste Vergleichstabelle, die ich aus aktuellen Anbieter-Dokumentationen, unabhängigen Benchmarks (, , ) und eigener Recherche zusammenstellen konnte. Wo öffentliche Daten unvollständig sind, habe ich das vermerkt.
| Tool | Typ | Signal für Erfolgsrate | Signal für durchschnittliche Geschwindigkeit | Signal für Kosten pro 1K | Gratis-Tarif | CAPTCHA / Anti-Bot | Bewertungs-Paginierung | Endpunkt-Abdeckung | No-Code-Option | Ausgabeformate | Geo-Targeting |
|---|---|---|---|---|---|---|---|---|---|---|---|
| Thunderbit | No-Code / gemischt | Kein Drittanbieter-Benchmark für Amazon | Browser-nativ; kein öffentlicher Benchmark | Credit-basiert; kostenlose + kostenpflichtige Pläne | Ja | Browser-Modus + Cloud-Modus | Ja (Paginierungs-Scraping) | Produkt, Preis, Bewertungen, Listings, Anreicherung von Unterseiten | Ja | Excel, Sheets, Airtable, Notion, CSV, JSON | Browser/lokal + Cloud |
| Bright Data | API / gemischt | 99,98 % (Produkt); 96 % (Bewertungen) | ~10+ s; tiefe Ausgabe | ~2,5 $/1K Pay-as-you-go | Testphase | Sehr stark | Ja | Produkte, Bewertungen, Verkäufer, Suche, global | Ja (No-Code-Scraper) | JSON, NDJSON, CSV, Webhook, S3, Snowflake, Azure, GCS | Stark |
| Oxylabs | API | 92 % (Bewertungen); insgesamt stark | ~4 s (Bewertungen); variiert | ~0,50 $/1K ohne JS | Testphase | Sehr stark | Teilweise | Produkt, Suche, Preise, Verkäufer, Bestsellers | Nein | JSON, HTML, Markdown, Screenshots | Stark |
| ScraperAPI | API | 100 % (Produkt-Benchmark) | ~11,8 s | Abonnement + Credits | Testphase | Stark | Ja (async, mit pageNumber) | Produkt, Bewertungen, Bestsellers | Nein | Strukturierte JSON | Gut |
| Decodo | API / gemischt | 100 % (Produkt); 11 % (Bewertungen) | ~4,1 s (Produkt) | Niedrigpreisige Positionierung | Ja | Stark | Schwach | Produkt, Preise, Suche, Verkäufer, Bestsellers, URL | Eingeschränkt | HTML, JSON, CSV, Markdown, XHR, PNG | Stark, auf ZIP-Code-Ebene |
| ScrapingBee | API | Allgemeiner Top-Vierer-Benchmark | ~3,2 s | Credit-basiert; 49 $/Monat für 250K Credits | Ja (1K Aufrufe) | Stark | Kein dedizierter Bewertungs-Endpunkt | Produkt, Suche | Eingeschränkt | JSON, HTML, Screenshots | Stark, ZIP |
| Nimble | API / agentisch | 92 % (Bewertungen) | ~10–13 s (Bewertungen) | ~3 $/1K Seiten | Ja | Stark | Teilweise | PDP- und SERP-Agenten | Ja (benutzerdefinierte Agenten) | JSON, HTML, Markdown, YAML, RAW, Screenshots | Stark |
| Zyte | API | 93,14 % (allgemein); 75 % (Bewertungen) | ~2,6 s (in manchen Benchmarks am schnellsten) | Skalierungseffizient, auf Schätzungen basierend | 5 $ Gratisguthaben | Stark | Teilweise | Produkt, productList, productNavigation, SERP | Nein | Strukturierte JSON, HTML, Browser-Ausgaben | Stark |
| ZenRows | API / Browser | Gemischte Benchmark-Signale | ~4 s | Ab ~2 $/1K | Testphase | Stark | Teilweise bis stark | Produkt, Suche, Bewertungen, Verkäufer, Bestsellers | Nein | HTML, JSON, geparster Output | Stark |
| Apify | Actor-Plattform | ~99,1 % (actor-abhängig) | Langsam (actor-abhängig) | 5 $ gratis + Actor-Preise | Ja | Actor-abhängig | Ja (actor-spezifisch) | Breiteste Aufgabenspanne | Ja | JSON, CSV, Excel, XML, HTML | Actor-abhängig |
Hinweis: Die Erfolgsraten stammen aus den Benchmarks von , und , soweit verfügbar. Vom Anbieter selbst gemeldete Werte sind in den einzelnen Abschnitten separat vermerkt.
1. Thunderbit
ist das Tool, das wir im Unternehmen gebaut haben, deshalb sage ich das direkt — aber ich sage auch klar, was es kann und was nicht.
Thunderbit ist eine KI-gestützte Chrome-Erweiterung für Business-User, die Amazon-Daten ohne Code brauchen. Du installierst die Erweiterung, öffnest eine beliebige Amazon-Produktseite, Suchergebnisseite oder Bewertungsseite und klickst auf „KI-Felder vorschlagen“. Die KI liest die Seite und schlägt Spaltennamen sowie Datentypen vor. Dann klickst du auf „Scrapen“, und die Daten landen in einer strukturierten Tabelle, die du nach Excel, Google Sheets, Airtable oder Notion exportieren oder als CSV/JSON herunterladen kannst.
Für populäre Amazon-Seiten bietet Thunderbit außerdem — vorkonfigurierte Setups, die mit einem einzigen Klick funktionieren. Es gibt Vorlagen für , und .
Was Thunderbit wirklich von API-Tools unterscheidet:
- Scraping von Unterseiten: Du kannst eine Liste von Produkt-URLs anreichern, indem Thunderbit jede Produktdetailseite aufruft und Spezifikationen, Bewertungen oder andere Daten ergänzt — ganz ohne Code.
- Paginierungs-Scraping: Thunderbit verarbeitet sowohl Klick-Paginierung als auch unendliches Scrollen, sodass du komplette Bewertungssets extrahieren kannst statt nur der ersten Seite. Das ist in den dokumentiert.
- Field AI Prompt: Während des Scrapings kannst du Anweisungen wie „Diese Bewertung als positiv/negativ/neutral kategorisieren“ oder „die Hauptbeschwerde extrahieren“ hinzufügen. Die exportierte Tabelle enthält bereits beschriftete, strukturierte Erkenntnisse — nicht nur Rohtext.
- Geplantes Scraping: Beschreibe das Intervall in natürlicher Sprache, gib deine URLs ein und klicke auf „Planen“. Praktisch für wiederkehrendes Preis-Monitoring.
- Browser-Scraping-Modus: Weil Thunderbit in deiner echten Browser-Sitzung läuft, werden viele Anti-Bot-Maßnahmen, die API-basierte Tools ausbremsen, ganz natürlich umgangen. Für größere Jobs gibt es außerdem eine Cloud-Scraping-Option.
Kostenlose Exporte nach Excel, Google Sheets, Airtable und Notion sind enthalten — ohne Paywall, wenn du deine Daten herausbekommen willst.
Für wen Thunderbit geeignet ist
- FBA-Seller für einmalige Konkurrenz- oder Bewertungsrecherchen
- E-Commerce-Operations-Teams, die Preise ohne Engineering-Support überwachen
- Marketer, die Bewertungs-Exporte und schnelle Sentiment-Analysen brauchen
- Alle, denen spreadsheet-fähige Ausgaben wichtiger sind als API-Kabelsalat
Vor- und Nachteile
Vorteile:
- Die geringste Einstiegshürde in dieser Liste — installieren, klicken, exportieren
- KI-Feldvorschläge reduzieren Rätselraten
- Eingebaute Datenbeschriftung und Übersetzung während der Extraktion
- Paginierung + Scraping von Unterseiten passen zu echten E-Commerce-Workflows
- Kostenlose Exporte in Business-Tools
Nachteile:
- Browser-zentriertes Produkt — nicht für schwere Backend-Datenpipelines gedacht
- Noch kein öffentlicher Drittanbieter-Benchmark für Amazon-Erfolgsraten
- Thunderbit Open API gibt es für Entwickler, aber das Kernprodukt richtet sich an Nicht-Programmierer
2. Bright Data
ist der Schwergewichts-Kandidat in diesem Bereich. Das Unternehmen hat das größte Proxy-Netzwerk (), eine dedizierte Amazon Scraper API mit über 437 vorkonfigurierten Endpunkten und Enterprise-taugliche Auslieferungsoptionen.
Im erreichte Bright Data Erfolgsrate auf Produktseiten und lieferte pro Produkt — deutlich mehr als jedes andere getestete Tool. Bei Bewertungen kam es auf . Diese Tiefe ist unerreicht.
Bright Data bietet außerdem Amazon Datasets — vorab gesammelte, strukturierte Daten, die du kaufen kannst, ohne eigene Scraping-Jobs zu starten. Die Ausgabe lässt sich als JSON, NDJSON, CSV, Webhook, S3, Snowflake, Azure und GCS ausliefern. Async-Jobs unterstützen bis zu .
Die Preisgestaltung erfolgt nach Erfolg (keine Gebühr für fehlgeschlagene Requests) und beginnt bei rund im Pay-as-you-go-Modell, mit einer einwöchigen Gratis-Testphase inklusive 1.000 Requests.
Vor- und Nachteile
Vorteile:
- Tiefste strukturierte Ausgabe in jedem öffentlichen Benchmark
- Enterprise-Compliance (GDPR, CCPA, ISO 27001)
- No-Code-Scraper-Oberfläche zusätzlich zur API verfügbar
- Preisgestaltung pro Erfolg
Nachteile:
- Höhere Kosten pro Request als Budget-Optionen
- Langsamere Antwortzeiten (~10+ s in manchen Benchmarks)
- Die Komplexität kann Solo-Nutzer oder kleine Teams überfordern
3. Oxylabs
ist eine Premium-API-Option mit starker Proxy-Infrastruktur (100 Mio.+ IPs) und dedizierten Amazon-Endpunkten für Produkt, Suche, Preise, Verkäufer und Bestsellers. Der KI-Assistent OxyCopilot hilft dir, API-Aufrufe in natürlicher Sprache aufzusetzen — ein praktisches Detail für Entwickler, die schnell vorankommen wollen.
ordnete Oxylabs unter den Top-Performern ein, und gab dem Tool 92 % Erfolg bei rund 4 Sekunden. Oxylabs bietet außerdem einen Scraper für Produktvarianten für Farb-, Größen- und Modellkombinationen sowie Multi-Format-Ausgaben (JSON, HTML, Markdown, Screenshots mit einem Aufruf).
Die Preise beginnen bei etwa für JS-freie Aufrufe; die Testphase umfasst bis zu 2.000 Ergebnisse.
Vor- und Nachteile
Vorteile:
- Starke Benchmark-Performance
- Der Scraper für Produktvarianten ist ein Alleinstellungsmerkmal
- Mehrformat-Ausgabe in einem einzigen Aufruf
Nachteile:
- Die dedizierte Quelle
amazon_reviewswurde , weil sich Amazons Zugriff auf Bewertungen geändert hat - Nicht die einsteigerfreundlichste Oberfläche
4. ScraperAPI
setzt auf Einfachheit und Zuverlässigkeit. Es kümmert sich im Hintergrund um Proxy-Rotation und CAPTCHA-Lösung, und der Structured Data Endpoint liefert sauberes JSON für Amazon-Produkte, Suchergebnisse, Bewertungen und Bestsellers.
Im erreichte ScraperAPI auf Produktseiten , allerdings bei einer langsameren durchschnittlichen Zeit von rund 11,8 Sekunden. Der Async-Bewertungs-Endpunkt unterstützt explizit pageNumber, was für die Paginierung von Bewertungen wichtig ist.
ScraperAPI bietet außerdem eine DataPipeline-Funktion — ein Low-Code-Batch-Tool mit Vorlagen für gängige Amazon-Aufgaben.
Preisgestaltung: , danach 49 $/Monat im Hobby-Tarif für 100.000 API-Credits.
Vor- und Nachteile
Vorteile:
- Sehr hohe Erfolgsrate in öffentlichen Benchmarks
- Async-Bewertungs-Endpunkt mit expliziter Paginierungsunterstützung
- DataPipeline für Low-Code-Batch-Jobs
Nachteile:
- Langsamer als einige Premium-Optionen
- Credit-Multiplikatoren für Premium-Proxy-Stufen können die effektiven Kosten erhöhen
5. Decodo
(früher Smartproxy) ist die budgetfreundliche Wahl für Amazon-Scraping mit Fokus auf Produkte und Suche. Es unterstützt dedizierte Amazon-Endpunkte für und bietet über 21 Amazon-Marktplätze hinweg.
Im erreichte Decodo auf Produktseiten . Aber hier kommt der Haken: gab Decodo bei der Bewertungs-Extraktion nur . Das ist ein riesiger Unterschied.
Vor- und Nachteile
Vorteile:
- Schnell und günstig für Produkt-/Such-Scraping
- Starkes Geo-Targeting (ZIP-Code-Ebene)
- Gute Breite bei den Endpunkten
Nachteile:
- In unabhängigen Benchmarks sehr schwach bei der Bewertungs-Extraktion
- Nicht das richtige Tool, wenn Bewertungen zentral für deinen Workflow sind
6. ScrapingBee
ist eine einsteigerfreundliche API mit sauberem Onboarding und bei der Registrierung. Sie deckt Amazon-Produkt- und Such-Endpunkte ab, mit Geo-Parametern für .
Die Preise beginnen bei , Amazon-Requests kosten 5 Credits (leicht) oder 15 Credits (JS-lastig).
Vor- und Nachteile
Vorteile:
- Einfacher Einstieg
- Großzügiger Gratis-Tarif zum Testen
- Gutes Geo-Targeting
Nachteile:
- Engere Endpunkt-Abdeckung als Bright Data oder Oxylabs
- Kein öffentlich dokumentierter dedizierter Bewertungs-Endpunkt
7. Nimbleway
ist weniger ein klassischer Scraper und mehr eine agentische Datenplattform. Die stärksten Amazon-Belege gibt es rund um die Agenten amazon_pdp und amazon_serp, mit integrierten Residential Proxies, strukturiertem Output und starker Lokalisierung.
gab Nimble , allerdings bei langsameren rund 13 Sekunden. Preisbeispiele sind und Tarife von etwa .
Vor- und Nachteile
Vorteile:
- Starke Lokalisierung und Geo-Targeting
- Der agentische Ansatz kann komplexe Workflows bewältigen
- 7-tägige kostenlose Testphase
Nachteile:
- Höheres Preisniveau
- Weniger umfassender Amazon-Endpunktkatalog als manche API-first-Tools
8. Zyte
ist eine allgemeine Web-Datenplattform mit E-Commerce-Parser-Add-ons. Amazon-Extraktion erfolgt über generische Entitäten wie product, productList, productNavigation und SERP.
Zyte war in manchen Benchmarks am schnellsten — im allgemeinen Test von Proxyway — und bei hohem Volumen kosteneffizient (~0,20 $/1K). Es gibt für 30 Tage.
Aber gab Zyte bei Reviews nur . Die Amazon-spezifische Stärke liegt also eher auf Produktseiten als auf der Bewertungs-Extraktion.
Vor- und Nachteile
Vorteile:
- Schnelle Antwortzeiten
- Kosteneffizient im Enterprise-Maßstab
- Breite Webplattform, nicht nur Amazon
Nachteile:
- Bewertungs-Extraktion schwächer als Produktseiten-Scraping
- Erfordert mehr technisches Setup als No-Code-Optionen
9. ZenRows
positioniert sich mit dedizierten Amazon Scraper APIs für , aufgebaut auf einem breiteren Scraping-Browser und einer universellen Scraper-API.
Die Preise beginnen bei mit einer . Die Materialien des Anbieters betonen Anti-Bot-Bypass, JavaScript-Rendering und strukturierte Ausgaben.
Vor- und Nachteile
Vorteile:
- Breite Amazon-Endpunkt-Abdeckung
- Gute Dokumentation
- Anti-Bot-Bypass und JS-Rendering
Nachteile:
- Öffentliche Benchmark-Signale sind gemischter als bei Bright Data oder Oxylabs
- Höherer Einstiegspreis als bei manchen Wettbewerbern
10. Apify
ist hier die flexibelste Option, weil es nicht nur ein Scraper ist — es ist eine Plattform mit vielen Amazon-spezifischen Actors, jeder mit unterschiedlichen Preisen, Qualitäten und Fähigkeiten. Im findest du Actors für Produkte, Bewertungen, Verkäufer, Bestsellers und Nischenanwendungen.
lieferte etwa 5.946 von 6.000 URLs zurück, was auf ungefähr 99,1 % Erfolgsrate hindeutet. Mehrere Actors umgehen ausdrücklich Amazons Bewertungsbegrenzung durch Filter-Fan-out oder alternative Traversierung — obwohl in der Produktion trotzdem auftauchen.
Preisgestaltung: , danach Plattformpläne ab 49 $/Monat plus actor-spezifische Kosten.
Vor- und Nachteile
Vorteile:
- Größte Flexibilität bei Aufgaben
- Community-Actors für spezielle Amazon-Workflows
- Gut für Entwickler, die anpassen wollen
Nachteile:
- Qualität variiert je nach Actor
- Weniger schlüsselfertig als dedizierte Amazon-APIs
- Kann bei groß angelegten Läufen langsam sein
Der Test der Bewertungs-Paginierung: Bekommen diese Amazon-Scraper alle deine Bewertungen?
Die meisten „besten Amazon-Scraper“-Beiträge lassen diesen Abschnitt komplett weg. Dabei ist er für FBA-Seller und Produktforscher der wichtigste.
Die meisten Amazon-Scraping-Tools liefern standardmäßig nur die erste Bewertungsseite (typischerweise 10 Bewertungen), wenn du die Paginierung nicht ausdrücklich behandelst. Nutzer in Foren beschreiben das als ihre größte Frustration: „Die meisten APIs, die ich getestet habe, liefern nur die ersten 10 Bewertungen“ und „Ich brauche etwas, das Hunderte oder sogar Tausende von Bewertungen sammeln kann.“
Ende 2024 wurde es noch schlimmer. eine Entwicklung von rund 100 Bewertungen pro Seite 10 im August 2024 über nur Seite 5 im September bis hin zu im November 2024 blockierten Bewertungsseiten ohne Login. seine dedizierte amazon_reviews-Quelle, weil umfangreiche Bewertungsdaten an eingeloggten Zugriff gebunden wurden. , dass viele Anbieter standardmäßig nur 10–30 Bewertungen zurückgeben.
So handhabt jedes Tool das:
| Tool | Signal für zurückgelieferte Bewertungen | Volle Paginierung? | Hinweise |
|---|---|---|---|
| Thunderbit | Unterstützt Klick-Paginierung + unendliches Scrollen | ✅ Ja | Am besten für Business-User, die komplette Bewertungsabläufe manuell scrapen |
| Bright Data | Stärkste Tiefe im Bewertungs-Benchmark (96 % Erfolg, 29 Felder) | ✅ Stark | Beste strukturierte Ausgabe für Bewertungen in öffentlichen Benchmarks |
| Oxylabs | 92 % Bewertungserfolg, aber dedizierte Quelle wurde geändert | ⚠️ Teilweise | Die Doku betont inzwischen die wichtigsten Kundenbewertungen |
| ScraperAPI | Async-Endpunkt unterstützt pageNumber-Schleifen | ✅ Ja, mit expliziter Logik | Gut für Entwickler |
| Decodo | 11 % Bewertungserfolg im AIMultiple-Benchmark | ❌ Schwach | Produkt/Suche deutlich stärker als Bewertungen |
| ScrapingBee | Kein dedizierter Bewertungs-Endpunkt öffentlich dokumentiert | ❌ Schwach | Besser für Produkt/Suche |
| Nimble | Kein starker dedizierter Bewertungs-Flow gefunden | ⚠️ Teilweise | Agentischer Ansatz kann helfen |
| Zyte | 75 % Bewertungserfolg; keine dedizierte Paginierungsdoku | ⚠️ Teilweise | Besser als allgemeine Plattform |
| ZenRows | Bewertungs-API verspricht Extraktion in einem Aufruf | ⚠️ Teilweise bis stark | Muss je Workflow verifiziert werden |
| Apify | Actor-abhängig; Workarounds verfügbar | ✅ Actor-abhängig | Am besten für individuelle Bewertungslogik |
Wenn Bewertungsanalyse zentral für deinen Workflow ist, achte besonders auf diese Tabelle. Der Unterschied zwischen „nur erste Seite“ und „volle Paginierung“ ist der Unterschied zwischen 10 Bewertungen und über 500.
Welcher Amazon-Scraper ist für deinen Anwendungsfall am besten?
Generische Tool-Listen helfen dir bei der Entscheidung nicht. Dein Workflow sollte den Ausschlag geben.
Preis- und Bestandsüberwachung
Geplantes Scraping, hohe Zuverlässigkeit, Kosteneffizienz im großen Maßstab — das ist die Aufgabe.
- Bright Data — Enterprise-Tiefe, Cloud-Auslieferung, Bezahlung nach Erfolg
- Decodo — schnelles, günstiges Produkt-/Such-Scraping
- Thunderbit — Geplanter Scraper mit Intervallen in natürlicher Sprache, direkter Tabellen-Export
Bewertungsanalyse für FBA-Seller
Volle Bewertungs-Paginierung, ASIN-basiertes Scraping und KI-gestützte Sentiment-Analyse sind hier unverzichtbar.
- Thunderbit — KI-Beschriftung + Scraping von Unterseiten + Paginierung; exportierte Daten sind bereits kategorisiert
- Bright Data — beste strukturierte Bewertungs-Ausgabe in unabhängigen Benchmarks
- Apify — benutzerdefinierte Paginierungslogik und Workarounds für Sonderfälle
Produktkatalog und Datenanreicherung
Du brauchst breite Endpunkt-Abdeckung, Massenexport und strukturierte Ausgabe.
- Bright Data — tiefste strukturierte Felder ()
- Oxylabs — starke API-Abdeckung und Zuverlässigkeit
- ScraperAPI — strukturierte Endpunkte mit einfacherem Kostenmodell
- Thunderbit — tabellennahe Anreicherung für Business-Teams
Einmalige Wettbewerbsanalyse
No-Code, schneller Einstieg, kostenlos oder günstig.
- Thunderbit — Gratis-Tarif, Chrome-Erweiterung, 2-Klick-Workflow
- ScrapingBee — sauberer API-Einstieg für einfache Produkt-/Suchabfragen
- Apify — anpassbar, ohne von Grund auf neu zu bauen
Die Anti-Bot-Realität: Warum Amazon-Scraping scheitert (und wie diese Tools damit umgehen)
Die meisten Übersichtsartikel spielen das herunter: Kein Tool hat bei allen Amazon-Seitentypen und zu jeder Zeit eine Erfolgsrate von 100 %. Wenn dir jemand etwas anderes erzählt, will er dir etwas verkaufen.
Amazons Schutzmechanismen 2026 umfassen:
- Rate Limiting — zu viele Anfragen von derselben IP und du wirst blockiert
- CAPTCHA-Sperren — besonders auf Bewertungsseiten und Suchergebnissen
- Browser-Fingerprinting — Amazon kann Headless-Browser und Rechenzentrums-IP-Adressen erkennen
- Dynamisches Rendering — Seiteninhalt lädt per JavaScript, was einfache HTML-Parser bricht
- Lokalisierungs- und Lieferkontext-Variabilität — Preise und Verfügbarkeit ändern sich je nach Standort und Login-Status
- Beschränkungen beim Bewertungszugriff — Bewertungsseiten erfordern zunehmend eingeloggte Sitzungen oder interne Request-Pfade
Amazon als durch eigene Schutzmechanismen abgesichert ein und merkt an, dass die Bot-Abwehr „deutlich härter“ geworden ist. Rate Limiting, CAPTCHAs und Browser-Fingerprinting als zentrale Blocker hervor. Und sagt, dass Scraper-Bots im Durchschnitt des Web-Traffics ausmachen.
Jedes Tool geht anders vor:
- Bright Data, Oxylabs, Decodo: Große Residential-Proxy-Netzwerke, Auto-Rotation, CAPTCHA-Lösung, JavaScript-Rendering
- ScraperAPI, ScrapingBee, ZenRows, Zyte: Proxy-Rotation und Anti-Bot-Bypass direkt in die API-Schicht integriert
- Nimble: Residential Proxies mit Unterstützung für agentische Workflows
- Apify: Actor-abhängig; einige Actors nutzen fortgeschrittene Browser-Emulation, andere sind einfacher
- Thunderbit: Der Browser-Scraping-Modus läuft innerhalb deiner echten Browser-Sitzung und bewältigt viele Fingerprinting- und CAPTCHA-Hürden ganz natürlich, an denen API-basierte Tools scheitern. Der Cloud-Modus ergänzt das mit Proxy-Infrastruktur für größere Jobs.
, und nutzen alle unterschiedliche Methoden, testen verschiedene Seitentypen und messen mit unterschiedlichen Request-Raten. Deshalb siehst du für dasselbe Tool je nach Quelle unterschiedliche Erfolgsraten. Ich habe für jede Zahl in diesem Artikel die jeweilige Benchmark-Quelle angegeben, damit du selbst urteilen kannst.
Vom Scrape zur Erkenntnis: Rohdaten aus Amazon in handlungsrelevante Zusammenfassungen verwandeln
Etwas, das ich nach Jahren beim Aufbau von Datentools gelernt habe: Nutzer wollen nicht nur Rohdaten. Sie wollen wissen, was Kunden an einem Produkt lieben und was sie hassen. Sie wollen eine kategorisierte Auswertung von Bewertungen, nicht eine 10.000-Zeilen-Tabelle mit unstrukturiertem Text.
Nutzer in Foren beschreiben das ideale Tool als eines, das „die Bewertungen scrapt und dir eine zusammengefasste Aufschlüsselung von Positivem und Negativem gibt.“ Trotzdem deckt fast keine Amazon-Scraper-Übersicht den End-to-End-Workflow von der Extraktion bis zur Analyse ab.
Der Workflow, den ich empfehle:
- Scrapen: Alle Bewertungen für eine ASIN mit voller Paginierung extrahieren (nicht nur die ersten 10).
- Strukturieren: Als saubere Tabelle ausgeben mit Spalten wie Bewertungstext, Sternebewertung, Datum, verifizierter Kauf.
- Analysieren: KI nutzen, um Sentiment zu labeln, Themen zu extrahieren und die wichtigsten Vor- und Nachteile zusammenzufassen.
Thunderbit kann alle drei Schritte in einem einzigen Ablauf abbilden. Mit der Field AI Prompt-Funktion kannst du während des Scrapings direkt Anweisungen wie „diese Bewertung als positiv/negativ/neutral kategorisieren“ oder „die Hauptbeschwerde extrahieren“ hinzufügen. Die exportierte Tabelle enthält bereits beschriftete, strukturierte Erkenntnisse — nicht nur Rohtext. Für die Bewertungsanalyse ist das ein echter Unterschied zu API-Tools, die nur rohes JSON liefern, das du anschließend separat verarbeiten musst.
Wenn dein Tool keine eingebaute KI-Beschriftung hat, kannst du die strukturierte Ausgabe jedes beliebigen Scrapers immer noch mit ChatGPT oder Claude für eine Nachbearbeitungs-Zusammenfassung kombinieren. Entscheidend ist, zuerst saubere, paginierte, strukturierte Daten herauszubekommen — und dann die Analyse darauf aufzubauen.
Direkter Vergleich: Alle 10 besten Amazon-Scraper
Zur schnellen Orientierung hier der vollständige Vergleich inklusive Preis-Kontext auf verschiedenen Stufen:
| Tool | Typ | Erfolgsrate | Geschwindigkeit | Kosten pro 1K | Gratis-Tarif | Bewertungs-Paginierung | No-Code | Am besten für |
|---|---|---|---|---|---|---|---|---|
| Thunderbit | No-Code | N/V (kein Drittanbieter-Benchmark) | Browser-nativ | Credit-basiert; kostenlos + kostenpflichtig | Ja | ✅ Ja | Ja | Business-Teams, FBA-Seller, einmalige Recherchen |
| Bright Data | API / gemischt | 99,98 % (Produkt) | ~10+ s | ~2,5 $/1K Pay-as-you-go | Testphase | ✅ Stark | Ja (No-Code-Scraper) | Enterprise-Maßstab, tiefe Daten |
| Oxylabs | API | 92 % (Bewertungen) | ~4 s | ~0,50 $/1K ohne JS | Testphase | ⚠️ Teilweise | Nein | Premium-API, Produktvarianten |
| ScraperAPI | API | 100 % (Produkt) | ~11,8 s | Abonnement + Credits | Testphase | ✅ Ja (async) | Nein | Zuverlässige strukturierte Endpunkte |
| Decodo | API / gemischt | 100 % (Produkt); 11 % (Bewertungen) | ~4,1 s | Günstig | Ja | ❌ Schwach | Eingeschränkt | Budgetfreundliches Produkt-/Such-Scraping |
| ScrapingBee | API | Top-Vierer allgemein | ~3,2 s | 49 $/Monat für 250K Credits | Ja (1K Aufrufe) | ❌ Schwach | Eingeschränkt | Einsteiger, einfache API |
| Nimble | API / agentisch | 92 % (Bewertungen) | ~10–13 s | ~3 $/1K | Ja | ⚠️ Teilweise | Ja (Agents) | Lokalisierte Enterprise-Daten |
| Zyte | API | 93 % (allgemein); 75 % (Bewertungen) | ~2,6 s | Skalierungseffizient | 5 $ Guthaben | ⚠️ Teilweise | Nein | Kosteneffizienz im Enterprise-Bereich |
| ZenRows | API / Browser | Gemischte Signale | ~4 s | ~2 $/1K | Testphase | ⚠️ Teilweise bis stark | Nein | Breite Amazon-Endpunkt-Abdeckung |
| Apify | Actor-Plattform | ~99,1 % (Actor) | Langsam (Actor) | 5 $ gratis + Actor | Ja | ✅ Actor-abhängig | Ja | Individuelle Workflows, Flexibilität |
Welchen Amazon-Scraper solltest du wählen?
Mein Kurzspickzettel:
- Bester No-Code-Ansatz für Business-Teams: Thunderbit
- Bester insgesamt für Skalierung und Datentiefe: Bright Data
- Bester Premium-API-Ausgleich: Oxylabs
- Beste einfache strukturierte API: ScraperAPI
- Bester Budget-Tipp für Produkt/Suche: Decodo
- Beste einsteigerfreundliche API: ScrapingBee
- Beste lokalisierten Enterprise-Workflows: Nimble
- Beste Kosteneffizienz und Geschwindigkeit im Enterprise-Bereich: Zyte
- Beste Endpunkt-Breite unter Entwickler-APIs für Amazon: ZenRows
- Bester für individuelle Workflows und Actor-Flexibilität: Apify
Mein ehrlicher Rat: Passe das Tool an dein Können, dein Volumen und deinen Anwendungsfall an. Wenn du nicht codest und heute Amazon-Daten in einer Tabelle haben willst, starte mit . Wenn du eine Produktions-Pipeline baust, die nachts 100K ASINs aktualisiert, sind Bright Data oder Oxylabs dafür gemacht. Und wenn du maximale Flexibilität willst und dir die Konfiguration von Actors nichts ausmacht, bietet Apify den größten Spielraum zum Experimentieren.
Teste deine tatsächlichen Amazon-Seitentypen, bevor du Budget festlegst. Produktseiten, Suchergebnisse und Bewertungsseiten haben jeweils unterschiedliche Erfolgsprofile — und das Tool, das bei einem Typ glänzt, kann beim anderen schwächeln.
Viel Erfolg beim Scrapen — und möge deine Daten immer sauber, strukturiert und bereit für die nächste Entscheidung sein.
FAQs
1. Ist es legal, Amazon-Produktdaten zu scrapen?
Das Scraping öffentlich zugänglicher Amazon-Daten gilt rechtlich meist als eher risikoarm, aber Amazons eigene verbieten Data Mining, Bots und ähnliche Extraktionswerkzeuge. Der stärkste moderne Präzedenzfall ist , in dem das Gericht entschied, dass das ausgeloggte Scraping öffentlicher Daten zulässig war. Allerdings zeigt die ein höheres Risiko bei eingeloggtem oder agentischem Zugriff. Prüfe immer die aktuellen Amazon-Bedingungen und hol dir für deinen konkreten Anwendungsfall rechtlichen Rat.
2. Wie scrape ich alle Amazon-Bewertungen und nicht nur die erste Seite?
Die meisten Tools liefern standardmäßig nur die ersten 10 Bewertungen. Um komplette Bewertungssets zu erhalten, brauchst du ein Tool mit Paginierungsunterstützung — entweder über klickbasierte Seitennavigation (wie bei Thunderbits ), Async-API-Schleifen mit expliziten Seitennummern (wie bei ScraperAPI) oder eigene Actor-Logik (wie bei Apify). Amazon hat den Bewertungszugriff Ende 2024 verschärft, daher ist das heute eines der wichtigsten Unterscheidungsmerkmale zwischen Tools. Sieh dir die Benchmark-Tabelle zur Bewertungs-Paginierung oben für die Aufschlüsselung Tool für Tool an.
3. Kann ich Amazon ohne Programmieren scrapen?
Ja. Thunderbit ist eine Chrome-Erweiterung, mit der du Amazon-Produktseiten, Suchergebnisse und Bewertungen mit KI-gestützten Feldvorschlägen und scrapen kannst — ganz ohne Code. Auch Apify bietet einen No-Code-Marktplatz, ist aber für Business-User weniger schlüsselfertig. Wenn du Daten in einer Tabelle willst, ohne eine API-Konsole anzufassen, sind No-Code-Tools der richtige Weg.
4. Was kostet es, Amazon in großem Maßstab zu scrapen?
Die Spanne ist groß: von Gratis-Tarifen (Thunderbit, Apify, ScrapingBee, Zyte) bis weit über 3 $ pro 1K Requests im Enterprise-Maßstab. Bright Data verlangt im Pay-as-you-go-Modell etwa 2,5 $/1K; Oxylabs startet bei rund 0,50 $/1K für JS-freie Aufrufe; Decodo und ScrapingBee bieten günstige Einstiegsoptionen. Bewertungs-Scraping und JS-lastige Abläufe kosten mehr als einfache Produktseiten-Abfragen. In der obigen Preistabelle findest du die Details Tool für Tool.
5. Welche Ausgabeformate unterstützen Amazon-Scraper?
Gängige Formate sind JSON, CSV und Excel. Thunderbit exportiert außerdem direkt nach . Bright Data unterstützt die Auslieferung an S3, Snowflake, Azure und GCS. Apify bietet JSON, CSV, Excel, XML und HTML. Für Business-User ist die Möglichkeit, direkt in eine Tabelle oder ein Workflow-Tool zu exportieren — ohne einen Parser schreiben zu müssen — oft der entscheidende Faktor.