JavaScript Web-Scraper erstellen: Schritt-für-Schritt-Anleitung

Zuletzt aktualisiert am January 21, 2026

Das Internet ist ein echter Schatz an Daten. Egal, ob du im Business unterwegs bist, in der Technik arbeitest oder einfach nur neugierig bist – wahrscheinlich hast du dir schon mal gewünscht, große Mengen an Infos von einer Website zu sammeln, ohne stundenlanges Copy-Paste. Und das ist längst kein Randthema mehr: Bis 2025 werden fast die Hälfte des gesamten Internet-Traffics von Bots erzeugt, die das Web nach Daten durchforsten und scrapen. Über 70 % der digitalen Unternehmen nutzen öffentlich verfügbare Webdaten für Marktanalysen und Geschäftsprozesse (). Aber obwohl der Hunger nach Webdaten immer größer wird, ist das Extrahieren dieser Daten oft ganz schön mühsam – vor allem bei modernen, dynamischen Webseiten, die mit JavaScript gebaut sind.

Genau hier kommt JavaScript ins Spiel. Als Sprache des Webs ist JavaScript perfekt, um mit dynamischen, interaktiven Seiten klarzukommen, an denen klassische Scraper oft scheitern. Egal, ob du als Entwickler Recherche automatisieren willst, im Vertrieb Lead-Listen brauchst oder einfach gerne tüftelst: In dieser Anleitung zeige ich dir Schritt für Schritt, wie du einen javascript web-scraper baust – von den Basics bis zu fortgeschrittenen Methoden. Und falls du lieber ganz ohne Code arbeiten willst, erfährst du auch, wie du mit KI-Tools wie noch schneller ans Ziel kommst.

JavaScript Scraper Basics: Was steckt hinter web scraping mit javascript?

Fangen wir ganz von vorne an. Web Scraping heißt, dass du Infos automatisiert von Webseiten abgreifst. Stell dir vor, du hast einen superschnellen Assistenten, der hunderte Seiten besucht, die gewünschten Daten kopiert und alles ordentlich in eine Tabelle packt – und das ohne zu meckern.

Ein JavaScript Scraper ist einfach ein Web-Scraper, der mit JavaScript gebaut wurde. Du kannst JavaScript-Scraper auf zwei Arten nutzen:

  • Im Browser: Skripte direkt in der Browser-Konsole ausführen oder Browser-Add-ons nutzen, um Daten von der aktuellen Seite zu holen.
  • Serverseitig (Node.js): JavaScript außerhalb des Browsers (dank Node.js) verwenden, um Webseiten abzurufen, Inhalte zu parsen und Daten automatisiert zu extrahieren.

Warum ist das für Unternehmen spannend? Web Scraping macht alles möglich – von Lead-Generierung (Kontakte aus Verzeichnissen sammeln), über Preisbeobachtung (Konkurrenz im Blick behalten), bis hin zu Marktforschung (Bewertungen, News oder Trends erfassen). Tatsächlich sind 48 % der Web-Scraping-Nutzer im E-Commerce aktiv (). Was du im Browser siehst, kann ein JavaScript-Scraper meistens auch für dich extrahieren.

Warum web scraping mit javascript? Die Vorteile für moderne Webseiten

js-web-scraping-overview.png Warum also JavaScript fürs Scraping nutzen, wenn Python in der Datenwelt so beliebt ist? Der Punkt ist: Moderne Webseiten basieren auf JavaScript. Inhalte werden dynamisch nachgeladen, Daten erscheinen erst nach dem Laden der Seite oder nach Nutzeraktionen (z. B. „Mehr laden“ klicken oder scrollen). JavaScript-Scraper können:

  • Dynamische Inhalte abgreifen: Weil JavaScript im Browser läuft, sieht es auch Inhalte, die erst später erscheinen.
  • Nutzerverhalten nachahmen: Mit Tools wie Puppeteer kannst du Klicks, Scrolls oder sogar Logins automatisieren – fast wie ein echter User.
  • Direkt mit dem DOM arbeiten: JavaScript kann die Seitenstruktur direkt ansprechen und gezielt die gewünschten Daten rausziehen.

Wie schlägt sich JavaScript im Vergleich zu anderen Sprachen? Hier ein schneller Überblick:

FaktorJavaScript (Node.js)PythonPHP
Dynamische InhalteHervorragend – läuft nativ im Browser, ideal für JS-lastige SeitenBenötigt Zusatztools (Selenium/Playwright) für dynamische InhalteEingeschränkt
Geschwindigkeit/KonkurenzHoch – asynchrones Modell, viele Seiten parallel abrufbarGut, aber asyncio/Scrapy nötig für ParallelitätLangsamer, weniger verbreitet
BenutzerfreundlichkeitMittel – Webentwickler fühlen sich wohl, Async kann Einsteiger verwirrenEinsteigerfreundlich, viele TutorialsEinfach, aber wenig flexibel
Browser-AutomatisierungErstklassig (Puppeteer, Playwright)Gut (Selenium, Playwright)Selten
Am besten geeignet fürDynamische, interaktive oder SPA-Seiten; Webentwicklungs-WorkflowsDatenanalyse, statische Seiten, schnelle SkripteEinfache statische Seiten

Wenn du eine Single-Page-App oder Seiten mit Nachladefunktion scrapen willst, ist JavaScript oft die beste Wahl ().

Dein erster JavaScript Scraper: Tools und Umgebung einrichten

Bereit für die Praxis? So richtest du eine einfache JavaScript-Scraping-Umgebung ein – ganz ohne Frameworks.

  1. Node.js installieren
    Lade Node.js von runter und installiere es. Damit kannst du JavaScript außerhalb des Browsers ausführen.

  2. Projekt initialisieren
    Öffne dein Terminal und gib ein:

    1mkdir my-scraper
    2cd my-scraper
    3npm init -y
  3. Wichtige Bibliotheken installieren
    Du brauchst:

    • oder node-fetch für HTTP-Anfragen
    • zum Parsen von HTML (wie jQuery für den Server)
    1npm install axios cheerio
  4. Zielseite inspizieren
    Öffne die Chrome DevTools (Rechtsklick > Untersuchen) und schau dir die HTML-Elemente an, die deine Daten enthalten. Notiere dir Klassen, IDs oder Tags.

Hier ein einfaches Beispielskript:

1const axios = require('axios');
2const cheerio = require('cheerio');
3async function scrapePage(url) {
4  try {
5    const { data: html } = await axios.get(url);
6    const $ = cheerio.load(html);
7    const pageTitle = $('head > title').text();
8    console.log("Seitentitel:", pageTitle);
9  } catch (err) {
10    console.error("Scraping fehlgeschlagen:", err);
11  }
12}
13scrapePage('https://example.com');

Mit node scrape.js ausgeführt, siehst du den Seitentitel in der Konsole. Gar nicht schlecht für ein paar Zeilen Code!

Schritt-für-Schritt: Einen einfachen javascript web-scraper bauen

Bauen wir was Praktisches. Angenommen, du willst Buchtitel und Preise von extrahieren – eine beliebte Übungsseite.

Schritt 1: Seite untersuchen

Jedes Buch steckt in einem <article class="product_pod">. Der Titel steht in <h3><a title="Book Title"></a></h3>, der Preis in <p class="price_color">.

Schritt 2: Scraper schreiben

1const axios = require('axios');
2const cheerio = require('cheerio');
3async function scrapeBooks() {
4  const url = 'http://books.toscrape.com/';
5  const { data: html } = await axios.get(url);
6  const $ = cheerio.load(html);
7  const books = [];
8  $('article.product_pod').each((i, elem) => {
9    const title = $(elem).find('h3 a').attr('title');
10    const price = $(elem).find('.price_color').text();
11    books.push({ title, price });
12  });
13  console.log(books);
14}
15scrapeBooks();

Dieses Skript lädt die Seite, parst das HTML, geht alle Bücher durch und holt sich Titel und Preis. Das Ergebnis: Ein übersichtliches Array mit Buchobjekten:

1[
2  { "title": "A Light in the Attic", "price": "£51.77" },
3  { "title": "Tipping the Velvet", "price": "£53.74" }
4]

Schritt 3: Auf mehrere Seiten erweitern

Du willst mehrere Seiten scrapen? Such nach dem „Next“-Link und geh die Seiten in einer Schleife durch, indem du die URL jeweils anpasst. Mit etwas mehr Code kannst du so die ganze Seite abgrasen.

Weiterführend: Dynamische Inhalte und Nutzerinteraktionen mit JavaScript scrapen

Jetzt wird’s spannend: Dynamische Inhalte. Viele moderne Webseiten zeigen nicht alle Daten direkt im HTML an. Stattdessen werden Inhalte erst nachträglich per JavaScript geladen oder erscheinen erst nach Klicks oder Scrollen.

Cheerio und Axios sehen diese Inhalte nicht – sie bekommen nur das Roh-HTML. Um dynamische Seiten zu scrapen, brauchst du einen Headless Browser wie .

Mit Puppeteer fortgeschrittene javascript web-crawler Projekte umsetzen

Mit Puppeteer steuerst du Chrome (oder Chromium) per Code. Du kannst:

  • Seiten öffnen
  • Auf das Laden von Elementen warten
  • Buttons klicken, Formulare ausfüllen, scrollen
  • Inhalte extrahieren, nachdem alle Skripte ausgeführt wurden

Hier ein einfaches Puppeteer-Skript:

1const puppeteer = require('puppeteer');
2(async () => {
3  const browser = await puppeteer.launch();
4  const page = await browser.newPage();
5  await page.goto('https://example.com', { waitUntil: 'networkidle0' });
6  await page.waitForSelector('.dynamic-content');
7  const data = await page.evaluate(() => {
8    return Array.from(document.querySelectorAll('.dynamic-content'))
9      .map(el => el.textContent.trim());
10  });
11  console.log(data);
12  await browser.close();
13})();

Du kannst sogar Logins automatisieren, „Mehr laden“-Buttons klicken oder endlos scrollende Seiten abarbeiten, indem du die Seite programmatisch scrollst und auf neue Inhalte wartest ().

Thunderbit: JavaScript-Scraping einfach und effizient

Mal ehrlich: Eigene Scraper zu schreiben ist cool, kostet aber Zeit, Know-how und regelmäßige Wartung. Deshalb bin ich ein Fan von , unserer KI-basierten Chrome-Erweiterung, die Web Scraping auf wenige Klicks reduziert.

Thunderbit richtet sich an Business-Anwender – komplett ohne Programmierkenntnisse. So läuft’s ab:

  • KI-Feldvorschläge: Ein Klick, und Thunderbits KI analysiert die Seite und schlägt passende Spalten vor (z. B. „Produktname“, „Preis“, „E-Mail“ usw.).
  • 2-Klick-Scraping: Felder prüfen, auf „Scrapen“ klicken – Thunderbit sammelt alle Daten, inklusive Paginierung und Unterseiten.
  • Unterseiten & Paginierung: Du brauchst mehr Details? Thunderbit folgt Links zu Unterseiten (z. B. Produktdetails oder Profile) und fügt die Daten automatisch zusammen.
  • Cloud- oder Browser-Modus: Scrape direkt im Browser (ideal für eingeloggte Seiten) oder nutze Thunderbits Cloud für Geschwindigkeit (bis zu 50 Seiten gleichzeitig).
  • Kostenloser, strukturierter Export: Exportiere deine Daten nach Excel, Google Sheets, Airtable, Notion, CSV oder JSON – immer kostenlos, egal wie viel du scrapest.

Thunderbit im Einsatz: Von der Datenerfassung bis zum Export

Angenommen, du willst Kontaktdaten aus einem Firmenverzeichnis extrahieren:

  1. Thunderbit installieren ().
  2. Verzeichnis-Seite öffnen.
  3. „KI-Feldvorschläge“ klicken. Thunderbits KI schlägt Spalten wie „Name“, „Telefon“, „Firma“ vor.
  4. „Scrapen“ klicken. Thunderbit sammelt alle Daten, auch über mehrere Seiten hinweg.
  5. Export nach Sheets oder Excel. Fertig.

Was früher Stunden (oder einen Entwickler) gebraucht hat, dauert jetzt nur noch Minuten. Und weil Thunderbit KI nutzt, bleibt dein Scraper auch bei Layout-Änderungen stabil – keine kaputten Skripte mehr nach Website-Updates ().

So schneidet klassisches JavaScript-Scraping im Vergleich zu Thunderbit ab:

KriteriumManueller JS-ScraperFortgeschrittener JS (Puppeteer)Thunderbit KI-Web-Scraper
Erforderliche KenntnisseProgrammierenFortgeschrittene ProgrammierungKeine (Point & Click)
Dynamische InhalteEingeschränktHervorragendIntegriert
EinrichtungszeitStunden pro SeiteStunden bis TageSekunden bis Minuten
WartungsaufwandHochHochGering (KI passt sich an)
ExportmöglichkeitenEigener CodeEigener Code1-Klick zu Excel/Sheets/etc.
KostenKostenlos (zeitaufwändig)Kostenlos (Hardware, Zeit)Gratis-Tarif, danach ab 15 $/Monat

Fortgeschrittene Techniken: Komplexes web scraping mit javascript-Bibliotheken

advanced-js-scraping-overview.png Manchmal musst du noch einen Schritt weiter gehen – zum Beispiel Daten hinter Logins scrapen, endlos scrollende Seiten abarbeiten oder Anti-Scraping-Maßnahmen austricksen.

  • Logins/Sessions: Mit Puppeteer kannst du Logins automatisieren, Formulare ausfüllen und als eingeloggter Nutzer Daten scrapen.
  • Endloses Scrollen: Die Seite programmatisch scrollen, auf neue Inhalte warten und wiederholen, bis alles geladen ist ().
  • Anti-Scraping-Schutz: Proxies nutzen, User-Agents rotieren und Anfragen drosseln, um nicht geblockt zu werden. Über 95 % der Scraping-Fehlschläge gehen auf Anti-Bot-Maßnahmen zurück ().

Tipp: Manchmal kannst du den Browser komplett umgehen, indem du versteckte API-Endpunkte der Seite findest (im DevTools-Netzwerk-Tab nachschauen). Wenn du direkt JSON-Daten abgreifen kannst, läuft dein Scraper deutlich schneller.

javascript web-crawler optimieren und pflegen

Einen Scraper zu bauen ist nur die halbe Miete – ihn am Laufen zu halten, ist die andere Hälfte.

  • Asynchrone Verarbeitung: Nutze async/await und rufe Seiten parallel ab (aber überlaste den Server nicht).
  • Batch-Verarbeitung: Daten in Blöcken verarbeiten, um Speicherprobleme zu vermeiden.
  • Fehlerbehandlung: Fehler abfangen, fehlgeschlagene Anfragen wiederholen und Probleme für die Fehlersuche protokollieren.
  • Paginierung: „Next“-Links oder Buttons erkennen und Seiten durchlaufen.
  • Robuste Selektoren: Eindeutige IDs oder Klassen nutzen; vermeide fragile Selektoren, die bei Layout-Änderungen brechen.
  • Monitoring: Benachrichtigungen einrichten, falls dein Scraper plötzlich leere Daten oder Fehler liefert.

Best Practice: Scraping ist nie „einmal einrichten, für immer vergessen“. Plane regelmäßige Updates und Überwachung ein ().

JavaScript-Scraping-Lösungen im Vergleich: Klassisch vs. Thunderbit

Hier ein schneller Vergleich für Business-Anwender:

AnsatzTime to ValueErforderliche KenntnisseDynamische InhalteWartungExportoptionenSkalierbarkeit
Manueller JS (Cheerio)LangsamProgrammierenNeinHochSelbst programmierenGut für statische Seiten
Fortgeschrittener JS (Puppeteer)MittelFortgeschrittene KenntnisseJaHochSelbst programmierenLangsamer pro Seite
ThunderbitSchnellKeineJa (KI-gestützt)Gering1-Klick zu Sheets/CSVCloud oder Browser

Für die meisten Unternehmen ist Thunderbit der schnellste Weg von „Ich brauche diese Daten“ zu „Hier ist meine Tabelle“.

Fazit & wichtigste Erkenntnisse

Einen javascript web-scraper zu bauen, ist heute ein echter Vorteil. Mein Tipp:

  • Einfach starten: Für statische Seiten reichen Cheerio und Axios.
  • Bei Bedarf aufrüsten: Für dynamische, interaktive oder Login-Seiten Puppeteer nutzen.
  • Mit KI Zeit sparen: Für die meisten Business-Anwendungen kannst du mit ganz ohne Code in Minuten Ergebnisse erzielen.
  • Wartung einplanen: Webseiten ändern sich – deine Scraper sollten flexibel bleiben.
  • Immer fair scrapen: Beachte die Nutzungsbedingungen, überlaste keine Server und geh verantwortungsvoll mit Daten um.

Wenn du Scraping ohne Kopfschmerzen ausprobieren willst, und erlebe, wie einfach es sein kann. Für mehr Tipps und Praxisbeispiele schau im vorbei.

Viel Erfolg beim Scrapen – und mögen deine Selektoren immer eindeutig sein!

KI-Web-Scraper ausprobieren

FAQs

1. Was ist ein JavaScript Web-Scraper?
Ein JavaScript Web-Scraper ist ein Programm (oder Skript), das mit JavaScript geschrieben wurde und automatisch Daten von Webseiten extrahiert. Es kann im Browser oder auf dem Server (mit Node.js) laufen und eignet sich besonders für dynamische, JavaScript-lastige Seiten.

2. Warum JavaScript statt Python fürs Web Scraping?
JavaScript ist die Sprache des Webs und daher ideal für Seiten, die Inhalte dynamisch laden oder Nutzerinteraktionen erfordern. Python ist super für statische Seiten und Datenanalyse, braucht aber Zusatztools für dynamische Inhalte.

3. Welche Tools brauche ich für einen JavaScript-Scraper?
Für statische Seiten: Node.js, Axios (oder fetch) und Cheerio. Für dynamische Seiten: zusätzlich Puppeteer oder Playwright für Headless-Browser-Automatisierung. Für No-Code-Scraping: ausprobieren.

4. Wie vereinfacht Thunderbit das Web Scraping?
Thunderbit nutzt KI, um Datenfelder auf jeder Website automatisch zu erkennen und zu extrahieren. Einfach „KI-Feldvorschläge“ klicken, dann „Scrapen“ und die Daten exportieren – ganz ohne Programmieren oder Selektoren basteln.

5. Ist Web Scraping legal und ethisch?
Web Scraping ist legal, wenn es verantwortungsvoll gemacht wird – nur öffentlich zugängliche Daten scrapen, Nutzungsbedingungen beachten und Server nicht überlasten. Keine persönlichen Daten ohne Zustimmung sammeln und Daten immer verantwortungsvoll nutzen.

Du willst JavaScript-Scraping in Aktion sehen? Schau auf dem Thunderbit vorbei oder stöbere im .

Mehr erfahren

Shuai Guan
Shuai Guan
Co-founder/CEO @ Thunderbit. Passionate about cross section of AI and Automation. He's a big advocate of automation and loves making it more accessible to everyone. Beyond tech, he channels his creativity through a passion for photography, capturing stories one picture at a time.
Topics
JavaScript Web-ScraperWeb Scraping mit JavaScriptJavaScript Web-Crawler
Inhaltsverzeichnis

Teste Thunderbit

Leads und weitere Daten mit nur 2 Klicks extrahieren. KI-gestützt.

Thunderbit holen Kostenlos
Daten mit KI extrahieren
Übertrage Daten einfach nach Google Sheets, Airtable oder Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week