15 лучших проектов для веб-скрейпинга на GitHub в 2025 году

Последнее обновление: February 13, 2026

В интернете реально море ценных данных — но большинство сайтов изначально не сделаны так, чтобы ты мог просто взять и «скачать всё». В 2025 году веб-скрейпинг из нишевой технарской фишки превратился в must-have для команд, которые мониторят цены, вакансии, недвижимость и конкурентов. Проблема в другом: GitHub буквально забит скрейпинг‑проектами. Одни сделаны по‑взрослому, другие — чистая боль, а третьи не трогали годами. Как выбрать то, что зайдёт именно тебе — особенно если ты не разработчик?

В этом гайде я разберу 15 лучших проектов для веб-скрейпинга на GitHub в 2025 году. Но это будет не просто «топчик списком»: я сравню их по сложности старта, соответствию задачам, поддержке динамических страниц, «здоровью» репозитория, вариантам экспорта данных и тому, для кого они вообще предназначены. А если тебе уже надоело воевать с кодом, покажу, почему no-code и AI‑инструменты вроде меняют правила игры для бизнес‑пользователей и людей без технического бэкграунда.

Как мы отобрали топ-15 проектов для веб-скрейпинга на GitHub

Давай честно: проекты на GitHub бывают очень разного «качества жизни». Одни обкатаны тысячами пользователей, другие — weekend‑эксперимент, который так и не стал продуктом. Для этого списка я отбирал решения, которые проходят по таким критериям:

  • Звёзды GitHub и комьюнити: заметная популярность (от нескольких тысяч до 90k+ звёзд) и живые контрибьюторы.
  • Свежая активность: инструменты, которые реально обновляются в 2025 году, а не превратились в «цифровые окаменелости».
  • Документация и удобство: понятные шаги, примеры кода и адекватный порог входа.
  • Практическое применение: используется в реальных бизнес‑ или исследовательских задачах, а не только в демо «hello world».

И поскольку веб-скрейпинг — не волшебная таблетка на все случаи, каждый проект я сравню по:

  • Сложности установки и запуска: можно стартануть за пару минут или придётся страдать с драйверами и зависимостями?
  • Соответствию задачам: e-commerce, новости, исследования или что-то ещё?
  • Поддержке динамических страниц: потянет ли современные сайты на JavaScript?
  • Состоянию проекта: активно живёт или последний коммит уже «достаточно взрослый, чтобы голосовать»?
  • Экспорту данных: отдаёт бизнес‑готовые таблицы или только сырой HTML?
  • Целевой аудитории: для новичков в Python, дата‑инженеров или команд без технарей?

Для каждого проекта я добавлю быстрые теги по этим критериям, чтобы ты сразу нашёл то, что подходит именно тебе — будь ты «код‑ниндзя» или просто хочешь выгрузить данные в Google Sheets.

github 0.png

Сложность установки и настройки: как быстро вы начнёте скрейпить?

Если по‑честному, главный барьер для большинства — банально запустить скрейпер и не утонуть в настройках. Я делю сложность так:

  • Plug & Play (без конфигурации): поставил — и поехали. Минимум шагов, супер для новичков.
  • Средний уровень (командная строка, минимум кода): нужно чуть‑чуть кода или работы в CLI, но это ок, если ты уже писал скрипты.
  • Продвинутый уровень (драйверы, антибот, глубокий код): придётся настраивать окружение, драйверы браузера и иметь уверенные навыки Python/JS.

Вот как раскладываются топ‑проекты:

  • Plug & Play: MechanicalSoup (Python), Nokogiri (Ruby), Maxun (для конечных пользователей после развёртывания)
  • Средний уровень: Scrapy, Crawlee, Node Crawler, Selenium, Playwright, Colly, Puppeteer, Katana, Scrapling, WebMagic
  • Продвинутый уровень: Heritrix, Apache Nutch (оба требуют Java, конфигов или тяжёлых стеков)

Если ты не разработчик, «Plug & Play» или no-code — твои лучшие друзья. Для остальных «средний уровень» означает: код писать придётся, но без хоррора — если только у тебя не аллергия на фигурные скобки.

Группировка по задачам: выберите скрейпер под вашу сферу

Не все скрейперы сделаны под одну и ту же работу. Вот как я группирую топ-15 по самым подходящим сценариям:

E-commerce и мониторинг цен

  • Scrapy: масштабный сбор товаров на множестве страниц
  • Crawlee: универсал — и для статических, и для динамических магазинов
  • Maxun: no-code, отлично для быстрого вытягивания списков товаров

Вакансии и рекрутинг

  • Scrapy: хорошо тянет пагинацию и структурированные списки
  • MechanicalSoup: подходит для сайтов с логином

Новости и агрегирование контента

  • Scrapy: рассчитан на краулинг новостных сайтов в масштабе
  • Node Crawler: быстрый вариант для статических новостных страниц

Недвижимость

  • Thunderbit: AI‑скрейпинг подстраниц для объявлений + карточек объектов
  • Maxun: визуальный выбор полей для данных по объектам

Академические исследования и веб-архивирование

  • Heritrix: архивирование целых сайтов (WARC‑файлы)
  • Apache Nutch: распределённый краулинг для исследовательских датасетов

Соцсети и динамический контент

  • Playwright, Puppeteer, Selenium: сбор динамических лент, имитация логина
  • Scrapling: «тихий» скрейпинг для сайтов с антибот‑защитой

Безопасность и разведка

  • Katana: быстрый поиск URL, краулинг для задач безопасности

Универсальные решения

  • Colly: высокопроизводительный скрейпинг на Go для любых сайтов
  • WebMagic: Java‑фреймворк, гибкий для разных доменов
  • Nokogiri: парсинг в Ruby для кастомных скриптов

github 1.png

Поддержка динамических страниц: умеют ли эти проекты скрейпить современные сайты?

Современные сайты обожают JavaScript. React, Vue, бесконечная прокрутка, AJAX — если ты хоть раз пытался скрейпить страницу и получал большое жирное «ничего», ты понимаешь эту боль.

Вот как каждый проект работает с динамическим контентом:

  • Полная поддержка JS (headless‑браузер):
    • Selenium: рулит реальными браузерами, выполняет весь JS
    • Playwright: мультибраузерность, несколько языков, мощная поддержка JS
    • Puppeteer: headless Chrome/Firefox, полноценный рендеринг JS
    • Crawlee: переключается между HTTP и браузером (через Puppeteer/Playwright)
    • Katana: опциональный headless‑режим для разбора JS
    • Scrapling: интегрирует Playwright для «стелс»-скрейпинга с JS
    • Maxun: использует браузер «под капотом» для динамики
  • Без встроенной поддержки JS (только статический HTML):
    • Scrapy: для JS нужен плагин Selenium/Playwright
    • MechanicalSoup, Node Crawler, Colly, WebMagic, Nokogiri, Heritrix, Apache Nutch: по умолчанию получают только HTML и не умеют JS «из коробки»

Здесь особенно выделяется AI в Thunderbit: он сам находит и вытаскивает динамический контент — без ручной настройки, без плагинов и без мучений с селекторами. Достаточно нажать «AI Suggest Fields», и инструмент сделает тяжёлую работу даже на сайтах, перегруженных React. Подробнее — в .

Надёжность и «здоровье» проекта: будет ли этот скрейпер работать и в следующем году?

Нет ничего хуже, чем выстроить процесс вокруг инструмента и внезапно понять, что его забросили. Вот как дела у топ‑проектов:

  • Активно поддерживаются (частые обновления):
    • Scrapy:
    • Crawlee:
    • Playwright:
    • Puppeteer:
    • Katana:
    • Colly:
    • Maxun:
    • Scrapling:
  • Стабильные, но обновляются медленнее:
    • MechanicalSoup:
    • Node Crawler:
    • WebMagic:
    • Nokogiri:
  • Режим поддержки (узкая специализация, медленно):
    • Heritrix:
    • Apache Nutch:

Thunderbit — это управляемый сервис, поэтому тебе не нужно переживать из‑за заброшенного кода. Команда держит AI, шаблоны и интеграции в актуальном состоянии — плюс есть онбординг, обучалки и поддержка, если что-то не взлетело.

Работа с данными и экспорт: от сырого HTML к данным, готовым для бизнеса

Собрать данные — это только половина истории. Важно получить их в формате, который удобен команде: CSV, Excel, Google Sheets, Airtable, Notion или даже через API.

  • Встроенный структурированный экспорт:
    • Scrapy: экспортеры CSV, JSON, XML
    • Crawlee: гибкие datasets и хранилища
    • Maxun: CSV, Excel, Google Sheets, JSON API
    • Thunderbit:
  • Ручная обработка данных (на стороне пользователя):
    • MechanicalSoup, Node Crawler, Selenium, Playwright, Puppeteer, Colly, WebMagic, Nokogiri, Scrapling: сохранение/экспорт нужно допиливать кодом
  • Специализированный экспорт:
    • Heritrix: WARC (файлы веб‑архива)
    • Apache Nutch: сырой контент в хранилище/индекс

Структурированный экспорт и интеграции Thunderbit — это огромная экономия времени для бизнес‑пользователей. Никаких танцев с CSV и «склеивающим» кодом — нажал кнопку, и данные готовы.

Кому подходит каждый проект для веб-скрейпинга на GitHub?

Давай без иллюзий: один инструмент не подходит всем. Вот кому я бы рекомендовал каждый вариант:

  • Новичкам в Python: MechanicalSoup, Scrapling (если хочется поэкспериментировать)
  • Дата-инженерам: Scrapy, Crawlee, Colly, WebMagic, Node Crawler
  • Специалистам по QA и автоматизации: Selenium, Playwright, Puppeteer
  • Исследователям в области безопасности: Katana
  • Ruby-разработчикам: Nokogiri
  • Java-разработчикам: WebMagic, Heritrix, Apache Nutch
  • Пользователям без технических навыков / бизнес-командам: Maxun, Thunderbit
  • Гроус-хакерам и аналитикам: Maxun, Thunderbit

Если ты не уверен в коде или просто хочешь быстро получить результат, Thunderbit и Maxun — самые приземлённые и практичные варианты. Остальным логичнее выбирать инструмент под язык и задачу.

Топ-15 проектов для веб-скрейпинга на GitHub: подробное сравнение

Переходим к каждому проекту — по группам задач, с быстрыми тегами и ключевыми фишками.

E-commerce, мониторинг цен и общий краулинг

— 57.1k stars, обновление в июне 2025

github 2.png

  • Кратко: высокоуровневый асинхронный Python‑фреймворк для масштабного краулинга и скрейпинга.
  • Запуск: средний уровень (Python‑код, async‑подход)
  • Сценарии: e-commerce, новости, исследования, «пауки» на много страниц
  • Поддержка JS: нет (нужен плагин Selenium/Playwright)
  • Состояние проекта: активно поддерживается
  • Экспорт данных: CSV, JSON, XML — встроено
  • Кому подходит: разработчикам, дата‑инженерам
  • Сильные стороны: масштабируемость, надёжность, куча плагинов. Для новичков порог входа ощутимый.

— 17.9k stars, 2025

github 3.png

  • Кратко: мощная библиотека Node.js для скрейпинга статических и динамических сайтов.
  • Запуск: средний уровень (код на Node/TS)
  • Сценарии: e-commerce, соцсети, автоматизация
  • Поддержка JS: да (интеграция Puppeteer/Playwright)
  • Состояние проекта: очень активный
  • Экспорт данных: гибко (datasets, storages)
  • Кому подходит: командам разработки на JS/TS
  • Сильные стороны: инструменты против блокировок, удобное переключение HTTP/браузерного режима.

— 13k stars, июнь 2025

github 4.png

  • Кратко: open-source no-code платформа для извлечения данных с визуальным интерфейсом.
  • Запуск: средний уровень (развёртывание сервера), простой (для конечных пользователей)
  • Сценарии: универсально, e-commerce, бизнес‑скрейпинг
  • Поддержка JS: да (браузер внутри)
  • Состояние проекта: активный и растущий
  • Экспорт данных: CSV, Excel, Google Sheets, JSON API
  • Кому подходит: пользователям без технавыков, аналитикам, командам
  • Сильные стороны: «укажи и нажми», многоуровневая навигация, можно хостить у себя.

Вакансии, рекрутинг и простые взаимодействия

— 4.8k stars, 2024

github 5.png

  • Кратко: Python‑библиотека для автоматизации отправки форм и простой навигации.
  • Запуск: Plug & Play (Python, минимум кода)
  • Сценарии: сайты вакансий с логином, статические сайты
  • Поддержка JS: нет
  • Состояние проекта: зрелый, поддерживается «по минимуму»
  • Экспорт данных: нет встроенного (вручную)
  • Кому подходит: новичкам в Python, быстрым скриптам
  • Сильные стороны: имитирует сессию браузера в несколько строк. Для динамических сайтов не годится.

Агрегация новостей и статический контент

— 6.8k stars, 2024

github 6.png

  • Кратко: быстрый параллельный серверный краулер с парсингом через Cheerio.
  • Запуск: средний уровень (callbacks/async в Node)
  • Сценарии: новости, высокоскоростной скрейпинг статических страниц
  • Поддержка JS: нет (только HTML)
  • Состояние проекта: умеренная активность (v2 beta)
  • Экспорт данных: нет встроенного (на стороне пользователя)
  • Кому подходит: Node.js‑разработчикам, задачам с высокой параллельностью
  • Сильные стороны: асинхронный краулинг, лимиты скорости, API в стиле jQuery.

Недвижимость, листинги и сбор данных с подстраниц

github 7.png

  • Кратко: AI‑инструмент для no-code веб-скрейпинга, заточенный под бизнес‑задачи.
  • Запуск: Plug & Play (расширение Chrome, настройка в 2 клика)
  • Сценарии: недвижимость, e-commerce, продажи, маркетинг — по сути любой сайт
  • Поддержка JS: да (AI автоматически распознаёт динамический контент)
  • Состояние проекта: постоянно обновляется, управляемый сервис
  • Экспорт данных: в один клик в Sheets, Airtable, Notion, CSV, JSON
  • Кому подходит: пользователям без технавыков, бизнес‑командам, продажам и маркетингу
  • Сильные стороны: AI «Suggest Fields», сбор с подстраниц, мгновенный экспорт, онбординг, шаблоны, .

Академические исследования и веб-архивирование

— 3k stars, 2023

github 8.png

  • Кратко: архивный краулер Internet Archive масштаба «веб целиком».
  • Запуск: продвинутый уровень (Java‑приложение, конфиги)
  • Сценарии: веб‑архивирование, обход доменов целиком
  • Поддержка JS: нет (только получение)
  • Состояние проекта: поддерживается (медленно, но стабильно)
  • Экспорт данных: WARC (файлы веб‑архива)
  • Кому подходит: архивам, библиотекам, учреждениям
  • Сильные стороны: масштабируемость, надёжность, соответствие стандартам. Не для точечного скрейпинга.

— 3k stars, 2024

github 9.png

  • Кратко: open-source краулер для big data и поисковых систем.
  • Запуск: продвинутый уровень (Java + Hadoop для масштаба)
  • Сценарии: краулинг для поисковиков, большие данные
  • Поддержка JS: нет (только HTTP)
  • Состояние проекта: активный (Apache)
  • Экспорт данных: сырой контент в хранилище/индекс
  • Кому подходит: enterprise, big data, академические исследования
  • Сильные стороны: плагинная архитектура, распределённый краулинг.

Соцсети, динамический контент и автоматизация

— ~30k stars, 2025

github 10.png

  • Кратко: автоматизация браузера для скрейпинга и тестирования, поддерживает все основные браузеры.
  • Запуск: средний уровень (драйверы, разные языки)
  • Сценарии: JS‑насыщенные сайты, тестовые сценарии, соцсети
  • Поддержка JS: да (полная автоматизация браузера)
  • Состояние проекта: активный, зрелый
  • Экспорт данных: нет (вручную)
  • Кому подходит: QA‑инженерам, разработчикам
  • Сильные стороны: несколько языков, имитация поведения реального пользователя.

— 73.5k stars, 2025

github 11.png

  • Кратко: современная автоматизация браузера для скрейпинга и E2E‑тестов.
  • Запуск: средний уровень (скрипты на разных языках)
  • Сценарии: современные веб‑приложения, соцсети, автоматизация
  • Поддержка JS: да (headless или реальный браузер)
  • Состояние проекта: очень активный
  • Экспорт данных: нет (на стороне пользователя)
  • Кому подходит: разработчикам, которым нужен надёжный контроль браузера
  • Сильные стороны: кросс‑браузерность, auto-wait, перехват сети.

— 90.9k stars, 2025

github 12.png

  • Кратко: высокоуровневый API для автоматизации Chrome/Firefox.
  • Запуск: средний уровень (скрипты на Node)
  • Сценарии: headless‑скрейпинг Chrome, динамический контент
  • Поддержка JS: да (Chrome/Firefox)
  • Состояние проекта: активный (команда Chrome)
  • Экспорт данных: нет (кастомно в коде)
  • Кому подходит: Node.js‑разработчикам, фронтенд‑специалистам
  • Сильные стороны: богатый контроль браузера, скриншоты, PDF, перехват сети.

— 5.4k stars, июнь 2025

github 13.png

  • Кратко: «стелс»-скрейпинг с высокой производительностью и антибот‑функциями.
  • Запуск: средний уровень (Python‑код)
  • Сценарии: обход антибота, динамические сайты, скрытный сбор
  • Поддержка JS: да (интеграция Playwright)
  • Состояние проекта: активный, на острие
  • Экспорт данных: нет встроенного (вручную)
  • Кому подходит: Python‑разработчикам, «хакерам», дата‑инженерам
  • Сильные стороны: stealth, прокси, антиблок, async.

Разведка безопасности

— 13.8k stars, 2025

github 14.png

  • Кратко: быстрый веб‑краулер для задач безопасности, автоматизации и поиска ссылок.
  • Запуск: средний уровень (CLI‑инструмент или Go‑библиотека)
  • Сценарии: security crawling, поиск эндпоинтов
  • Поддержка JS: да (опциональный headless‑режим)
  • Состояние проекта: активный (ProjectDiscovery)
  • Экспорт данных: текстовый вывод (списки URL)
  • Кому подходит: исследователям безопасности, Go‑разработчикам
  • Сильные стороны: скорость, параллельность, headless‑разбор JS.

Универсальный / многоцелевой скрейпинг

— 24.3k stars, 2025

github 15.png

  • Кратко: быстрый и аккуратный фреймворк для скрейпинга на Go.
  • Запуск: средний уровень (код на Go)
  • Сценарии: высокопроизводительный универсальный скрейпинг
  • Поддержка JS: нет (только HTML)
  • Состояние проекта: активный, свежие коммиты
  • Экспорт данных: нет встроенного (на стороне пользователя)
  • Кому подходит: Go‑разработчикам, тем, кому важна производительность
  • Сильные стороны: async, лимиты скорости, распределённый скрейпинг.

— 11.6k stars, 2023

github 16.png

  • Кратко: гибкий Java‑фреймворк для краулинга в стиле Scrapy.
  • Запуск: средний уровень (Java, простой API)
  • Сценарии: общий веб-скрейпинг на Java
  • Поддержка JS: нет (можно расширить через Selenium)
  • Состояние проекта: активное сообщество
  • Экспорт данных: подключаемые pipelines
  • Кому подходит: Java‑разработчикам
  • Сильные стороны: пул потоков, планировщики, антиблок.

— 6.2k stars, 2025

github 17.png

  • Кратко: быстрый нативный HTML/XML‑парсер для Ruby.
  • Запуск: Plug & Play (Ruby gem)
  • Сценарии: парсинг HTML/XML в Ruby‑приложениях
  • Поддержка JS: нет (только парсинг)
  • Состояние проекта: активный, успевает за Ruby
  • Экспорт данных: нет (форматируешь через Ruby)
  • Кому подходит: Ruby‑разработчикам, Rails‑командам
  • Сильные стороны: скорость, соответствие стандартам, безопасность по умолчанию.

Быстрый обзор: таблица сравнения функций

Ниже — таблица для быстрого просмотра (и Thunderbit для сравнения):

ПроектСложность запускаСценарииПоддержка JSПоддержка/обновленияЭкспорт данныхАудиторияЗвёзды GitHub
ScrapyСредняяE-commerce, новостиНетАктивныйCSV, JSON, XMLРазработчики, дата-инженеры57.1k
CrawleeСредняяУниверсально, автоматизацияДаОчень активныйГибкие datasetsКоманды JS/TS17.9k
MechanicalSoupPlug & PlayСтатика, формыНетЗрелыйНет (вручную)Новички Python4.8k
Node CrawlerСредняяНовости, статикаНетУмереннаяНет (вручную)Node.js-разработчики6.8k
SeleniumСредняяJS-сайты, тестированиеДаАктивныйНет (вручную)QA, разработчики~30k
HeritrixПродвинутаяАрхивирование, исследованияНетПоддерживаетсяWARCАрхивы, учреждения3k
Apache NutchПродвинутаяBig data, поискНетАктивныйСырой контентEnterprise, исследования3k
WebMagicСредняяJava, универсальноНетАктивное сообществоПодключаемые pipelinesJava-разработчики11.6k
NokogiriPlug & PlayПарсинг RubyНетАктивныйНет (вручную)Ruby-разработчики6.2k
PlaywrightСредняяДинамика, автоматизацияДаОчень активныйНет (вручную)Разработчики, QA73.5k
KatanaСредняяБезопасность, discoveryДаАктивныйТекстовый выводSecurity, Go-разработчики13.8k
CollyСредняяВысокая производительность, универсальноНетАктивныйНет (вручную)Go-разработчики24.3k
PuppeteerСредняяДинамика, автоматизацияДаАктивныйНет (вручную)Node.js-разработчики90.9k
MaxunЛегко (для пользователя)No-code, бизнесДаАктивныйCSV, Excel, Sheets, APIНетехн., аналитики13k
ScraplingСредняяStealth, антиботДаАктивныйНет (вручную)Python-разработчики, «хакеры»5.4k
ThunderbitPlug & PlayNo-code, бизнесДаУправляемый, обновляетсяSheets, Airtable, NotionНетехн., бизнес-пользователиN/A

Почему Thunderbit — лучший выбор для бизнес-пользователей и людей без технических навыков

Большинство open-source проектов на GitHub делаются разработчиками и для разработчиков. А значит, установка, поддержка и разбор ошибок — это часть «сделки». Если ты маркетолог, sales ops, бизнес‑пользователь или просто хочешь результат, а не головную боль с регулярками, Thunderbit сделан именно под тебя.

Почему Thunderbit реально выделяется:

  • No-code простота с AI: ставишь , жмёшь «AI Suggest Fields» — и можно собирать данные. Без Python, без селекторов и без драмы «pip install».
  • Поддержка динамических страниц: AI Thunderbit читает и вытаскивает данные с современных JS‑сайтов (React, Vue, AJAX) без ручной настройки.
  • Сбор данных с подстраниц: нужно вытащить детали по каждому товару или объявлению? AI Thunderbit сам проходит по подстраницам и склеивает всё в одну таблицу — без кастомного кода.
  • Экспорт, готовый для бизнеса: выгрузка в Google Sheets, Airtable, Notion, CSV или JSON в один клик. Идеально для лидов, мониторинга цен и агрегирования контента.
  • Постоянные обновления и поддержка: Thunderbit — управляемый сервис, без риска «заброшенного софта». Есть онбординг, туториалы и растущая библиотека шаблонов для популярных сайтов.
  • Кому подходит: пользователям без технавыков, бизнес‑командам и всем, кто ценит скорость и надёжность больше, чем «поковыряться в коде».

И это не просто маркетинг: Thunderbit используют более 30 000 пользователей по всему миру, включая команды Accenture, Grammarly и Puma. Да, и мы были #1 Product of the Week на Product Hunt.

Хочешь увидеть, насколько простым может быть скрейпинг? .

Итоги: как выбрать правильное решение для веб-скрейпинга в 2025 году

Суть такая: на GitHub можно найти кучу мощных инструментов для скрейпинга, но большинство из них заточены под разработчиков. Если тебе нравится кодить, фреймворки вроде Scrapy, Crawlee, Playwright и Colly дадут максимум контроля. Если ты в академической среде или в безопасности, твой выбор — Heritrix, Nutch и Katana.

Но если ты бизнес‑пользователь, аналитик или просто хочешь данные — быстро, структурированно и в удобном виде — выбирай Thunderbit. Без настройки, без обслуживания, без кода. Только результат.

Что дальше? Можно взять GitHub‑проект под свой уровень и задачу. А если хочешь пропустить кривую обучения и увидеть результат за считанные минуты — и начни собирать данные уже сегодня.

А если хочется глубже нырнуть в тему, загляни в другие материалы на , например: или .

Удачного скрейпинга — и пусть твои данные всегда будут структурированными, чистыми и готовыми к работе. А если вдруг застрянешь, помни: скорее всего, под это уже есть репозиторий на GitHub… или можно просто доверить задачу AI от Thunderbit.

Попробовать Thunderbit AI Web Scraper бесплатно
Shuai Guan
Shuai Guan
Co-founder/CEO @ Thunderbit. Passionate about cross section of AI and Automation. He's a big advocate of automation and loves making it more accessible to everyone. Beyond tech, he channels his creativity through a passion for photography, capturing stories one picture at a time.
Topics
GithubGithub ScraperWeb Scraping Github
Содержание

Попробуйте Thunderbit

Собирайте лиды и другие данные всего за 2 клика. На базе ИИ.

Получить Thunderbit Бесплатно
Извлекайте данные с помощью ИИ
Легко переносите данные в Google Sheets, Airtable или Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week