n8n ile Web Scraping’i Ustalık Seviyesine Taşıyın: Otomasyon İş Akışları

Son güncelleme: April 15, 2026

Birkaç ay önce, kullanıcılarımızdan biri bize 14 düğümlü bir n8n iş akışının ekran görüntüsünü gönderdi. Ekranda yarım düzine yapışkan not vardı ve konu satırında yalnızca şu yazıyordu: “Help.” Popüler bir n8n web scraping eğitimini izlemişler, test sitesinde 10 satırlık şık bir demo kurmuşlardı. Sonra da 200 ürün sayfası üzerinden rakip fiyatlarını gerçek verilerle çekmeye çalıştılar. Sonuç mu? Bozulan bir sayfalama döngüsü, 403 hata duvarı ve ilk salıdan sonra çalışmayı bırakmış sessiz bir zamanlayıcı.

Demo ile gerçek üretim hattı arasındaki bu boşluk, çoğu n8n scraping projesinin takıldığı yer. Yıllardır geliştiriyorum ve otomasyon alanında çalışıyorum; sana net bir şey söyleyebilirim: zor olan çoğu zaman scraping değil. Asıl sorun, ilk başarılı veri çekiminden sonraki her şey. Sayfalama, zamanlama, bot korumaları, veri temizleme, dışa aktarma ve en büyüğü: site bu çeyrekte üçüncü kez tasarımını değiştirdiğinde ortaya çıkan bakım yükü. Bu rehber, ilk HTTP Request düğümünden başlayıp düzenli çalışan, üretime hazır bir n8n web scraping iş akışına kadar tüm süreci kapsıyor. n8n’in kendi kendine kurulan yaklaşımı bir yerde tıkanınca, AI destekli Thunderbit gibi araçların seni saatlerce, hatta günlerce süren uğraştan nasıl kurtarabileceğini de göstereceğim.

n8n Web Scraping Nedir? (ve Neden Çoğu Eğitim Sadece Yüzeyi Kazıyor)

n8n, açık kaynak kodlu ve düşük kodlu bir iş akışı otomasyon platformudur. Bunu, belirli görevleri yapan “düğümleri” görsel bir kanvas üzerinde birbirine bağladığınız bir sistem gibi düşün: bir web sayfasını çekmek, HTML ayrıştırmak, Slack mesajı göndermek, Google Sheets’e yazmak gibi işleri tek tek düğümler üstlenir ve sen bunları otomatik akışlar halinde zincirlersin. Ağır kod yazman gerekmez; ihtiyaç duyduğunda JavaScript ekleyebilirsin.

“n8n web scraping”, n8n’in yerleşik HTTP Request ve HTML düğümlerini (ve topluluk düğümlerini) kullanarak web sitesi verisini bu otomasyon akışlarının içinde çekmek, ayrıştırmak ve işlemek anlamına gelir. Temel mantık iki adımdan oluşur: Çekme (HTTP Request düğümü bir URL’den ham HTML alır) ve Ayrıştırma (HTML düğümü, istediğin veri noktalarını CSS seçicilerle çıkarır: ürün adı, fiyat, e-posta vb.).

Platformun ölçeği oldukça büyük: Nisan 2026 itibarıyla n8n’in , 230 binden fazla aktif kullanıcısı, 9.166’dan fazla topluluk iş akışı şablonu var ve yaklaşık her hafta yeni bir küçük sürüm yayınlanıyor. Mart 2025’te yatırımı aldı. Kısacası ciddi bir ivme söz konusu.

Ama kimsenin açıkça konuşmadığı bir boşluk var. dev.to’daki en popüler n8n scraping eğitimi (Lakshay Nasa tarafından, “Extract by Zyte” organizasyonu altında yayımlandı) sayfalamayı “Part 2”de çözmeyi vaat ediyordu. O ikinci bölüm geldi — ve yazarın kendi değerlendirmesi şuydu: “N8N, HTTP Request düğümünün Options bölümünde varsayılan bir Pagination Mode sunuyor ve kulağa pratik gelse de, tipik web scraping kullanım senaryolarında benim deneyimime göre güvenilir çalışmadı.” Yazar sonunda sayfalamayı ücretli bir üçüncü taraf API’ye yönlendirdi. Aynı sırada n8n forum kullanıcıları da sayfalama, hız sınırlama ve giriş yapma konularını n8n scraping’in “kolayca karmaşıklaştığı” nokta olarak işaret etmeye devam ediyor. Bu rehber tam da bu boşluğu doldurmak için hazırlandı.

n8n Web Scraping Neden Satış, Operasyon ve E-ticaret Ekipleri İçin Önemli?

n8n web scraping bir geliştirici hobisi değil. Bu, doğrudan iş için kullanılan bir araç. 2025’te yaklaşık 1–1,3 milyar dolar seviyesinde ve 2030’a kadar 2–2,3 milyar dolara ulaşması bekleniyor. Yalnızca dinamik fiyatlama, e-ticaret işletmelerinin yaklaşık tarafından kullanılıyor ve artık çoğu web’den kazınmış olan alternatif verilere güveniyor. McKinsey’ye göre dinamik fiyatlama, kullanan şirketlerde sağlıyor.

n8n’in gerçek gücü burada ortaya çıkıyor: mesele sadece veriyi almak değil. Asıl önemli olan, sonrasında ne olduğu. n8n, scraping işlemini CRM güncellemeleri, Slack uyarıları, tablo dışa aktarımları, AI analizi gibi aşağı akış işlemleriyle tek bir iş akışında birleştirmeni sağlar.

Kullanım SenaryosuKimler İçin FaydalıNe Kazınırİş Sonucu
Lead oluşturmaSatış ekipleriİş rehberleri, iletişim sayfalarıCRM’i nitelikli lead’lerle doldurma
Rakip fiyat takibiE-ticaret operasyonlarıÜrün listeleme sayfalarıFiyatları gerçek zamanlı ayarlama
Emlak ilanı takibiEmlak danışmanlarıZillow, Realtor, yerel MLS siteleriRakiplerden önce yeni ilanları yakalama
Pazar araştırmasıPazarlama ekipleriİnceleme siteleri, forumlar, haberlerTrendleri ve müşteri duyarlılığını belirleme
Tedarikçi/SKU stok takibiTedarik zinciri operasyonlarıTedarikçi ürün sayfalarıStok tükenmesini önleme, alımı optimize etme

Veriler yatırım getirisinin gerçek olduğunu gösteriyor: 2025’te AI yatırımlarını artırmayı planlıyor ve otomatik lead beslemenin dokuz ay içinde görülmüş. Ekibin hâlâ web sitelerinden veriyi kopyalayıp tabloya yapıştırıyorsa, ciddi fırsat kaçırıyorsun.

n8n Web Scraping Araç Seti: Temel Düğümler ve Mevcut Çözümler

Bir şey inşa etmeden önce elinde ne olduğunu bilmen gerekir. Web scraping için gerekli temel n8n düğümleri şunlardır:

  • HTTP Request node: Herhangi bir URL’den ham HTML çeker. Bir tarayıcının sayfa isteği göndermesine benzer, ancak sayfayı render etmek yerine kodu döndürür. GET/POST, başlıklar, toplu işleme ve teorik olarak yerleşik sayfalama destekler.
  • HTML node (eski adıyla “HTML Extract”): HTML’i CSS seçicilerle ayrıştırır ve başlık, fiyat, bağlantı, görsel gibi istediğin verileri çıkarır.
  • Code node: Veri temizleme, URL normalleştirme, tekilleştirme ve özel mantık için JavaScript parçaları yazmana izin verir.
  • Edit Fields (Set) node: Veriyi yeniden yapılandırır veya alan adlarını değiştirir.
  • Split Out node: Dizileri tek tek işlenecek öğelere böler.
  • Convert to File node: Yapılandırılmış veriyi CSV, JSON vb. biçimlere aktarır.
  • Loop Over Items node: Listeler üzerinde döngü kurar (sayfalama için kritik — birazdan detaylandıracağım).
  • Schedule Trigger: İş akışını bir cron zamanlamasıyla çalıştırır.
  • Error Trigger: Bir iş akışı başarısız olduğunda seni uyarır (üretim ortamı için zorunlu).

JavaScript render eden veya güçlü bot koruması olan gelişmiş siteler için topluluk düğümlerine ihtiyaç duyarsın:

YaklaşımEn Uygun Olduğu DurumGerekli Beceri DüzeyiJS ile Render Edilen Siteleri Destekler mi?Bot Koruması
n8n HTTP Request + HTML düğümleriStatik siteler, API’lerBaşlangıç–OrtaHayırManuel (başlıklar, proxy’ler)
n8n + ScrapeNinja/Firecrawl topluluk düğmesiDinamik/korumalı sitelerOrtaEvetYerleşik (proxy döndürme, CAPTCHA)
n8n + Headless Browser (Puppeteer)Karmaşık JS etkileşimleriİleriEvetKısmi (kuruluma bağlı)
Thunderbit (AI Web Scraper)Her site, teknik olmayan kullanıcılarBaşlangıçEvet (Browser veya Cloud modu)Yerleşik (tarayıcı oturumunu veya bulut işleyişini kullanır)

n8n v2.15.1 itibarıyla yerleşik bir headless browser düğümü yok. JS render eden her kazıma işlemi ya topluluk düğümü ya da harici bir API gerektirir.

Thunderbit hakkında kısa bir not: Bu, ekibimizin geliştirdiği AI destekli bir . “AI Suggest Fields”e tıklarsın, ardından “Scrape” dersin ve yapılandırılmış veriyi alırsın — CSS seçici yok, düğüm kurulumu yok, bakım yükü yok. Bu rehber boyunca nerede iyi bir seçenek olduğunu, nerede ise n8n’in daha doğru tercih olduğunu göstereceğim.

Adım Adım: İlk n8n Web Scraping İş Akışını Kurun

Araç setini gördüğümüze göre, sıfırdan çalışan bir n8n web scraper nasıl kurulur ona bakalım. Örnek olarak bir ürün listeleme sayfası kullanacağım — fiyat takibi ya da rakip analizi için gerçekten kazıyacağın türden bir sayfa.

Başlamadan Önce:

  • Zorluk: Başlangıç–Orta
  • Gerekli Süre: Yaklaşık 20–30 dakika
  • Gerekenler: n8n (self-hosted veya Cloud), hedef URL, Chrome tarayıcısı (CSS seçici bulmak için)

1. Adım: Yeni Bir İş Akışı Oluşturun ve Manuel Tetikleyici Ekleyin

n8n’i aç, “New Workflow”a tıkla ve açıklayıcı bir ad ver — örneğin “Competitor Price Scraper.” Bir Manual Trigger düğümü sürükleyip ekle. (Daha sonra bunu zamanlanmış tetikleyiciye çevireceğiz.)

Kanvasında tek bir düğüm görmelisin; “Test Workflow”a tıkladığında çalışmaya hazır olur.

2. Adım: HTTP Request Düğümü ile Sayfayı Çekin

Bir HTTP Request düğümü ekle ve Manual Trigger’a bağla. Metodu GET olarak ayarla ve hedef URL’nı gir (ör. https://example.com/products).

Şimdi çoğu eğitimin atladığı kritik adım geliyor: gerçekçi bir User-Agent başlığı ekle. Varsayılan olarak n8n, kullanıcı aracısı olarak axios/xx gönderir — bu da bot olduğunu hemen belli eder. “Headers” bölümüne şunu ekle:

Başlık AdıDeğer
User-AgentMozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/124.0.0.0 Safari/537.36
Accepttext/html,application/xhtml+xml,application/xml;q=0.9,/;q=0.8

Birden fazla URL kazıyorsan, Batching özelliğini (Options altında) aç ve istekler arasında 1–3 saniyelik bekleme süresi belirle. Bu, hız limitlerini tetikleme riskini azaltır.

Düğümü çalıştır. Çıktı panelinde ham HTML görmelisin.

3. Adım: HTML Düğümü ile Veriyi Ayrıştırın

HTTP Request çıktısına bir HTML düğümü bağla. İşlem türünü Extract HTML Content olarak ayarla.

Doğru CSS seçicileri bulmak için hedef sayfayı Chrome’da aç, istediğin veriye sağ tıkla (ör. ürün başlığı) ve “Inspect” seçeneğini kullan. Elements panelinde vurgulanan HTML öğesine sağ tıkla ve “Copy → Copy selector” seçeneğini seç.

Çıkarma alanlarını şu şekilde yapılandır:

AnahtarCSS SeçiciDönüş Değeri
product_name.product-titleMetin
price.price-currentMetin
url.product-linkÖznitelik: href

Düğümü çalıştır. Çıktıda ürün adları, fiyatlar ve URL’lerden oluşan yapılandırılmış bir tablo görmelisin.

4. Adım: Code Düğümü ile Temizleyin ve Standartlaştırın

Ham kazınmış veri genelde dağınıktır. Fiyatların etrafında boşluklar olabilir, URL’ler göreli olabilir ve metin alanlarında son satır sonları bulunabilir. Bir Code düğümü ekle ve HTML düğümüne bağla.

İşte işleri temizlemek için basit bir JavaScript örneği:

1return items.map(item => {
2  const d = item.json;
3  return {
4    json: {
5      product_name: (d.product_name || '').trim(),
6      price: parseFloat((d.price || '').replace(/[^0-9.]/g, '')),
7      url: d.url && d.url.startsWith('http') ? d.url : `https://example.com${d.url}`
8    }
9  };
10});

Bu adım, üretim kalitesinde veri için çok önemlidir. Atlarsan, tablonun içinde “$ 29.99\n” gibi girdiler doluşur.

5. Adım: Google Sheets, Airtable veya CSV’ye Dışa Aktarın

Bir Google Sheets düğümü (veya Airtable ya da CSV için Convert to File) bağla. Google hesabınla yetkilendir, elektronik tablonu ve sayfanı seç, ardından Code düğümü çıktısındaki alanları sütun başlıklarına eşle.

Tüm iş akışını çalıştır. Temiz ve yapılandırılmış verilerin tablonuza aktığını görmelisin.

Küçük not: özelliğiyle Google Sheets, Airtable, Notion ve Excel’e hiçbir düğüm kurulumu olmadan aktarım yapar. Tam bir iş akışı zincirine ihtiyacın yoksa ve sadece veriyi almak istiyorsan bu oldukça pratik bir kestirme yoldur.

Her n8n Web Scraping Eğitiminin Atladığı Kısım: Eksiksiz Sayfalama İş Akışları

Sayfalama, n8n scraping içeriklerindeki en büyük boşluklardan biri — ve n8n topluluk forumlarında en çok can sıkan konu.

İki ana sayfalama modeli vardır:

  1. Tıklama tabanlı / URL artırmalı sayfalama?page=1, ?page=2 gibi sayfalar.
  2. Sonsuz kaydırma — içerik, aşağı indikçe yüklenir (Twitter, Instagram veya pek çok modern ürün kataloğu gibi).

n8n’de Tıklama Tabanlı Sayfalama (Loop Düğümleri ile URL Artırma)

HTTP Request düğümünün Options menüsündeki yerleşik Pagination seçeneği kulağa rahat geliyor. Pratikte ise güvenilir değil. En popüler n8n scraping eğitimi yazarı (Lakshay Nasa) bunu denedi ve şöyle yazdı: “it didn't behave reliably in my experience.” Forum kullanıcıları bunun , ve son sayfayı algılayamadığını bildiriyor.

n8n-pagination-chain-workflow.webp

Güvenilir yaklaşım: URL listesini bir Code düğümünde açıkça oluştur, ardından Loop Over Items ile yinele.

Nasıl yapılır:

  1. URL’lerini üreten bir Code düğümü ekle:
1const base = 'https://example.com/products';
2const totalPages = 10; // veya dinamik olarak tespit edin
3return Array.from({length: totalPages}, (_, i) => ({
4  json: { url: `${base}?page=${i + 1}` }
5}));
  1. Listeyi dolaşmak için Loop Over Items düğümünü bağla.
  2. Döngünün içinde HTTP Request düğümünü ekle (URL alanını {{ $json.url }} yap), ardından HTML düğümü ile ayrıştır.
  3. 429 hız limiti riskini azaltmak için döngünün içine bir Wait düğümü (1–3 saniye, rastgele) ekle.
  4. Döngü bittikten sonra sonuçları birleştir ve Google Sheets ya da CSV’ye aktar.

Tam zincir şu şekildedir: Code (URL oluştur) → Loop Over Items → HTTP Request → HTML → Wait → (döngüye geri dön) → Birleştir → Dışa Aktar.

Dikkat edilmesi gereken bir nokta: Loop Over Items düğümünde, iç içe döngülerin öğeleri sessizce atladığı var. Hem sayfalama yapıp hem de alt sayfaları zenginleştiriyorsan dikkatli test et — “done” sayısı giriş sayınla aynı olmayabilir.

Sonsuz Kaydırmalı Sayfalama: n8n’in Yerleşik Düğümleri Neden Zorlanır?

Sonsuz kaydırmalı sayfalar, aşağı kaydırdıkça JavaScript ile içerik yükler. HTTP Request düğümü yalnızca ilk HTML’i çeker — JavaScript çalıştıramaz, kaydırma olaylarını tetikleyemez. İki seçeneğin vardır:

  • Headless browser topluluk düğümü kullan (ör. veya ) ve sayfayı render edip kaydırmayı taklit et.
  • ScrapeNinja, Firecrawl, ZenRows gibi, JS render desteği olan bir scraping API kullan.

Her iki yöntem de ciddi karmaşıklık ekler. Site başına 30–60+ dakikalık kurulum ve devam eden bakım yüküyle uğraşırsın.

Thunderbit Sayfalamayı Nasıl Sıfır Kurulumla Yapar?

Tarafsız olduğumu iddia edemem ama fark oldukça net:

Yetenekn8n (Kendin Yap İş Akışı)Thunderbit
Tıklama tabanlı sayfalamaManuel loop düğümü kurulumu, URL artırmaOtomatik — sayfalamayı algılar ve takip eder
Sonsuz kaydırmalı sayfalarHeadless browser + topluluk düğümü gerekirYerleşik destek, kurulum gerekmez
Kurulum çabasıSite başına 30–60 dakika2 tıklama
Parti başına sayfa sayısıSıralı (tek tek)Aynı anda 50 sayfa (Cloud Scraping)

10 farklı listede toplam 200 ürün sayfası kazıyorsan, n8n sana bütün bir öğleden sonrayı yedirir. Thunderbit ise yaklaşık iki dakika sürer. Bu, n8n’e eleştiri değil; sadece farklı iş için farklı araç.

Kur ve Unut: Cron Tetiklemeli n8n Web Scraping Hatları

Tek seferlik scraping yararlıdır, ancak n8n web scraping’in asıl gücü düzenli ve otomatik veri toplamada yatar. Şaşırtıcı biçimde, neredeyse hiçbir n8n scraping eğitimi scraping için Schedule Trigger kullanımını anlatmaz — oysa bu, toplulukta en çok istenen özelliklerden biridir.

Günlük Fiyat Takip Hattı Kurma

Manual Trigger yerine bir Schedule Trigger düğümü koy. n8n arayüzünü kullanabilir (“Every day at 8:00 AM”) ya da bir cron ifadesi (0 8 * * *) girebilirsin.

Tam iş akışı zinciri:

  1. Schedule Trigger (her gün sabah 8)
  2. Code düğümü (sayfalı URL’leri üret)
  3. Loop Over Items → HTTP Request → HTML → Wait (tüm sayfaları kazı)
  4. Code düğümü (veriyi temizle, fiyatları standartlaştır)
  5. Google Sheets (yeni satırları ekle)
  6. IF düğümü (herhangi bir fiyat eşik altına düştü mü?)
  7. Slack (evet ise uyarı gönder)

Bunun yanına bir de Error Trigger iş akışı kur; herhangi bir hata olduğunda çalışsın ve Slack’e bildirim atsın. Aksi takdirde seçiciler bozulduğunda (bozulacaklar), üç hafta sonra rapor boş çıkınca fark edersin.

İki önemli ama kolay gözden kaçan gereksinim:

  • n8n 7/24 çalışıyor olmalı. Dizüstü bilgisayarda self-host kurulum kullanıyorsan kapak kapandığında zamanlayıcı çalışmaz. Sunucu, Docker veya n8n Cloud kullan.
  • Her iş akışı düzenlemesinden sonra iş akışını kapatıp yeniden aç. n8n Cloud’da, düzenleme sonrası zamanlayıcıların sessizce kayıttan düşmesiyle ilgili var; hiçbir hata bildirimi de vermiyor.

Haftalık Lead Çıkarma Hattı Kurma

Aynı model, farklı hedef: Schedule Trigger (her pazartesi sabah 9) → HTTP Request (iş rehberi) → HTML (ad, telefon, e-posta çıkar) → Code (tekilleştir, biçimlendir) → Airtable veya HubSpot gönderimi.

n8n-vs-thunderbit-scheduled-scraping.webp

Buradaki asıl maliyet çoğu zaman bakım yükü. Rehber sitesinin düzeni değişirse CSS seçicilerin bozulur ve iş akışı sessizce başarısız olur. HasData, seçici tabanlı herhangi bir boru hattında ilk kurulum süresinin yıllık bakım için kadar bir payı bütçelenmesi gerektiğini belirtiyor. Yaklaşık 20 siteyi yönetmeye başladığında bu yük gerçekten hissedilir.

Thunderbit’in Planlı Scraper’ı: Kodsuz Alternatif

Thunderbit’in Scheduled Scraper özelliği, aralığı düz dille tanımlamana izin verir (ör. “her pazartesi sabah 9”), URL’lerini girersin ve “Schedule” dersin. Bulutta çalışır — hosting yok, cron ifadesi yok, sessiz kayıt düşmesi yok.

Boyutn8n Zamanlanmış İş AkışıThunderbit Scheduled Scraper
Zamanlama kurulumuCron ifadesi veya n8n zamanlama arayüzüDüz dille anlatın
Veri temizlemeManuel Code düğümü gerekirAI otomatik temizler/etiketler/çevirir
Dışa aktarma hedefleriEntegrasyon düğümleri gerekirGoogle Sheets, Airtable, Notion, Excel (ücretsiz)
Hosting gereksinimiSelf-hosted veya n8n CloudYok — bulutta çalışır
Site değişikliklerinde bakımSeçiciler bozulur, manuel düzeltme gerekirAI siteyi her seferinde yeniden okur

En önemli satır son satır. Forum kullanıcıları bunu açıkça söylüyor: “siteler düzenini değiştirene kadar hepsi iyi.” Thunderbit’in AI tabanlı yaklaşımı bu sorunu ortadan kaldırır çünkü sabit CSS seçicilere bağlı değildir.

n8n Web Scraper’ınız Engellendiğinde: Bot Koruması İçin Sorun Giderme Rehberi

Engellenmek, sayfalama sorunundan sonraki en büyük sıkıntıdır. Klasik öneri — “User-Agent başlığı ekle” — fırtınaya karşı sineklik kapı kilitlemek kadar etkisiz kalabilir.

Imperva 2025 Bad Bot Report’a göre oluşturuyor ve bunun kötü niyetli. Bot koruma sağlayıcıları (Cloudflare, Akamai, DataDome, HUMAN, PerimeterX) TLS parmak izi, JavaScript zorlukları ve davranış analizi ile karşılık verdi. n8n HTTP Request düğümü ise arka planda Axios kütüphanesini kullanır ve tarayıcı olmayan, kolay tanınan bir TLS parmak izi üretir. User-Agent başlığını değiştirmek hiçbir şeyi çözmez — herhangi bir HTTP başlığı okunmadan seni ele verir.

Bot Koruması Karar Ağacı

İşte sistematik bir sorun giderme çerçevesi — sadece “User-Agent ekle” değil:

İstek engellendi mi?

  • 403 Forbidden → User-Agent + Accept başlıklarını ekle (yukarıdaki 2. Adıma bakın) → Hâlâ engelleniyor mu?
    • Evet → Konut tipi proxy rotasyonu ekle → Hâlâ engelleniyor mu?
      • Evet → Bir scraping API’ye geçin (ScrapeNinja, Firecrawl, ZenRows) veya headless browser topluluk düğümü kullanın
      • Hayır → Devam et
    • Hayır → Devam et
  • CAPTCHA görünüyor → Yerleşik CAPTCHA çözme desteği olan bir scraping API kullanın (ör. )
  • Boş yanıt (JS ile render edilen içerik) → Headless browser topluluk düğümü veya JS render destekli scraping API kullanın
  • Hız limiti uygulanıyor (429 hata) → HTTP Request düğümünde batching’i açın, batch’ler arasında 2–5 saniye bekleme ekleyin, eşzamanlılığı azaltın

Bir başka tuzak: n8n’de var; bu durumda HTTP Request düğümü HTTPS trafiğini HTTP proxy üzerinden düzgün tünelleyemiyor. Aynı konteyner içinde curl sorunsuz çalışsa bile Axios, TLS handshake aşamasında hata veriyor. Proxy kullanıyorsan ve anlamsız bağlantı hataları alıyorsan, muhtemel sebep budur.

Thunderbit Çoğu Bot Koruması Sorununu Nasıl Aşar?

Thunderbit iki scraping modu sunar:

  • Browser Scraping: Kendi gerçek Chrome tarayıcının içinde çalışır; oturum çerezlerini, giriş durumunu ve tarayıcı parmak izini devralır. Böylece sunucu taraflı istekleri engelleyen çoğu bot önlemi etkisiz kalır — çünkü istek gerçekten bir tarayıcıdan gelir.
  • Cloud Scraping: Herkese açık siteler için Thunderbit’in bulut altyapısı bot korumasını ölçekli şekilde yönetir — .

Cloudflare ile mücadele etmeye veriyi analiz etmekten daha çok zaman harcıyorsan, pratik alternatif budur.

Dürüst Değerlendirme: n8n Web Scraping Ne Zaman İşe Yarar, Ne Zaman Başka Bir Şey Kullanmalısınız?

n8n harika bir platform. Ama her scraping işi için doğru araç değil ve rakip makaleler bunun üzerine pek dürüst davranmıyor. Kullanıcılar forumlarda doğrudan şunu soruyor: “n8n ile bir web scraper oluşturmak ne kadar zor?” ve “n8n ile en iyi hangi scraping aracı çalışır?”

n8n Web Scraping’in Parladığı Alanlar

  • Scraping’i aşağı akış işlemleriyle birleştiren çok adımlı iş akışları — CRM güncellemeleri, Slack uyarıları, AI analizi, veritabanı yazımları. n8n’in ana gücü budur.
  • Scraping’in daha büyük bir otomasyon zincirindeki adımlardan biri olduğu durumlar — kazı → zenginleştir → filtrele → CRM’e gönder.
  • CSS seçiciler ve düğüm tabanlı mantık konusunda rahat teknik kullanıcılar.
  • Scraping ile depolama arasında özel veri dönüşümü gereken senaryolar.

n8n Web Scraping’in Zorlaştığı Noktalar

  • Teknik olmayan kullanıcılar sadece hızlı veri istiyorsa. Düğüm kurulumu, CSS seçici bulma ve hata ayıklama döngüsü iş kullanıcıları için oldukça dik bir öğrenme eğrisi oluşturur.
  • Güçlü bot koruması olan siteler. Proxy ve API eklemeleri maliyet ve karmaşıklık getirir.
  • Site düzeni değiştiğinde bakım. CSS seçiciler bozulur, iş akışları sessizce başarısız olur.
  • Birçok farklı site türünde toplu scraping. Her site için ayrı seçici kurulumu gerekir.
  • Alt sayfa zenginleştirme. n8n içinde ayrı alt iş akışları oluşturmayı gerektirir.

Yan Yana Karşılaştırma: n8n, Thunderbit ve Python Script’leri

Kritern8n DIY ScrapingThunderbitPython Script
Gerekli teknik beceriOrta (düğümler + CSS seçiciler)Yok (AI alan önerir)Yüksek (kodlama)
Yeni bir site için kurulum süresi30–90 dkYaklaşık 2 dk1–4 saat
Bot koruması yönetimiManuel (başlıklar, proxy’ler, API’ler)Yerleşik (browser/cloud modları)Manuel (kütüphaneler)
Site değişince bakımManuel seçici güncellemeSıfır — AI otomatik uyum sağlarManuel kod güncellemesi
Çok adımlı iş akışı desteğiMükemmel (ana güçlü yönü)Google Sheets/Airtable/Notion’a dışa aktarımÖzel kod gerekir
Ölçekte maliyetn8n hosting + proxy/API maliyetleriKredi bazlı (satır başına yaklaşık 1 kredi)Sunucu + proxy maliyetleri
Alt sayfa zenginleştirmeManuel — ayrı alt iş akışı kurulurTek tıkla alt sayfa scrapingÖzel script yazımı

Çıkarım şu: Scraping, daha büyük ve çok adımlı bir otomasyon zincirinin parçasıysa n8n kullanın. Hızlı veri gerekiyorsa ve iş akışı kurmak istemiyorsan Thunderbit kullan. Maksimum kontrol ve geliştirici kaynağın varsa Python tercih et. Bunlar rakip değil; birbirini tamamlayan araçlar.

n8n-thunderbit-python-comparison.webp

Gerçek Dünyada Kullanabileceğiniz n8n Web Scraping İş Akışları

Forum kullanıcıları sürekli şunu soruyor: “Bunları çok adımlı iş akışlarına bağlayan oldu mu?” İşte bugün kurabileceğin üç somut iş akışı — gerçek düğüm dizileriyle.

İş Akışı 1: E-ticaret Rakip Fiyat Takibi

Amaç: Rakip fiyatlarını günlük izlemek ve düştüklerinde uyarı almak.

Düğüm zinciri: Schedule Trigger (günlük, sabah 8) → Code (sayfalı URL’leri üret) → Loop Over Items → HTTP Request → HTML (ürün adı, fiyat, stok durumu çıkar) → Wait (2 sn) → (döngüye geri dön) → Code (veriyi temizle, fiyatları standartlaştır) → Google Sheets (satır ekle) → IF (fiyat eşik altı mı?) → Slack (uyarı gönder)

Karmaşıklık: 8–10 düğüm, rakip site başına 30–60 dakika kurulum.

Thunderbit kestirmesi: Thunderbit’in Scheduled Scraper’ı + popüler e-ticaret siteleri için ile benzer sonuçlar dakikalar içinde alınabilir; Google Sheets’e ücretsiz dışa aktarım da vardır.

İş Akışı 2: Satış Lead Oluşturma Hattı

Amaç: Bir iş rehberini haftalık kazıyıp lead’leri temizlemek, kategorize etmek ve CRM’e göndermek.

Düğüm zinciri: Schedule Trigger (haftalık, pazartesi 9) → HTTP Request (rehber liste sayfası) → HTML (ad, telefon, e-posta, adres çıkar) → Code (tekilleştir, biçimlendir) → OpenAI/Gemini node (sektöre göre kategorize et) → HubSpot node (contact oluştur)

Not: n8n’in yerleşik bir vardır — CRM aktarımı için kullanışlıdır. Ancak scraping ve temizleme aşamaları yine manuel CSS seçici çalışması gerektirir.

Thunderbit kestirmesi: Thunderbit’in ücretsiz ve Telefon Numarası Çıkarıcı araçları, iş akışı kurmadan tek tıkla iletişim bilgilerini alabilir. AI etiketleme ile lead’ler çekim sırasında kategorize edilebilir. Tam otomasyon zincirine ihtiyacı olmayan kullanıcılar, n8n kurulumunu tamamen atlayabilir.

İş Akışı 3: Yeni Emlak İlanı Takibi

Amaç: Zillow veya Realtor.com’daki yeni ilanları haftalık yakalayıp özet e-posta göndermek.

Düğüm zinciri: Schedule Trigger (haftalık) → HTTP Request (ilan sayfaları) → HTML (adres, fiyat, yatak odası, bağlantı çıkar) → Code (veriyi temizle) → Google Sheets (ekle) → Code (geçen haftanın verisiyle karşılaştır, yeni ilanları işaretle) → IF (yeni ilan bulundu mu?) → Gmail/SendGrid (özet gönder)

Not: Thunderbit’in vardır — CSS seçici gerekmez. Tam otomasyon zincirine (kazı → karşılaştır → uyar) ihtiyaç duyanlar n8n’den, sadece ilan verisini isteyenler Thunderbit’ten fayda görür.

Daha fazla iş akışı fikri için n8n topluluk kütüphanesinde , ve şablonları bulunuyor.

n8n Web Scraping Hatlarını Sorunsuz Çalıştırma İpuçları

Üretim scraping işinin yüzde 20’si kurulum, yüzde 80’i bakımdır.

Hız Limitlerinden Kaçınmak İçin Batching ve Gecikme Kullanın

HTTP Request düğümünde batching’i açın ve batch’ler arasında 1–3 saniyelik bekleme ayarlayın. Eşzamanlı istekler IP ban yemeye giden en hızlı yoldur. Burada biraz sabır, ileride çok daha az acı demektir.

Sessiz Hataları Yakalamak İçin İş Akışı Çalışmalarını İzleyin

Başarısız çalışmaları kontrol etmek için n8n’in Executions sekmesini kullanın. Bir site düzeni değiştiğinde kazınan veri sessizce boş dönebilir — iş akışı “başarılı” görünür ama tablon bomboş kalır.

Başarısız herhangi bir çalışmada tetiklenen ve Slack ya da e-posta uyarısı gönderen bir Error Trigger iş akışı kur. Üretim hatları için bu pazarlık konusu değildir.

CSS Seçicilerini Dışarıda Sakla, Kolay Güncelle

CSS seçicileri bir Google Sheet’te veya n8n ortam değişkenlerinde tut; böylece iş akışını düzenlemeden güncelleyebilirsin. Site düzeni değiştiğinde yalnızca tek bir yerdeki seçiciyi düzeltmen yeterli olur.

Ne Zaman AI Destekli Scraper’a Geçmen Gerektiğini Bilin

CSS seçicileri sürekli güncelliyor, bot korumalarıyla boğuşuyor veya scraper’ı sürdürmeye veriyi kullanmaktan daha çok zaman harcıyorsan, siteyi her seferinde yeniden okuyan ve otomatik uyum sağlayan gibi AI destekli bir aracı düşün. gayet iyi çalışır: Thunderbit kırılgan çıkarım katmanını yönetir (site bir <div> güncellediğinde bozulan kısım), Google Sheets veya Airtable’a dışa aktarır; n8n ise Sheets/Airtable yerleşik tetikleyicisiyle yeni satırları alıp orkestrasyonu yürütür — CRM güncellemeleri, uyarılar, koşullu mantık, çoklu sistemlere dağıtım.

Sonuç: Ekibine Uyan Boru Hattını Kur

n8n web scraping, scraping’i daha büyük bir otomasyon akışının bir adımı olarak kullanman gerektiğinde son derece güçlüdür. Ancak teknik kurulum, sürekli bakım ve sayfalama, bot koruması ve zamanlama yapılandırmalarına sabır ister. Bu rehberde tüm hattı ele aldık: ilk iş akışın, her eğitimin atladığı sayfalama kısmı, zamanlama, bot koruma sorun giderme, n8n’in nerede iyi uyduğuna dair dürüst değerlendirme ve kopyalayabileceğin gerçek dünya iş akışları.

Ben şöyle düşünüyorum:

  • Scraping, karmaşık ve çok adımlı bir otomasyon zincirinin parçasıysa n8n kullan — CRM güncellemeleri, Slack uyarıları, AI zenginleştirme, koşullu yönlendirme.
  • İş akışı kurmadan hızlı veri istiyorsan kullan — AI, alan önerisini, sayfalamayı, bot korumasını ve dışa aktarmayı iki tıkta halleder.
  • Maksimum kontrol ve geliştirme kaynağın varsa Python kullan.

Dürüst olmak gerekirse, birçok ekip için en iyi kurulum ikisini birlikte kullanmaktır: çıkarım için Thunderbit, orkestrasyon için n8n. AI destekli scraping’in n8n iş akışına göre nasıl performans gösterdiğini görmek istiyorsan, küçük ölçekte deneme yapmana izin verir — ayrıca saniyeler içinde kurulabilir. Video anlatımlar ve iş akışı fikirleri için göz atın.

AI web scraping için Thunderbit’i deneyin

SSS

n8n, JavaScript ağırlıklı web sitelerini kazıyabilir mi?

Yerleşik HTTP Request düğümü tek başına bunu yapamaz. HTTP Request düğümü ham HTML çeker ve JavaScript çalıştıramaz. JS ile render edilen siteler için gibi bir topluluk düğümüne veya JavaScript’i sunucu tarafında render eden bir scraping API entegrasyonuna (ScrapeNinja, Firecrawl) ihtiyaç vardır. Thunderbit, hem Browser hem de Cloud scraping modlarında JS ağırlıklı siteleri yerleşik olarak destekler.

n8n web scraping ücretsiz mi?

n8n’in self-hosted sürümü ücretsiz ve açık kaynak kodludur. n8n Cloud’un daha önce ücretsiz katmanı vardı; ancak Nisan 2026 itibarıyla yalnızca 14 günlük deneme sunuyor — sonrasında planlar ayda 24 dolardan başlıyor ve 2.500 çalıştırma içeriyor. Korumalı siteleri kazımak için ayrıca ücretli proxy hizmetleri ($5–15/GB aralığında konut proxy’leri) veya scraping API’leri (hacme göre aylık $49–200+) gerekebilir.

n8n web scraping, Thunderbit ile nasıl karşılaştırılır?

n8n, scraping’in daha büyük bir iş akışının parçası olduğu çok adımlı otomasyonlarda daha iyidir (ör. kazı → zenginleştir → filtrele → CRM’e gönder → Slack’te uyar). Thunderbit ise AI destekli alan tespiti, otomatik sayfalama ve site değişikliklerinde sıfır bakım ile hızlı, kodsuz veri çıkarımı için daha uygundur. Pek çok ekip ikisini birlikte kullanır: çıkarım için Thunderbit, orkestrasyon için n8n.

Giriş gerektiren sitelerden n8n ile veri kazıyabilir miyim?

Evet, ancak HTTP Request düğümünde çerezleri veya oturum jetonlarını yapılandırman gerekir; bu da bakımı zor olabilir. Thunderbit’in Browser Scraping modu, kullanıcının giriş yapmış Chrome oturumunu otomatik olarak devralır — sen giriş yaptıysan, Thunderbit gördüğün veriyi kazıyabilir.

n8n scraper’ım aniden veri döndürmeyi bırakırsa ne yapmalıyım?

Önce n8n Executions sekmesinde hata olup olmadığını kontrol et. En yaygın neden, CSS seçicilerini bozan bir site düzen değişikliğidir — iş akışı “başarılı” görünür ama alanlar boş döner. Chrome’un Inspect aracında seçicilerini doğrula, iş akışında (veya harici seçici tablosunda) güncelle ve tekrar test et. Bot korumasına takılıyorsan, bu rehberdeki sorun giderme karar ağacını izle. Uzun vadeli güvenilirlik için, düzen değişikliklerine otomatik uyum sağlayan Thunderbit gibi AI destekli bir scraper düşün.

Daha Fazla Bilgi

İçindekiler

Thunderbit’i dene

Lead’leri ve diğer verileri sadece 2 tıkla çek. Yapay zeka destekli.

Thunderbit’i Al Ücretsiz
Yapay zeka ile veri çıkar
Verileri kolayca Google Sheets, Airtable veya Notion’a aktar
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week