GitHub’da "facebook scraper" araması döndürüyor. Bunların yalnızca son altı ay içinde güncellenmiş.
"Kullanılabilir" ile "gerçekten çalışıyor" arasındaki fark, 2026’da GitHub’daki Facebook scraping hikâyesinin tamamı.
Depo issue sekmelerini, Reddit şikâyetlerini ve bu araçların ürettiği gerçek çıktıları epey zaman harcayıp inceledim. Ortaya çıkan tablo tutarlı: en çok yıldız alan projelerin çoğu sessizce bozulmuş durumda, geliştiriciler yoluna devam etmiş ve Facebook’un scraping karşıtı savunmaları giderek daha da sıkılaşmış. Geliştiriciler ve iş kullanıcıları aynı arama sonuçlarına dönüp duruyor, aynı depoları kuruyor ve yine aynı boş çıktıyla karşılaşıyor. Bu yazı 2026 için bir gerçeklik kontrolü — hâlâ zaman ayırmaya değer depoların hangileri olduğunu, Facebook’un bunları bozmaya ne yaptığını ve GitHub’ı ne zaman tamamen pas geçmeniz gerektiğini dürüstçe inceliyor.
İnsanlar Neden GitHub’da Facebook Scraper Arıyor?
Bu aramanın arkasındaki kullanım senaryoları yıllardır aynı — araçlar sürekli dağılsa da:
- Lead üretimi: Erişim için işletme sayfalarındaki iletişim bilgilerini (e-posta, telefon numarası, adres) çıkarmak
- Marketplace izleme: E-ticaret ya da arbitraj için ürün ilanlarını, fiyatları ve satıcı bilgilerini takip etmek
- Grup araştırması: Pazar araştırması, OSINT veya topluluk yönetimi için gönderileri ve yorumları arşivlemek
- İçerik ve gönderi arşivleme: Herkese açık sayfa gönderilerini, tepkileri, görselleri ve zaman damgalarını kaydetmek
- Etkinlik toplama: Etkinlik başlıklarını, tarihleri, konumları ve organizatörleri çekmek
GitHub’ın cazibesi açık: görünür kod, sıfır maliyet, topluluk bakımı (teoride) ve alanlar ile veri akışı üzerinde tam kontrol.
Sorun şu ki, yıldız sayısı ve fork sayısı "şu anda çalışıyor" anlamına gelmiyor. Yıldız sayısına göre ilk 10 tam eşleşen depo arasında, 2026 Nisan itibarıyla . Bu bir tesadüf değil — norm bu.
Kasım 2025’teki bir bir kullanıcı, altı aylık denemenin ardından durumu açıkça şöyle özetledi: ya "harici bir data scraping uygulaması için para ödemeden" ya da Python + JS render + ciddi işlem gücü olmadan bunun imkânsız olduğunu söyledi. Bir diğeri, bunu şöyle toparladı: "Facebook, otomasyonu agresif biçimde engellediği için kazınması en zor platformlardan biri" ve tarayıcı otomasyonu da "Facebook DOM’u sürekli değiştirdiği için kırılgan."
Kullanım senaryoları gerçek. Talep gerçek. Hayal kırıklığı da fazlasıyla gerçek. Bu yazının geri kalanı, o boşluğu nasıl yöneteceğinize odaklanıyor.
GitHub’daki Bir Facebook Scraper Deposu Tam Olarak Nedir?
GitHub’daki bir "Facebook scraper", herkese açık verileri Facebook sayfalarından, gönderilerden, gruplardan, Marketplace’ten veya profillerden programatik olarak çeken açık kaynak bir betiktir — genellikle Python ile yazılır. Hepsi aynı şekilde çalışmaz. Üç mimari öne çıkar:
Tarayıcı Otomasyonu Tabanlı Scraper’lar, API Wrapper’lar ve Doğrudan HTTP Scraper’lar
| Yaklaşım | Tipik yığın | Güçlü yönü | Zayıf yönü |
|---|---|---|---|
| Tarayıcı otomasyonu | Selenium, Playwright, Puppeteer | Giriş duvarlarını aşabilir, gerçek kullanıcı davranışını taklit eder | Yavaş, kaynak tüketimi yüksek, dikkatli yapılandırılmazsa kolayca tespit edilir |
| Resmî API wrapper’ı | Meta Graph API / Pages API | Kararlı, dokümante, onaylandığında uyumlu | Ciddi biçimde kısıtlı — çoğu herkese açık gönderi/grup verisi artık yok |
| Doğrudan HTTP scraper | requests, HTML ayrıştırma, belgesiz uç noktalar | Çalıştığında hızlı ve hafif | Facebook sayfa yapısını veya bot karşıtı önlemleri değiştirdiği anda bozulur |
klasik doğrudan HTTP örneğidir: doğrudan istekler ve ayrıştırma kullanarak herkese açık sayfaları "API anahtarı olmadan" kazır. ise tarayıcı otomasyonu örneğidir. , artık geniş ölçekte kullanılamayan resmî uç noktalar üzerinden sayfa/grup gönderilerini çeken komut dosyalarının bulunduğu eski Graph API dönemini temsil eder.
Bu depolar arasında hedeflenen tipik veriler; gönderi metni, zaman damgaları, tepki/yorum sayıları, görsel URL’leri, sayfa meta verileri (kategori, telefon, e-posta, takipçi sayısı), Marketplace ilan alanları ve grup ya da etkinlik meta verilerini içerir.
2026’da asıl tercih, hangi dili kullanacağınız değil. Hangi tür başarısızlığı tolere edebileceğiniz.
2026 Facebook Scraper GitHub Tazelik İncelemesi: Hangi Depolar Gerçekten Çalışıyor?
GitHub’daki en çok yıldız alan ve en çok önerilen Facebook scraper depolarını, README iddialarına değil gerçek 2026 verilerine — commit tarihlerine, issue kuyruklarına ve topluluk raporlarına — göre inceledim. En önemli bölüm burası.
Tam Tazelik İnceleme Tablosu
| Depo | Yıldız | Son Push | Açık Sorun | Dil / Çalışma zamanı | Hâlâ Neleri Kazıyor | Durum |
|---|---|---|---|---|---|---|
| kevinzg/facebook-scraper | 3,157 | 2024-06-22 | 438 | Python ^3.6 | Sınırlı herkese açık sayfa gönderileri, bazı yorumlar/görseller, sayfa meta verileri | ⚠️ Kısmen bozuk / eski |
| moda20/facebook-scraper | 110 | 2024-06-14 | 29 | Python ^3.6 | kevinzg ile aynı + Marketplace yardımcı metodları | ⚠️ Kısmen bozuk / eski fork |
| minimaxir/facebook-page-post-scraper | 2,128 | 2019-05-23 | 53 | Python 2/3 dönemi, Graph API’ye bağımlı | Sadece tarihî referans | ❌ Terk edilmiş |
| apurvmishra99/facebook-scraper-selenium | 232 | 2020-06-28 | 7 | Python + Selenium | Sayfa kazıma için tarayıcı otomasyonu | ❌ Terk edilmiş |
| passivebot/facebook-marketplace-scraper | 375 | 2024-04-29 | 3 | Python 3.x + Playwright 1.40 | Tarayıcı otomasyonu ile Marketplace ilanları | ⚠️ Kırılgan / niş |
| Mhmd-Hisham/selenium_facebook_scraper | 37 | 2022-11-29 | 1 | Python + Selenium | Genel Selenium scraping | ❌ Terk edilmiş |
| anabastos/faceteer | 20 | 2023-07-11 | 5 | JavaScript | Otomasyon odaklı | ❌ Riskli / az kanıt |
Birkaç şey hemen göze çarpıyor:
- En "aktif fork" olan moda20 bile Haziran 2024’ten beri push almamış.
- Issue kuyrukları, README’lerden çok daha hızlı şekilde gerçek hikâyeyi anlatıyor.
- Hem kevinzg hem de moda20, dosyalarında hâlâ Python ^3.6 beyan ediyor — bu da bağımlılık tabanının modernize edilmediğine işaret ediyor.
kevinzg/facebook-scraper
GitHub’daki en bilinen Python Facebook scraper’ı. dosyası, sayfa kazıma, grup kazıma, kimlik bilgileri ya da çerezlerle giriş ve comments, image, images, likes, post_id, post_text, text ve time gibi gönderi düzeyindeki alanları anlatıyor.
Ama operasyonel sinyal zayıf:
- Son push: 22 Haziran 2024
- Açık sorunlar: — aralarında "Example Scrape does not return any posts" gibi başlıklar var
- Bakımcı son sorunlara yanıt vermemiş
Sonuç: Kısmen bozuk. Düşük hacimli herkese açık sayfa denemeleri ve alan adı referansı olarak hâlâ değerli, ama üretim kullanımı için güvenilir değil.
moda20/facebook-scraper (Topluluk Fırkası)
kevinzg’nin en görünür fork’u; ek seçenekler ve extract_listing gibi Marketplace odaklı yardımcılarla geliyor ( içinde belgelenmiş).
bozulma hikâyesini açıkça gösteriyor:
- "mbasic gitti"
- "CLI 'Couldn't get any posts.'"
- "https://mbasic.facebook.com artık çalışmıyor"
Basitleştirilmiş mbasic arayüzü değiştiğinde ya da ortadan kalktığında, bir sürü scraper aynı anda bozuluyor.
Sonuç: En dikkat çeken fork, ama 2026’da da eski ve kırılgan. GitHub tabanlı bir çözümde ısrar ediyorsanız ilk denemeniz gereken şey olabilir, ama istikrar beklemeyin.
minimaxir/facebook-page-post-scraper
Bir zamanlar herkese açık Sayfalar ve açık Gruplardan gönderi, tepki, yorum ve meta verileri CSV’ye toplamak için oldukça pratik bir Graph API aracıdır. hâlâ bir Facebook uygulamasının App ID ve App Secret’ının nasıl kullanılacağını anlatıyor.
2026’da artık tarihî bir eser:
- Son push: 23 Mayıs 2019
- Açık sorunlar: 53 — aralarında "HTTP 400 Error Bad Request" ve "No data retrieved!!" var
Sonuç: Terk edilmiş. Meta’nın sonradan ciddi biçimde daralttığı bir API izin modeline sıkı sıkıya bağlı.
Diğer Dikkate Değer Depolar
- passivebot/facebook-marketplace-scraper: Marketplace kullanım senaryoları için faydalı olabilir, ama "login to view the content", "CSS selectors outdated" ve "Getting blocked" gibi başlıklar var. Marketplace scraping’de neyin bozulduğuna dair tek satırlık bir vaka özeti gibi.
- apurvmishra99/facebook-scraper-selenium: Eylül 2020’den kalma, yeni Facebook düzeniyle çalışıp çalışmadığını soran içeriyor. Neredeyse her şeyi söylüyor.
- Mhmd-Hisham/selenium_facebook_scraper ve anabastos/faceteer: Güven vermek için yeterli güncel aktiviteye sahip değiller.

Facebook’un Scraping Karşıtı Savunmaları: Her GitHub Scraper’ının Karşısında Ne Var?
Bu konudaki çoğu yazı, belirsiz "ToS’a bakın" uyarıları verir. Bu işe yaramaz.
Facebook, büyük platformlar arasında en agresif scraping karşıtı sistemlerden birine sahip. Bu savunma katmanlarının ne olduğunu anlamak, çalışan bir scraper ile boş çıktıyla geçen bir öğleden sonrayı ayıran şeydir.
Meta’nın kendi , kaynak kod analiziyle scraping vektörlerini tespit eden bir "Anti Scraping team"i, ihtar mektuplarını, hesap devre dışı bırakmayı ve oran sınırlama sistemlerini anlatıyor. Bu bir varsayım değil — kurumsal bir tercih.

Rastgeleleştirilmiş DOM ve CSS Sınıf Adları
Facebook, HTML öğe kimliklerini, sınıf adlarını ve sayfa yapısını bilerek rastgeleleştiriyor. Bir dediği gibi: "Facebook’ta normal bir scraper çalışamaz. HTML, yenilemeler arasında değişiyor."
Ne bozar: Geçen hafta çalışan XPath ve CSS seçiciler bugün hiçbir şey döndüremez.
Karşı önlem: Mümkün olduğunda metin tabanlı veya öznitelik tabanlı seçiciler kullanın. Sayfa içeriğini okuyup katı seçicilere yaslanmayan AI tabanlı ayrıştırma burada daha iyi çalışır. Seçici bakımı, sürekli tekrar eden bir maliyet olarak karşınıza çıkar.
Giriş Duvarları ve Oturum Yönetimi
Profil, grup ve bazı Marketplace ilanları gibi Facebook yüzeylerinin çoğu görmek için giriş ister. Headless tarayıcılar yönlendirilir ya da sadeleştirilmiş HTML alır. passivebot Marketplace scraper’ının en büyük şikâyetlerden biri "login to view the content".
Ne bozar: Giriş yapılmamış istekler içeriği kaçırır ya da tamamen yönlendirilir.
Karşı önlem: Gerçek bir tarayıcı oturumundan alınmış oturum çerezlerini veya giriş yapmış oturum içinde çalışan tarayıcı tabanlı scraping araçlarını kullanın. Dönen hesaplar mümkün ama riskli.
Dijital Parmak İzi
Meta’nın mühendislik yazısına göre yetkisiz scraper’lar — bu da tespit için tarayıcı kalitesi ve davranış kalitesinin merkezde olduğu anlamına gelir. ve topluluk tartışmaları da anti-detect tarayıcıları ve tutarlı parmak izlerini önermeye devam ediyor.
Ne bozar: Standart Selenium ya da Puppeteer kurulumları kolayca tespit edilir.
Karşı önlem: undetected-chromedriver gibi araçlar veya anti-detect tarayıcı profilleri kullanın. Gerçekçi oturumlar ve tutarlı parmak izleri, basit user-agent taklitinden daha önemlidir.
IP Tabanlı Oran Sınırlama ve Engelleme
Meta’nın mühendislik yazısı, savunma stratejisinin bir parçası olarak oran sınırlamadan açıkça söz ediyor; hatta daha fazla istek oluşmasına yol açmak için takipçi listesi sayılarını sınırlayıp ardından anlatıyor. Pratikte kullanıcılar, oran kısıtlamasına takıldıklarını bildiriyor.
Ne bozar: Aynı IP’den gelen toplu istekler dakikalar içinde yavaşlatılır ya da engellenir. Veri merkezi proxy IP’leri çoğu zaman önceden bloklanmıştır.
Karşı önlem: Veri merkezi proxy’ler değil, residential proxy dönüşümü; ayrıca makul istek temposu.
GraphQL Şema Değişiklikleri
Bazı scraper’lar, ham HTML’den daha temiz yapılandırılmış veri döndürdüğü için Facebook’un dahili GraphQL uç noktalarına güvenir. Ancak Meta, dahili GraphQL için bir kararlılık garantisi yayınlamaz; bu yüzden bu sorgular sessizce bozulur — hata yerine boş veri döner.
Ne bozar: Yapılandırılmış çıkarım sessizce hiçbir şey döndürmez.
Karşı önlem: Doğrulama kontrolleri ekleyin, şema uç noktalarını izleyin ve bilinen çalışan sorgulara sabitleyin. Bakım gerekecek.
Scraping Karşıtı Savunma Özeti
| Savunma Katmanı | Scraper’ınızı Nasıl Bozar | Pratik Karşı Önlem | |---|---|---|---| | Yerleşim değişimi / kararsız seçiciler | XPath ve CSS seçiciler hiçbir şey ya da eksik alan döndürür | Dayanıklı çapalar tercih edin, görünür sayfa çıktısıyla doğrulayın, bakım bekleyin | | Giriş duvarları | Oturumu kapalı istekler içeriği kaçırır ya da yönlendirilir | Geçerli oturum çerezleri veya tarayıcı-oturumu araçları kullanın | | Parmak izi tespiti | Standart otomasyon sentetik görünür | Gerçek tarayıcılar, tutarlı oturum kalitesi, anti-detect önlemleri kullanın | | Oran sınırlama | Boş çıktı, blok, yavaşlatma | Yavaş tempo, daha küçük parti boyutları, residential proxy dönüşümü | | Dahili sorgu değişiklikleri | Yapılandırılmış çıkarım sessizce boş veri döndürür | Doğrulama kontrolleri ekleyin, sorgu bakımını bekleyin |
GitHub Depoları Başarısız Olduğunda: No-Code Kaçış Yolu
"facebook scraper github" aramasına düşenlerin büyük bir kısmı geliştirici değil. Onlar işletme sayfası e-postaları arayan satış temsilcileri, Marketplace fiyatlarını takip eden e-ticaret operatörleri ya da rakip araştırması yapan pazarlamacılar. Python ortamı yönetmek, kırılmış seçicileri ayıklamak ya da proxy döndürmek istemiyorlar.
Eğer siz de onlardan biriyseniz, karar ağacı kısa:

Facebook Sayfası İletişim Bilgilerini Kazıma (E-posta, Telefon Numaraları)
İş, Sayfa "Hakkında" bölümlerinden e-posta ve telefon numarası çekmekse, GitHub deposu gereğinden fazla karmaşıktır. 'in ücretsiz ve araçları bir web sayfasını tarar ve sonuçları Sheets, Excel, Airtable veya Notion’a aktarır. AI sayfayı her seferinde yeniden okur; bu yüzden Facebook’un DOM değişiklikleri işinizi bozmaz.
Marketplace veya İşletme Sayfalarından Yapılandırılmış Veri Kazıma
Ürün ilanlarını, fiyatları, konumları veya işletme bilgilerini çıkarmak için Thunderbit’in AI Web Scraper’ı "AI Suggest Fields" ile alan önerilerini çıkarmanıza izin verir — AI sayfayı okuyup fiyat, başlık, konum gibi sütunlar önerir — ardından "Scrape"e tıklarsınız. XPath bakımı yok, kod kurulumu yok. Verileri doğrudan aktarabilirsiniz.
Zamanlanmış İzleme (Marketplace Fiyat Uyarıları, Rakip Takibi)
Sürekli izleme için — "Bir Marketplace ilanı fiyat aralığıma uyduğunda haber ver" gibi — Thunderbit’in özelliği, aralığı düz dille tanımlamanıza (örneğin ) ve URL’leri ayarlamanıza izin verir. Otomatik çalışır, cron işi gerekmez.
GitHub Depoları Hâlâ Ne Zaman Doğru Seçim?
Derin programatik kontrol, büyük ölçekli çıkarım veya özel veri akışlarına ihtiyacınız varsa, GitHub depoları (veya yapılandırılmış çıkarım için ) doğru araçtır. Karar basit: basit çıkarım ihtiyacı olan iş kullanıcıları → önce no-code; veri akışı kuran geliştiriciler → GitHub deposu ya da API.
Gerçek Çıktı Örnekleri: Aslında Ne Elde Edersiniz?
Rakip makalelerin hepsi kod parçaları gösterir ama gerçek çıktıyı asla göstermez. Aşağıda her yaklaşımda makul olarak ne bekleyebileceğiniz var.
Örnek Çıktı: kevinzg/facebook-scraper (veya Aktif Fork)
alınan bir herkese açık gönderi, aşağıdaki gibi JSON döndürür:
1{
2 "comments": 459,
3 "comments_full": null,
4 "image": "https://...",
5 "images": ["https://..."],
6 "likes": 3509,
7 "post_id": "2257188721032235",
8 "post_text": "Bu küçücük versiyonun...",
9 "text": "Bu küçücük versiyonun...",
10 "time": "2019-04-30T05:00:01"
11}
comments_full gibi null olabilen alanlara dikkat edin. 2026’da daha fazla alanın boş ya da eksik dönmesini bekleyin — bu genellikle zararsız bir aksaklık değil, engelleme sinyalidir. Çıktı ham JSON’dur ve sonradan işleme gerektirir.
Örnek Çıktı: Facebook Graph API
Meta’nın mevcut dokümantasyonu, GET /<PAGE_ID>?fields=id,name,about,fan_count gibi sayfa bilgisi isteklerini anlatır. , followers_count, fan_count, category, emails, phone ve diğer herkese açık meta veriler gibi alanları içerir — ancak yalnızca gibi doğru izinlerle.
Bu, çoğu GitHub scraper kullanıcısının beklediğinden çok daha dar bir veri yapısı. Sayfa merkezli, izin kapılı ve keyfi herkese açık gönderi ya da grup scraping’inin yerine geçmez.
Örnek Çıktı: Thunderbit AI Web Scraper
Thunderbit’in bir Facebook işletme sayfası için AI ile önerdiği sütunlar temiz, yapılandırılmış bir tablo üretir:
| Sayfa URL’si | İşletme Adı | E-posta | Telefon | Kategori | Adres | Takipçi Sayısı |
|---|---|---|---|---|---|---|
| facebook.com/example | Örnek İşletme | info@example.com | (555) 123-4567 | Restoran | Ana Cad. 123 | 12.400 |
Gönderiler ve yorumlar için çıktı şöyle görünür:
| Gönderi URL’si | Yazar | Gönderi İçeriği | Gönderi Tarihi | Yorum Metni | Yorum Yazarı | Yorum Tarihi | Beğeni Sayısı |
|---|---|---|---|---|---|---|---|
| fb.com/post/123 | Sayfa Adı | "Büyük açılış bu cumartesi..." | 2026-04-20 | "Sabırsızlıkla bekliyorum!" | Jane D. | 2026-04-21 | 47 |
Yapılandırılmış sütunlar, biçimlendirilmiş telefon numaraları, kullanıma hazır veriler — sonradan işleme adımı yok. GitHub araçlarından gelen ham JSON ile farkı gözden kaçırmak zor.
Facebook Veri Türü × En İyi Araç Matrisi
2026’da Facebook’ta her şeyi iyi yapan tek bir araç yok.
Bu matris, tüm makaleyi okuyup doğru cevabı bulmak yerine doğrudan kendi kullanım senaryonuza atlamanızı sağlar.
| Facebook Veri Türü | En İyi GitHub Deposu | API Seçeneği | No-Code Seçeneği | Zorluk | 2026’da Güvenilirlik |
|---|---|---|---|---|---|
| Herkese açık sayfa gönderileri | kevinzg ailesi ya da tarayıcı tabanlı scraper | Page Public Content Access, sınırlı | Thunderbit AI Scraper | Orta–Yüksek | ⚠️ Kırılgan |
| Sayfa Hakkında / iletişim bilgileri | Hafif ayrıştırma ya da sayfa meta verileri | İzinlerle birlikte Sayfa referansı alanları | Thunderbit Email/Phone Extractor | Düşük–Orta | ✅ Görece stabil |
| Grup gönderileri (üye) | Girişli tarayıcı otomasyonu | Groups API kullanımdan kaldırıldı | Giriş yapılmış tarayıcı tabanlı no-code | Yüksek | ⚠️ Çoğunlukla bozuk / yüksek risk |
| Marketplace ilanları | Playwright tabanlı scraper | Resmî API yolu yok | Thunderbit AI veya zamanlanmış tarayıcı scraping | Orta–Yüksek | ⚠️ Kırılgan |
| Etkinlikler | Tarayıcı otomasyonu veya anlık ayrıştırma | Tarihsel API desteği büyük ölçüde yok oldu | Tarayıcı tabanlı çıkarım | Yüksek | ❌ Kırılgan |
| Yorumlar / tepkiler | Yorum desteği olan GitHub deposu | İzinlerle birlikte bazı sayfa yorumu iş akışları | Thunderbit alt sayfa kazıma | Orta | ⚠️ Kırılgan |
Hangi Yaklaşım Ekibinize Uyar?
- Lead çıkaran satış ekipleri: Thunderbit’in Email/Phone Extractor’ı ya da AI Scraper’ı ile başlayın. Kurulum yok, anında sonuç.
- Marketplace izleyen e-ticaret ekipleri: Thunderbit’in Scheduled Scraper’ı veya özel bir Scrapy + residential proxy kurulumu (mühendislik kaynağınız varsa).
- Veri akışı kuran geliştiriciler: GitHub depoları (aktif fork’lar) + residential proxy’ler + bir bakım bütçesi. Sürekli iş bekleyin.
- Grup içeriğini arşivleyen araştırmacılar: Yalnızca tarayıcı tabanlı iş akışı (Thunderbit ya da girişli Selenium) ve uyumluluk incelemesi.
Dürüst pozisyon — ve — tek bir güvenilir çözüm olmadığıdır. İhtiyacınız olan veriye uygun aracı seçin.

Adım Adım: GitHub’dan Facebook Scraper Nasıl Kurulur? (Mantıklı Olduğunda)
Tazelik incelemesini okuduysanız ve yine de GitHub yolunu seçmek istiyorsanız, makul. İşte pratik yol — ve nerede bozulduğuna dair dürüst notlarla.

Adım 1: Doğru Depoyu Seçin (Tazelik İncelemesini Kullanın)
İnceleme tablosuna geri dönün. Hedeflediğiniz yüzeye en az eskimiş depoyu seçin. Bir şey kurmadan önce Issues sekmesini kontrol edin — son issue başlıkları, README’den daha iyi şekilde mevcut işlevselliği anlatır.
Adım 2: Python Ortamınızı Kurun
1python3 -m venv fb-scraper-env
2source fb-scraper-env/bin/activate
3pip install -r requirements.txt
Yaygın tuzak: özellikle Selenium/Playwright sürümlerinde bağımlılık çakışmaları. Hem kevinzg hem de moda20, dosyalarında Python ^3.6 beyan ediyor — bu da daha yeni kütüphanelerle çakışabilecek eski bir taban. passivebot’un Marketplace scraper’ı sürümüne sabitlenmiş; bu deneme için uygun ama dayanıklılığın kanıtı değil.
Adım 3: Proxy ve Tespit Kaçınma Ayarlarını Yapın
Hızlı bir testten fazlasını yapacaksanız:
- Residential proxy rotasyonu kurun (Facebook’a özel IP havuzları sunan sağlayıcıları arayın)
- Tarayıcı otomasyonu kullanıyorsanız undetected-chromedriver kurun ya da anti-fingerprinting yapılandırın
- Bu adımı atlamayın — standart Selenium ya da Puppeteer hızlıca işaretlenir
Adım 4: Küçük Bir Test Kazıması Yapın ve Çıktıyı Doğrulayın
Büyük bir partiyle değil, tek bir herkese açık sayfayla başlayın. Çıktıyı dikkatle kontrol edin:
- Boş alanlar ya da eksik veriler genellikle Facebook savunmalarının sizi engellediği anlamına gelir
- Çıktıyı, tarayıcıda sayfada gerçekten gördüklerinizle karşılaştırın
- Başarılı tek sayfalık bir test, süslü bir README’den daha önemlidir
Adım 5: Hataları, Oran Sınırlamalarını ve Bakımı Yönetin
- Yeniden deneme mantığı ve hata yönetimi ekleyin
- Seçicileri ya da yapılandırmaları düzenli olarak güncellemeyi bekleyin — bu, kurulup unutulacak bir iş değil, sürekli bakımdır
- Scraper’ı sürdürmeye, veriyi kullanmaktan daha fazla zaman harcadığınızı fark ederseniz, no-code yolunu yeniden düşünmeniz gerektiğine dair bir işarettir
Facebook Scraping İçin Hukuki ve Etik Değerlendirmeler
Bu bölüm kısa ve olgusal. Yazının odağı değil, ama bunu yok saymak sorumsuzluk olur.
Facebook’un , kullanıcıların "önceden iznimiz olmadan otomatik yöntemlerle Ürünlerimizden veri erişimi sağlayamayacağını veya veri toplayamayacağını" belirtir. Meta’nın 3 Şubat 2026’da güncellenen , yaptırımın askıya alma, API erişimini kaldırma ve hesap düzeyinde işlem içerebileceğini açıkça ortaya koyuyor.
Bu teorik değil. Meta’nın , yetkisiz scraping’in aktif biçimde incelenmesini, ihtar mektuplarını ve hesap devre dışı bırakmayı anlatıyor. Meta ayrıca scraping şirketlerine karşı (örneğin Voyager Labs davası).
En güvenli çerçeve şu:
- Meta’nın koşulları açıkça scraping karşıtı
- İzinli API kullanımı, yetkisiz scraping’den daha güvenli
- Herkese açık olması, gizlilik hukuku yükümlülüklerini ortadan kaldırmaz (GDPR, CCPA vb.)
- Ölçekli çalışıyorsanız hukuk danışmanına başvurun
- Thunderbit, herkese açık verileri kazımak için tasarlanmıştır ve bulut scraping kullanırken giriş gereksinimlerini atlatmaz
Öne Çıkanlar: 2026’da Facebook Scraping İçin Aslında Ne Çalışıyor?
2026’da çoğu Facebook scraper GitHub deposu bozuk ya da güvenilmez. Bu bir korkutma taktiği değil — commit tarihleri, issue kuyrukları ve topluluk raporlarının sürekli gösterdiği şey bu.
Hâlâ çalışan birkaç aktif fork, sınırlı herkese açık sayfa verisi için işe yarıyor; ancak sürekli bakım, tespit önleme kurulumu ve işlerin yeniden bozulacağını kabul eden gerçekçi bir beklenti gerektiriyor. Graph API faydalı ama dar kapsamlı — doğru izinlerle sayfa düzeyi meta veriyi kapsıyor, çoğu kişinin istediği geniş herkese açık gönderi veya grup scraping’ini değil.
Facebook verisine geliştirici yükü olmadan ihtiyaç duyan iş kullanıcıları için gibi no-code araçlar daha güvenilir ve daha az bakım isteyen bir yol sunuyor. AI sayfayı her seferinde yeniden okur, bu yüzden DOM değişiklikleri iş akışınızı bozmaz. ücretsiz deneyebilir ve Sheets, Excel, Airtable veya Notion’a aktarabilirsiniz.
Pratik öneri: tazelik inceleme tablosuyla başlayın. Geliştirici değilseniz önce no-code seçeneği deneyin. Geliştiriciyseniz, ancak onu sürdürmek için teknik kaynaklarınız — ve sabrınız — varsa GitHub kurulumuna yatırım yapın. Ve hangi yolu seçerseniz seçin, tek bir her şeyi çözen çözüm ummak yerine kendi veri ihtiyacınıza uygun aracı seçin.
Sosyal medya verisi kazıma ve ilgili araçlar hakkında daha derine inmek isterseniz, , ve rehberlerimize göz atabilirsiniz. anlatımları da izleyebilirsiniz.
SSS
2026’da GitHub’da çalışan bir Facebook scraper var mı?
Evet, ama seçenekler sınırlı. En dikkat çeken seçenek, kevinzg’nin orijinal deposunun fork’u olan — güncel durum için yukarıdaki tazelik inceleme tablosuna bakın. Herkese açık sayfa gönderilerini ve bazı meta verileri kısmen kazıyabilir, ancak issue kuyruğu mbasic ve boş çıktı etrafında temel bozulmalar gösteriyor. Diğer depoların çoğu terk edilmiş ya da tamamen bozuk.
Kod yazmadan Facebook kazıyabilir miyim?
Evet. ve ücretsiz Email/Phone Extractor’lar gibi araçlar, Python ya da GitHub kurulumu gerektirmeden birkaç tıkla tarayıcınızdan Facebook verisi çıkarmanızı sağlar. AI sayfayı her seferinde okur, bu yüzden Facebook düzenini değiştirdiğinde seçicileri sürdürmeniz gerekmez.
Facebook kazımak yasal mı?
Facebook’un , izin olmadan otomatik veri toplamayı yasaklar. Meta bunu hesap yasakları, ihtar mektupları ve yoluyla aktif biçimde uygular. Yasallık, yargı bölgesine ve kullanım senaryosuna göre değişir. Herkese açık işletme verileriyle sınırlı kalın, kişisel profillerden kaçının ve ölçekli çalışıyorsanız hukuk danışmanına başvurun.
Facebook Graph API’den hâlâ hangi verileri alabilirim?
2026’da ciddi biçimde kısıtlanmış durumda. gibi uygun izinlerle id, name, about, fan_count, emails, phone gibi alanlar dahil sınırlı sayfa düzeyi verilere erişebilirsiniz. Çoğu herkese açık gönderi verisi, grup verisi () ve kullanıcı düzeyindeki veriler artık API üzerinden erişilebilir değil.
Facebook scraper GitHub depoları ne sıklıkla bozuluyor?
Sık sık. Facebook DOM yapısını, bot karşıtı önlemlerini ve dahili API’lerini sürekli değiştiriyor — yayımlanmış bir tempo yok, ama topluluk raporları aktif scraper’larda birkaç haftada bir bozulma olduğunu gösteriyor. moda20 fork’unun mbasic kaybolması etrafındaki issue kuyruğu yakın tarihli bir örnek. Bir GitHub reposuna güveniyorsanız, düzenli bakım ve çıktı doğrulaması için bütçe ayırın.
Daha Fazla Öğrenin
