Zillow volgt ongeveer in de VS en trekt meer dan aan. Dat is een enorme hoeveelheid vastgoeddata achter één website — prijzen, Zestimates, contactgegevens van makelaars, belastinggeschiedenis, wijkstatistieken. Het probleem? Die data op grote schaal echt uit Zillow halen is een heel ander verhaal.
De meeste online overzichtslijsten met de “beste Zillow scraper” sturen je vooral richting API-tools en proxy-aanbieders voor developers. Prima als je op je werk met Python schrijft, maar uit wat ik heb gezien in de samenwerking met vastgoedteams, investeerders en marketeers bij Thunderbit, blijkt dat een groot deel van de mensen die naar Zillow-scrapers zoekt gewoon snel listingdata in een spreadsheet wil — zonder code, zonder gedoe.
Daarom heb ik deze gids samengesteld, met alle drie de soorten Zillow-scrapers: browserextensies voor niet-technische gebruikers, cloud-API’s voor developers en op proxies gebaseerde infrastructuur voor grootschalige operaties. Ook heb ik gratis pakketten, export-workflows en gebruiksscenario’s meegenomen, zodat je meteen kunt overstappen naar de tool die bij jouw situatie past.
Wat is een Zillow-scraper (en welke data kun je er echt mee ophalen)?
Een Zillow-scraper is elke tool die automatisch gestructureerde vastgoeddata van Zillow verzamelt — zodat je listinggegevens niet handmatig stuk voor stuk hoeft te kopiëren en plakken in een spreadsheet. Of je nu vergelijkbare panden verzamelt voor een investeringsanalyse of een leadlijst met FSBO-panden opbouwt, een scraper doet het saaie werk voor je.
Dit kun je meestal uit Zillow-listingpagina’s halen:
- Listing- en prijsgegevens: huidige prijs, verkoopprijs, Zestimate, Rent Zestimate, prijshistorie, aantal dagen online
- Objectgegevens: slaapkamers, badkamers, vierkante meters, perceelgrootte, bouwjaar, woningtype, verdiepingen, parkeergelegenheid, VvE-kosten
- Locatie-informatie: volledig adres, postcode, wijknaam
- Listingmetadata: status van de listing (te koop, in afwachting, verkocht), makelaar of aanbieder, listing-URL
- Media: woningfoto’s, beschrijvingen
- Geschiedenis en financiën: verkoopgeschiedenis, belastinggeschiedenis, jaarlijks belastingbedrag
- Extra’s (afhankelijk van de diepgang van de tool): Walk Score, Transit Score, scholen in de buurt, reistijden, perceel-/kavelgegevens
Niet al deze velden zijn even makkelijk op te halen. Hoofdgegevens zoals prijs, adres en slaapkamers/badkamers zijn meestal vrij eenvoudig. Maar grafieken met Zestimate-historie, telefoonnummers van makelaars en belastingdetails laden vaak dynamisch of zitten achter JavaScript-rendering — en juist daarom maakt de keuze van je scraper-architectuur zoveel uit.
Hoe we de beste Zillow-scrapers hebben beoordeeld
Voordat we in de lijst duiken, eerst kort hoe ik deze tools heb vergeleken. Deze criteria zijn belangrijk omdat Zillow geen standaard website is om te scrapen — het is een van de best beveiligde sites op het web.
Gebruiksgemak: no-code versus code vereist
De verschillen zijn groot. Met sommige tools scrape je Zillow met twee klikken in je browser. Andere vereisen API-sleutels, Python-scripts en proxyconfiguratie. Omdat regelmatig prijsgeschiedenissen van vergelijkbare woningen gebruikt en veel van hen geen developers zijn, is gebruiksgemak belangrijker dan veel concurrenten toegeven.
Succespercentage tegen anti-botmaatregelen op Zillow
Zillow’s anti-botstack (hieronder meer daarover) is de belangrijkste reden waarom scrapers falen. Een tool die goedkoop is maar slechts 40% van de tijd werkt, kost per record meer dan een duurdere tool die altijd werkt.
Prijsmodel en kosten per 1.000 records
Waar mogelijk heb ik de kosten per 1.000 records (CPM) genormaliseerd over de tools. Sommige tools rekenen per API-call, andere per pagina, weer andere per geslaagd resultaat. De prijs op het etiket kan misleidend zijn als je geen rekening houdt met succeskansen en retries.
Gratis pakket en proefperiode
Veel lezers willen eerst testen voordat ze iets afnemen. Daarom heb ik later in dit artikel een aparte vergelijking van gratis opties opgenomen — iets wat ik in andere overzichten eigenlijk nergens terugzag.
Exportformaten en integraties
Vastgoedprofessionals willen data in hun spreadsheets en CRM’s krijgen, niet rauwe JSON hoeven ontleden. Tools die direct exporteren naar Excel, Google Sheets, Airtable of Notion besparen enorm veel vervolgwerk.
Paginering en bulkverwerking
Zoekresultaten op Zillow beslaan vaak meerdere pagina’s. Tools die paginering native afhandelen, besparen je het bouwen van eigen logica om pagina’s door te lopen.
Scraper-architectuur: extensie versus API versus proxy
De meeste artikelen slaan dit helemaal over. Het type scraper dat je gebruikt — browserextensie, cloud-API of proxy-infrastructuur — verandert je ervaring, succespercentage en workflow fundamenteel. Dat licht ik zo toe.
Drie typen Zillow-scrapers: welke past bij jou?
Toen ik mij hier voor het eerst in verdiepte, kon ik geen enkel artikel vinden dat de architectuurverschillen duidelijk uitlegde. Elke Zillow-scraper valt in een van drie architectuurcategorieën, en welke voor jou geschikt is hangt af van je technische vaardigheden, je datavolume en hoe je de data wilt gebruiken.
Browserextensie-scrapers (no-code)
Deze draaien in je echte Chrome-browser. Je bezoekt Zillow, klikt op een knop en de extensie haalt data van de pagina die je bekijkt. Omdat ze je echte browsersessie gebruiken — echte cookies, echte fingerprint, echte inlogstatus — omzeilen ze van nature veel anti-botdetectie zonder dat je proxies hoeft in te stellen.
Het meest geschikt voor: makelaars, investeerders die vergelijkingsanalyses doen, kleine marketingteams, iedereen die snel data in een spreadsheet wil.
Voorbeeld: Thunderbit (workflow met 2 klikken, Zillow-template met 1 klik, directe export naar Sheets/Excel).
Cloud-API-scrapers (developer-vriendelijk)
Je stuurt een URL naar een API-eindpunt en krijgt gestructureerde JSON of CSV terug. Hiervoor is wel wat technische setup nodig — API-sleutels, scripting, misschien een planningstool — maar ze schalen goed en passen netjes in terugkerende pipelines.
Het meest geschikt voor: PropTech-developers, data engineers, teams die SaaS-producten of interne datapipelines bouwen.
Voorbeelden: Bright Data, Zyte, ScraperAPI, ScrapingBee.
Proxy-based scrapers (infrastructuur voor grote volumes)
Deze leveren de IP-rotatie en anti-bot-omzeiling, maar je brengt je eigen scrapinglogica mee. Zie het als de leidingen, niet de kraan.
Het meest geschikt voor: grootschalige operaties die al scrapingcode hebben en betrouwbare IP-infrastructuur nodig hebben.
Voorbeelden: Oxylabs, Decodo/Smartproxy, NetNut.
Hier is een snel besliskader:
- Gewoon snel data nodig, zonder te coderen? → Browserextensie (Thunderbit)
- Een product of pipeline bouwen? → API-gebaseerd (Bright Data, Zyte, ScraperAPI)
- Hoog volume en rotatie van proxies nodig? → Proxy-first (Oxylabs, Decodo, NetNut)
Beste Zillow-scrapers in één oogopslag: vergelijking naast elkaar
Voordat we elke tool apart bekijken, hier de volledige vergelijkingstabel. Ik heb geprobeerd zo specifiek mogelijk te zijn — vage “ja/nee”-antwoorden helpen niet als je een tool kiest voor een echt project.
| Tool | Type | No-code? | Gratis pakket | Zillow-template | Exportopties | Paginering | Enrichment van subpagina’s |
|---|---|---|---|---|---|---|---|
| Thunderbit | Chrome-extensie | ✅ | ✅ (6 pagina’s gratis) | ✅ (template met 1 klik) | Excel, Sheets, Airtable, Notion, CSV, JSON | ✅ | ✅ |
| Bright Data | API + Dataset-marktplaats | ⚠️ Gedeeltelijk | ⚠️ Alleen proefperiode | ✅ | JSON, NDJSON, CSV, webhooks, S3, GCS, Snowflake | ✅ | ✅ |
| Oxylabs | API + proxy | ❌ | ⚠️ Proefperiode (2.000 resultaten) | ⚠️ Gedeeltelijk (handleiding, geen template) | JSON, CSV via workflow | ✅ | ✅ |
| Zyte | API + Auto-Extract | ⚠️ Gedeeltelijk | ✅ ($5 tegoed) | ❌ | JSON, CSV | ✅ | Gedeeltelijk |
| ScrapingBee | API | ❌ | ✅ (1.000 credits) | ❌ | JSON, HTML | ✅ | Aangepast |
| Apify | Cloud Actors | ⚠️ Gedeeltelijk | ✅ ($5/maand tegoed) | ✅ (community actor) | JSON, CSV, XML, Excel, JSONL | ✅ | ✅ |
| Decodo / Smartproxy | API + proxy | ❌ | ✅ (proefperiode van 7 dagen, 1.000 aanvragen) | ✅ | HTML, JSON, geparseerde CSV | ✅ | Gedeeltelijk |
| ScraperAPI | API + pipeline | ❌ | ⚠️ (proefperiode van 7 dagen) | ✅ | HTML, JSON, CSV, Markdown | ✅ | ✅ |
| Outscraper | Cloud scraper | ⚠️ Gedeeltelijk | ✅ (gratis tot 500 listings) | ✅ | CSV, Excel, Parquet, JSON | ✅ | Gedeeltelijk |
| NetNut | Proxy / unblocker | ❌ | ⚠️ Alleen proefperiode | ❌ | Geen ingebouwde output | ❌ | ❌ |
Eén patroon valt direct op: Thunderbit is de enige tool die no-code, een speciale Zillow-template, enrichment van subpagina’s en gratis export naar zakelijke tools zoals Sheets en Airtable combineert. Als je een developer bent, bieden Bright Data en ScraperAPI de diepste Zillow-specifieke API-dekking.
1. Thunderbit
is de tool die mijn team en ik specifiek hebben gebouwd voor mensen die webdata willen zonder code te schrijven. Het is een AI-gedreven Chrome-extensie die direct in je browser werkt — je bezoekt een pagina, klikt op een knop en krijgt gestructureerde data geëxporteerd naar je favoriete tool.
Belangrijkste functies voor Zillow-scraping
Specifiek voor Zillow biedt Thunderbit een die vooraf is opgebouwd om listingdata direct te extraheren. Geen AI-credits nodig voor template-gebaseerd scrapen — de template weet al welke velden moeten worden opgehaald (adres, prijs, slaapkamers, badkamers, m², makelaarsinformatie, Zestimate, listing-URL, afbeeldingen en meer).
Als je op een niet-standaard Zillow-pagina zit of aangepaste velden wilt, leest de functie AI Suggest Fields de pagina en stelt automatisch kolomnamen voor. Je kunt ook subpages scrapen: scrape een zoekresultatenpagina van Zillow en klik daarna op “Scrape Subpages” om elke listing te verrijken met gedetailleerde objectdata zoals prijshistorie, belastinggeschiedenis, VvE-kosten, Walk Score en Transit Score.
Paginering werkt zowel bij klik-gebaseerde als infinite-scroll lay-outs. Er zijn ook gratis e-mail- en telefoonextractors om contactgegevens van makelaars kosteloos uit listings te halen, plus een geplande scraper die je in gewoon Nederlands kunt instellen (bijv. “elke maandag om 9:00”) voor doorlopende prijsmonitoring.
Export- en integratieopties
Hier loopt Thunderbit echt voor op niet-technische gebruikers. Export naar Excel, Google Sheets, Airtable, Notion, CSV of JSON is volledig gratis — er zit geen paywall op exports. Wanneer je exporteert naar Airtable of Notion, verschijnen woningfoto’s als echte afbeeldingsvelden, niet alleen als URL’s. Dat is belangrijk als je een vastgoeddatabase bijhoudt of listings met klanten deelt.
Prijs en gratis pakket
- Gratis pakket: 6 pagina’s (10 met gratis proefperiode), plus volledig gratis e-mail/telefoon-/afbeeldingsextractors en data-export
- Creditsysteem: 1 credit = 1 uitvoerregel; template-scraping verbruikt geen AI-credits
- Betaalde pakketten beginnen rond $15/maand per maand of $9/maand per jaar
- Browser-scraping gebruikt je inlogsessie; cloud-scraping verwerkt tot 50 pagina’s tegelijk voor publiek beschikbare data
Waarom het eruit springt
Omdat Thunderbit in je echte Chrome-browser draait, gebruikt het je echte cookies, fingerprints en ingelogde status — waardoor veel van Zillow’s fingerprintingcontroles op natuurlijke wijze worden omzeild, zonder proxy-instelling. De AI leest de site elke keer opnieuw, dus wanneer Zillow zijn lay-out verandert (wat vaak gebeurt), hoef je je scraper niet opnieuw op te bouwen. Twee klikken: “AI Suggest Fields” → “Scrape” → klaar. En het ondersteunt 34 talen, wat mooi meegenomen is als je met internationale teams werkt.
Het meest geschikt voor: makelaars, investeerders, marketingteams en iedereen die Zillow-data in een spreadsheet wil zonder een API-sleutel aan te raken.
2. Bright Data
is het grootste en meest uitgebreide dataplatform in deze lijst. Als Thunderbit het zakmes is dat je pakt voor dagelijkse taken, dan is Bright Data de volledige machinewerkplaats voor enterprise-teams die productiepipelines bouwen.
Belangrijkste functies voor Zillow-scraping
Bright Data biedt een als onderdeel van zijn bibliotheek met meer dan 437 scrapers. Het haalt stad, staat, woningstatus, kamers, bouwjaar, Zestimate, prijshistorie, makelaarsinformatie, foto’s en meer op. Er is ook een -product — vooraf verzamelde Amerikaanse vastgoedrecords voor bulk historische analyses zonder dat je zelf een scraper hoeft te draaien.
Aan de infrastructuurkant heeft Bright Data een speciale Zillow CAPTCHA-oplosser voor PerimeterX-uitdagingen, een Scraping Browser (beheerde cloudbrowser met ingebouwde unblocking), meer dan 400 miljoen residentiële IP’s in 195 landen, en een .
Prijs
- Betaal-per-succes: ongeveer $2,50 per 1.000 succesvolle records voor de webscraper
- Dataset-prijzen vanaf $0,50 per 100K records op schaal
- Residentiële proxies vanaf $8,40/GB
- Gratis proefperiode met 1.000 aanvragen, geen creditcard vereist
Voor- en nadelen
- Pluspunten: hoogste onafhankelijke benchmark-succeskans (gerapporteerd op 98,44%), geïntegreerd ecosysteem met scraper + dataset + proxy + delivery, pay-per-success-model
- Minpunten: hogere instapkosten voor kleine projecten, het grote aantal productopties kan overweldigend zijn voor beginners, niet ontworpen voor niet-technische spreadsheetgebruikers
Het meest geschikt voor: enterprise-datateams, PropTech-bedrijven en iedereen die een Zillow-datapipeline op grote schaal bouwt.
3. Oxylabs
is een enterprise-grade aanbieder van proxy- en scraping-API’s. Er is geen consumentenpagina met een speciale Zillow-template, maar wel een uitgebreide die is gebouwd op de Web Scraper API.
Belangrijkste functies
- Web Scraper API met rotatie van residentiële proxies
- Meer dan 100 miljoen residentiële proxies
- JavaScript-rendering voor dynamische Zillow-pagina’s
- Toegewijd accountmanagement voor enterprise-klanten
- Gedocumenteerde veldextractie voor Zillow: adres, prijzen, foto’s, slaapkamers/badkamers/m², info over de vermelding, tijd op Zillow, views/saves, geschatte marktwaarde, prijshistorie, openbare belastinggeschiedenis
Prijs en toegang
- Gratis proefperiode tot 2.000 resultaten op de Web Scraper API
- Pakketten vanaf ongeveer $49/maand
- Generieke “Other”-doelen geprijsd vanaf ongeveer $1,50 per 1.000 resultaten; met JS-rendering vanaf ongeveer $3,50
- Output: JSON, CSV via client-workflow
Voor- en nadelen
- Pluspunten: zeer hoge succeskansen in onafhankelijke benchmarks, enterprise support, enorme proxy-pool
- Minpunten: code vereist, geen Zillow-specifieke template-UI, niet geschikt voor niet-technische gebruikers
Het meest geschikt voor: enterprise developmentteams die robuuste proxy-infrastructuur en hoge betrouwbaarheid nodig hebben voor het verzamelen van Zillow-data.
4. Zyte
is opgericht door de makers van Scrapy, dus als je team al in het Scrapy-ecosysteem werkt, is Zyte een logische keuze. De API biedt AI-gestuurde automatische extractie waarmee je gestructureerde data van webpagina’s kunt parsen zonder eigen selectors te schrijven.
Belangrijkste functies
- Zyte API met automatische extractie (AI-gedreven)
- Slimme proxyrotatie en anti-botafhandeling
- Diepe integratie met Scrapy
- Snelle responstijden in onafhankelijke benchmarks
- Ondersteuning voor het dattype vastgoed, met velden voor prijzen, objectspecificaties, beschrijvingen, afbeeldingen, locatie en beschikbaarheid
Prijs en gratis pakket
- $5 gratis tegoed voor 30 dagen
- Gebruik-gebaseerde prijsstelling; concurrerende CPM in benchmarks
- Geen speciale Zillow-template — gebruikt generieke auto-extractie
Voor- en nadelen
- Pluspunten: zeer snelle responstijden, sterke integratie met het Scrapy-ecosysteem, AI-gestuurde extractie vermindert onderhoud aan selectors
- Minpunten: slechts gedeeltelijke no-code-ondersteuning, geen Zillow-specifieke template, alleen JSON-output, technische setup vereist
Het meest geschikt voor: technische teams die al Scrapy gebruiken of AI-gestuurde auto-extractie nodig hebben voor langdurige Zillow-pipelines.
5. ScrapingBee
is een van de eenvoudigste scraping-API’s die er zijn. Stuur een URL op en krijg gerenderde HTML of JSON terug. Niet specifiek voor Zillow, maar JavaScript-rendering en proxyrotatie zitten standaard inbegrepen.
Belangrijkste functies
- Eenvoudige REST API: één verzoek, gerenderde output
- JavaScript-rendering inbegrepen
- Ingebouwde proxyrotatie en anti-botafhandeling
- Duidelijke documentatie — ik vond de setup een van de snelste onder API-tools
Prijs en gratis pakket
- bij aanmelding (genoeg voor ongeveer 50–100 Zillow-pagina’s, afhankelijk van retries)
- Betaalde pakketten vanaf $49/maand
Voor- en nadelen
- Pluspunten: royaal gratis pakket, eenvoudige API-opzet, goede documentatie, betrouwbaar voor prototyping
- Minpunten: code vereist, geen Zillow-template, output is JSON/HTML (je moet het zelf parsen), geen enrichment van subpagina’s, geen native export naar spreadsheets
Het meest geschikt voor: developers die snel een Zillow-scrapingpipeline willen prototypen zonder zware infrastructuur op te zetten.
6. Apify
is een cloudplatform met een marktplaats van kant-en-klare scraping-“actors”. Voor Zillow zijn er meerdere door de community gebouwde actors — Search Scraper, Detail Scraper, API Scraper, ZIP Code Scraper — die je kunt draaien zonder je eigen extractielogica te schrijven.
Belangrijkste functies
- Meer dan 4 door de community gebouwde Zillow-actors met gedocumenteerde velddekking: zpid, status, prijs, Zestimate, Rent Zestimate, slaapkamers, badkamers, m², perceelgrootte, bouwjaar, woningtype, VvE-kosten, prijs per m², dagen op Zillow, adres, makelaar, agent, telefoon, beschrijving, foto’s, prijshistorie, belastinggeschiedenis, scholen, kenmerken
- Ingebouwde planning, proxyrotatie en paginering
- Scraping in twee stappen: Search Actor verzamelt URL’s, Detail Actor verrijkt elke listing
- Output in JSON, CSV, XML, Excel of JSONL
Prijs en gratis pakket
- op het gratis platformplan
- Betaalde plannen vanaf $49/maand; pay-as-you-go vanaf $0,25 per Compute Unit
Voor- en nadelen
- Pluspunten: speciaal gebouwde Zillow-actors met sterke velddekking, planning ingebouwd, gedeeltelijke no-code-ervaring via de platform-UI
- Minpunten: community-actors kunnen verouderen als Zillow zijn lay-out wijzigt, enrichment van subpagina’s hangt af van de kwaliteit van de actor, steilere leercurve dan een browserextensie
Het meest geschikt voor: gebruikers die comfortabel zijn met een cloudplatform-UI en kant-en-klare Zillow-workflows met planning willen.
7. Decodo (Smartproxy)
(voorheen Smartproxy) biedt een speciale Zillow Scraper API-pagina — meer dan de meeste proxy-aanbieders doen. Het combineert scraping-API-functionaliteit met rotatie van residentiële proxies en liet in bijna perfecte succeskansen op Zillow zien.
Belangrijkste functies
- Speciale Zillow Scraper API met target-specifieke positionering
- Gedocumenteerde Zillow-velden: prijsgegevens, objectdetails, huurwoningen, locatiegegevens, nabijgelegen woningen, listingstatus, belasting, makelaarsinformatie, feiten en kenmerken
- Ondersteuning voor JavaScript-rendering
- Rotatie van residentiële proxies
Prijs en toegang
- met 1.000 aanvragen
- Betaalde niveaus vanaf $9, $49, $99 en maatwerk
- Output: HTML, JSON, geparseerde CSV in sommige modi
Voor- en nadelen
- Pluspunten: sterke Zillow-specifieke documentatie, concurrerende prijs, hoge benchmark-succeskans op Zillow (gerapporteerd op 99,98% in Proxyway-tests)
- Minpunten: code vereist, geen no-code-optie, beperkte enrichment van subpagina’s, geen native export naar spreadsheets
Het meest geschikt voor: developers die een beheerde API specifiek voor Zillow willen, met sterke anti-botafhandeling tegen een concurrerende prijs.
8. ScraperAPI
heeft een van de meest expliciete Zillow-oplossingspagina’s onder API-tools. Het documenteert extractie van woningprijzen, adressen, foto’s, Zestimate, m², VvE, views/saves, tijd van listingupdate, aanbieder van de listing, reistijden, feiten en kenmerken, jaarlijks belastingbedrag, datum op de markt en perceel-/kavelgegevens.
Belangrijkste functies
- Speciale Zillow Scraper API-pagina met diepgaande velddocumentatie
- API-integratie in één regel
- Automatische proxyrotatie en anti-botafhandeling
- JavaScript-rendering
- DataPipeline-product voor planning, inclusief per uur via cron
- Output: HTML, JSON, CSV, Markdown, tekst
Prijs en gratis pakket
- 7-daagse gratis proefperiode
- Betaalde pakketten vanaf $49/maand (Hobby-plan en hoger)
Voor- en nadelen
- Pluspunten: een van de sterkst gedocumenteerde verhalen rond Zillow-enrichment, goede pipeline-tools voor terugkerende taken, expliciete documentatie op veldniveau
- Minpunten: code vereist, geen no-code-optie, API-first-output moet worden geparseerd voor spreadsheetgebruik
Het meest geschikt voor: developers die productieklare Zillow-datapipelines bouwen en gedetailleerde veldextractie plus planning willen.
9. Outscraper
is een cloudgebaseerde scrapingdienst met een speciale Zillow Search Scraper-pagina. Het is een van de eenvoudigere opties voor gebruikers die af en toe Zillow-data willen ophalen zonder zware setup.
Belangrijkste functies
- Cloudgebaseerde UI met focus op Zillow-scraping
- Gestructureerde output: listings, prijzen, adressen, beschrijvingen, foto’s
- Export naar CSV, Excel, Parquet, JSON
- Gedeeltelijke no-code-ervaring via het webdashboard
Prijs en gratis pakket
- Ongeveer $2 per 1.000 records na 500 listings
- Zakelijk tarief ongeveer $1 per 1.000 na 5.000 listings
Voor- en nadelen
- Pluspunten: gericht op Zillow, gedeeltelijke no-code-ervaring, meerdere exportformaten, zeer betaalbaar op schaal
- Minpunten: klein gratis quotum, geen enrichment van subpagina’s, lichtere documentatie dan de koplopers, minder integratiemogelijkheden dan Thunderbit
Het meest geschikt voor: eenmalige of incidentele Zillow-datapulls met een beperkt budget.
10. NetNut
is primair een aanbieder van proxies en website-unblockers. Er is geen speciale Zillow-scrapingtemplate of endpoint — alleen een over hoe je zelf een Zillow-scraper bouwt met hun proxy-infrastructuur.
Belangrijkste functies
- Groot netwerk van residentiële en ISP-proxies
- Snelle responstijden in benchmarktests
- Website Unblocker-product voor het omzeilen van anti-botmaatregelen
- API-toegang voor integratie met eigen scraping-scripts
Prijs en toegang
- Geen publiek gratis pakket; proefperiode op aanvraag via formulier beschikbaar
- Website Unblocker begint bij $99/maand
- Geen Zillow-template — vereist een eigen scraping-setup
- Output: geen ingebouwde output (je regelt het zelf)
Voor- en nadelen
- Pluspunten: snelle proxy-infrastructuur, sterk netwerk voor gebruik met hoge volumes
- Minpunten: code vereist, geen no-code-optie, geen Zillow-template, geen native export, geen enrichment van subpagina’s — het is infrastructuur, geen kant-en-klare scraper
Het meest geschikt voor: teams die al hun eigen scrapinglogica hebben en betrouwbare proxy-/unblockerinfrastructuur nodig hebben voor grootschalige verzameling van Zillow-data.
Zillow’s anti-botverdediging: waarom je scraperkeuze ertoe doet
Dit verdient een eigen sectie, omdat dit veruit de meest voorkomende frustratie is die ik hoor van mensen die Zillow willen scrapen. Als je begrijpt waarom scrapers falen, kies je sneller de juiste tool.
Wat Zillow’s anti-botstack eigenlijk doet
. Dat is geen typfout. Zillow gebruikt PerimeterX (nu HUMAN Security) naast . Deze systemen:
- Vingerafdrukken van browsergedrag maken (muisbewegingen, renderpatronen, JavaScript-uitvoering)
- Automatiseringspatronen detecteren (headless browsers, snelle opeenvolging van verzoeken)
- Datacenter-IP’s direct blokkeren
- Geobfusceerde CSS-selectors gebruiken — automatisch gegenereerde class-namen die vaak veranderen en DOM-gebaseerde scrapers breken
Als je ooit een 403-fout of een CAPTCHA “druk en houd vast” hebt gekregen terwijl je Zillow probeerde te scrapen, dan was dat PerimeterX aan het werk.
Hoe verschillende typen scrapers met anti-bot omgaan
Browserextensies (zoals Thunderbit) draaien in de echte Chrome-sessie van de gebruiker. Ze nemen echte cookies, echte fingerprints en inlogstatus over — waardoor veel fingerprintingcontroles zonder proxy-instelling al worden omzeild. Thunderbit biedt ook cloud-scraping met ingebouwde anti-botafhandeling voor publiek beschikbare pagina’s.
API- en proxytools behandelen anti-bot via roterende residentiële proxies, browser-rendering aan serverzijde en retry-logica. Ze zijn effectief, maar vereisen configuratie — en je betaalt voor die infrastructuur.
DIY Python-scripts (met bijvoorbeeld BeautifulSoup, Selenium, enz.) vereisen handmatige proxyrotatie, headerbeheer en voortdurend onderhoud wanneer Zillow zijn verdediging aanpast. Op fora melden gebruikers consequent dat deze projecten vaak stuk gaan: “Scraping-projecten hebben voortdurend onderhoud nodig door veranderingen.”
Daarom is architectuur niet zomaar een technisch detail — het bepaalt direct of je scraper op Zillow echt werkt.
De strijd om het gratis pakket: Zillow scrapen met een budget van €0
Ik kon geen enkel concurrerend artikel vinden dat gratis opties echt goed behandelt — en dat is een gemiste kans, want veel lezers willen eerst testen voordat ze betalen. Dit kun je daadwerkelijk gratis doen:
| Tool | Gratis limiet | Zillow-specifiek? | Genoeg voor een test? |
|---|---|---|---|
| Thunderbit | 6 pagina’s (10 met proefperiode) + gratis export + gratis e-mail/telefoonextractors | ✅ Zillow-template inbegrepen | ✅ Genoeg voor 1–2 wijken |
| ScrapingBee | 1.000 API-credits | ❌ Generiek | ⚠️ Ongeveer 50–100 pagina’s, afhankelijk van retries |
| ScraperAPI | 7-daagse proefperiode | ❌ Generiek | ✅ Degelijk testvolume |
| Apify | $5 maandtegoed | ⚠️ Community Zillow-actor | ⚠️ Actor kan verouderd zijn |
| Zyte | $5 tegoed voor 30 dagen | ❌ Generiek | ⚠️ Vereist setup |
| Outscraper | Gratis tot 500 listings | ✅ Gericht op Zillow | ✅ Goed voor kleine tests |
| Decodo | 7-daagse proefperiode, 1.000 aanvragen | ✅ Zillow API | ✅ Degelijk testvolume |
| Bright Data | Proefperiode met 1.000 aanvragen | ✅ Zillow scraper | ⚠️ Alleen proefperiode |
| Oxylabs | Proefperiode tot 2.000 resultaten | ⚠️ Gedeeltelijk | ⚠️ Alleen proefperiode |
| NetNut | Proefperiode via formulier | ❌ | ⚠️ Alleen infrastructuur |
Eén ding dat het vermelden waard is: Thunderbit’s gratis data-export (Excel, Google Sheets, Airtable, Notion, CSV, JSON) is volledig gratis en zonder paywall. De meeste API-tools vereisen dat je zelfs op hun gratis pakket je eigen exportpipeline bouwt.
Als je gewoon één of twee wijken wilt testen om te zien of een tool past in je workflow, zijn Thunderbit’s gratis pakket en Outscraper’s gratis-tot-500-model de meest praktische startpunten voor niet-technische gebruikers. Voor developers bieden ScrapingBee’s 1.000 credits en Decodo’s 7-daagse proefperiode genoeg ruimte om te prototypen.
Van scrape naar spreadsheet: export-workflows die echt tellen
Ik blijf hierop terugkomen omdat dit precies het gat is dat ik het vaakst zie. Niemand wordt wakker met de gedachte: “Ik wil Zillow scrapen.” Mensen willen Zillow-data in hun spreadsheet, CRM of vastgoeddatabase zodat ze beslissingen kunnen nemen. Het scrapen is slechts het middel.
Welke exportformaten elke tool ondersteunt
De meeste API-tools leveren rauwe JSON. Prima voor developers, maar voor een makelaar die een vergelijkingsanalyse in Google Sheets nodig heeft, betekent rauwe JSON extra stappen — een parser schrijven, Zapier gebruiken of handmatig data herformatteren. De vergelijkingstabel hierboven laat het volledige beeld zien, maar kort samengevat:
- Thunderbit: directe export naar Excel, Google Sheets, Airtable, Notion, CSV, JSON — allemaal gratis
- Apify: JSON, CSV, XML, Excel, JSONL
- Outscraper: CSV, Excel, Parquet, JSON
- De rest: vooral JSON/HTML via API, waarvoor extra scripting nodig is om een bruikbaar formaat te krijgen
Zillow-data in Google Sheets of Excel krijgen met Thunderbit
De workflow is echt simpel: scrape een Zillow-zoekresultatenpagina → klik op export → kies Google Sheets of Excel → klaar. Geen parsing, geen Zapier, geen extra tools. Als je exporteert naar Airtable of Notion, verschijnen woningfoto’s als echte afbeeldingsvelden — niet alleen als URL-strings — wat handig is als je een visuele vastgoeddatabase bijhoudt.
Waarom dit belangrijker is dan je denkt
Voor teams die vastgoeddatabases onderhouden, CRM-imports uitvoeren of spreadsheets voor marktanalyse bouwen, is de “laatste mijl” van scrape naar bruikbare data precies waar de meeste tools tekortschieten. Een tool die schone, gestructureerde data direct in je zakelijke tools zet, bespaart per project uren aan vervolgwerk. In mijn ervaring is dit het verschil tussen een scraper die je één keer gebruikt en een scraper die onderdeel wordt van de dagelijkse workflow van een team.
Welke Zillow-scraper past bij JOUW workflow? Aanbevelingen per gebruikssituatie
Als je niet alle tien de beschrijvingen wilt lezen, is hier de korte route op basis van wat je echt probeert te doen.
Makelaar: leadgeneratie en contactextractie
Je hebt contactgegevens van FSBO- of verlopen listings nodig, telefoonnummers, e-mailadressen en basisgegevens van het object — geëxporteerd naar een spreadsheet of CRM.
Beste keuze: Thunderbit. De combinatie van een , gratis e-mail- en telefoonextractors en directe export naar Google Sheets is precies voor dit gebruiksscenario gebouwd.
Vastgoedinvesteerder: dealanalyse, vergelijkingsobjecten en objectgegevens
Je hebt bulk vastgoeddata nodig plus prijshistorie, belastinggeschiedenis en verrijkte velden van detailpagina’s voor ARV-analyse of cashflowmodellen.
Beste keuzes: Thunderbit (subpages scrapen voor verrijkte objectgegevens) voor kleinere batches, of (dataset met meer dan 173 miljoen records) voor grote historische of multi-market analyses.
Marketingteam: marktrapporten en concurrerende snapshots
Je hebt listingsnapshots per postcode nodig, geplande scrapes voor doorlopende monitoring en export naar Sheets voor rapporten richting klanten.
Beste keuze: Thunderbit (geplande scraper + export naar Google Sheets) voor teams die een no-code-workflow willen. Apify is een solide alternatief als je team comfortabel is met een cloudplatform en actor-gebaseerde planning wil.
PropTech-developer: een SaaS-product of datapipeline bouwen
Je hebt API-toegang met hoog volume, betrouwbare uptime, gestructureerde JSON-antwoorden en sterke anti-botinfrastructuur nodig.
Beste keuzes: Bright Data, Oxylabs, ScraperAPI of Zyte — allemaal bieden ze sterke API-infrastructuur met Zillow-specifieke documentatie of eindpunten.
Tot slot: de beste Zillow-scraper kiezen voor jouw behoefte
De “beste” Zillow-scraper hangt volledig af van je technische niveau, budget en wat je wilt bereiken.
Als je een niet-technische gebruiker bent die snel Zillow-data in een spreadsheet wil, is Thunderbit de duidelijke keuze. Het is de enige tool in deze lijst die no-code, een speciale Zillow-template, enrichment van subpagina’s, gratis export naar zakelijke tools en een browsergebaseerde architectuur combineert die Zillow’s anti-botbeveiliging op natuurlijke wijze afhandelt. Je kunt en het zelf zien — geen creditcard, geen API-sleutel, geen code.
Als je een developer bent die productiepipelines bouwt, bieden Bright Data, Oxylabs en Zyte de meest robuuste infrastructuur. ScraperAPI en Decodo zijn sterke middenklasse-opties met expliciete Zillow-ondersteuning.
Als je op je budget let en eerst wilt testen voordat je iets afneemt, begin dan met gratis pakketten van Thunderbit, Outscraper of ScrapingBee.
En als je infrastructuur voor grote hoeveelheden proxies nodig hebt, leveren Decodo en NetNut sterke basis — je hoeft alleen je eigen scrapinglogica mee te brengen.
Wat je ook kiest, het vastgoeddatalandschap in 2026 ontwikkelt zich te snel voor handmatig kopiëren en plakken. Kies een tool, test hem op een wijk of twee, en besteed je tijd weer aan het werk dat er echt toe doet — deals analyseren, klanten winnen en slimmere beslissingen nemen.
FAQ’s
Is het legaal om Zillow te scrapen?
Zillow toont publiekelijk veel vastgoedinformatie, maar de beperken geautomatiseerd scrapen, robots en het omzeilen van CAPTCHA’s expliciet. Het juridische beeld rond het scrapen van publiek beschikbare data blijft in beweging. Voor commercieel of grootschalig gebruik is het verstandig om Zillow’s voorwaarden door te nemen en juridisch advies in te winnen. Dit artikel gaat over tools en technologie, niet over juridisch advies.
Kan ik Zillow scrapen zonder te coderen?
Ja. Browserextensies zoals maken scrapen met 2 klikken mogelijk met vooraf gebouwde Zillow-templates. Geen API-sleutels, geen code, geen developer nodig. Je bezoekt een Zillow-pagina, klikt op “Scrape” en exporteert direct naar Excel of Google Sheets.
Hoeveel Zillow-listings kan ik gratis scrapen?
Dat hangt af van de tool. Thunderbit biedt 6 pagina’s gratis (10 met proefperiode) plus volledig gratis export. Outscraper is gratis tot 500 listings. ScrapingBee geeft 1.000 gratis API-credits. Apify biedt $5 aan gratis maandtegoed. Decodo heeft een 7-daagse proefperiode met 1.000 aanvragen. Voor de meeste gebruikers is Thunderbit’s gratis pakket genoeg om één of twee wijken te testen.
Wat is de beste Zillow-scraper voor makelaars?
Thunderbit — het combineert een , gratis e-mail- en telefoonextractors, directe export naar Google Sheets, geplande scraping en een no-code-interface die is ontworpen voor niet-technische gebruikers. Je hoeft geen API’s in te stellen, geen proxies te beheren en geen code te schrijven.
Waarom worden Zillow-scrapers geblokkeerd?
Zillow gebruikt om geautomatiseerde verzoeken te detecteren. Deze systemen analyseren browsergedrag, blokkeren datacenter-IP’s en gebruiken dynamische CSS-selectors die DOM-gebaseerde scrapers breken. Tools die datacenter-IP’s gebruiken of geen browser-fingerprintbeheer hebben, worden snel geblokkeerd. Browserextensies en tools op basis van residentiële proxies doen het beter omdat ze het gedrag van echte gebruikers nauwer nabootsen.
Meer lezen