Webdata is tegenwoordig dé standaard input voor sales, marketing en operations. Als je nog steeds alles met de hand copy-paste’t, dan loop je simpelweg achter.
Maar hier zit de adder onder het gras bij “gratis” scrapingtools: de meeste zijn niet écht gratis. Vaak krijg je een proefversie met keiharde limieten, of precies de functies die je nodig hebt verdwijnen achter een betaalmuur.
Ik heb 12 tools beoordeeld om te checken welke je op het gratis niveau ook echt werk laten verzetten. Ik heb Google Maps-vermeldingen gescrapet, dynamische pagina’s achter logins en PDF’s. Sommige tools leverden meteen. Andere kostten me rustig een hele middag.
Hier is de eerlijke breakdown — te beginnen met de tools die ik daadwerkelijk zou aanraden.
Waarom gratis scrapers belangrijker zijn dan ooit
Laten we eerlijk zijn: in 2026 is webscraping allang niet meer alleen iets voor hackers of data scientists. Het is een basisvaardigheid geworden voor moderne bedrijven, en de cijfers liegen er niet om. De markt voor webscrapingsoftware bereikte en ligt op koers om tegen 2032 meer dan te verdubbelen. Waarom? Omdat iedereen — van salesteams tot makelaars — webdata inzet om een voorsprong te pakken.
- Leadgeneratie: Salesteams scrapen directories, Google Maps en social media om gerichte prospectlijsten op te bouwen — zonder eindeloos handmatig zoeken.
- Prijsmonitoring & concurrentieonderzoek: E-commerce- en retailteams volgen SKU’s, prijzen en reviews van concurrenten om scherp te blijven (en ja: 82% van de e-commercebedrijven scrapen precies om deze reden).
- Marktonderzoek & sentimentanalyse: Marketeers bundelen reviews, nieuws en social buzz om trends te spotten en de merkreputatie te bewaken.
- Workflow-automatisering: Operations-teams automatiseren alles van voorraadchecks tot geplande rapportages en besparen zo wekelijks uren.
En een leuke statistiek: bedrijven die AI-gedreven webscrapers gebruiken, besparen vergeleken met handmatige methodes. Dat is niet “een beetje” tijd — dat is het verschil tussen om 18:00 of om 21:00 naar huis.

Hoe we de beste gratis data scraper tools selecteerden
Ik heb genoeg “beste webscraper”-lijstjes gezien die vooral marketingpraat napraten. Niet deze. Voor deze lijst heb ik gekeken naar:
- Echte bruikbaarheid van het gratis plan: Kun je met de gratis versie echt iets doen, of is het vooral lokaas?
- Gebruiksgemak: Kan iemand zonder code-ervaring binnen minuten resultaat halen, of heb je een PhD in Regex nodig?
- Ondersteunde websitetypes: Statisch, dynamisch, paginering, login vereist, PDF’s, social media — kan de tool met realistische situaties omgaan?
- Exportmogelijkheden: Krijg je je data zonder gedoe in Excel, Google Sheets, Notion of Airtable?
- Extra functies: AI-extractie, planning, templates, nabewerking, integraties.
- Match met gebruikersprofiel: Is dit voor business users, analisten of developers?
Daarnaast heb ik de documentatie doorgespit, onboarding getest en de limieten van de gratis plannen naast elkaar gelegd — want “gratis” is vaak minder gratis dan het klinkt.
In één oogopslag: 12 gratis data scrapers vergeleken
Hier is een snelle vergelijking om je te helpen de juiste tool te kiezen.
| Tool | Platform | Beperkingen gratis plan | Beste voor | Exportformaten | Unieke functies |
|---|---|---|---|---|---|
| Thunderbit | Chrome-extensie | 6 pagina’s/maand | Niet-programmeurs, business | Excel, CSV | AI-prompts, PDF/afbeeldingen scrapen, subpagina-crawl |
| Browse AI | Cloud | 50 credits/maand | No-code gebruikers | CSV, Sheets | Point-and-click robots, planning |
| Octoparse | Desktop | 10 taken, 50k rijen/maand | No-code, semi-tech | CSV, Excel, JSON | Visuele workflow, ondersteuning voor dynamische sites |
| ParseHub | Desktop | 5 projecten, 200 pagina’s/run | No-code, semi-tech | CSV, Excel, JSON | Visueel, ondersteuning voor dynamische sites |
| Webscraper.io | Chrome-extensie | Onbeperkt lokaal gebruik | No-code, eenvoudige taken | CSV, XLSX | Sitemap-gestuurd, community-templates |
| Apify | Cloud | $5 credits/maand | Teams, semi-tech, devs | CSV, JSON, Sheets | Actor marketplace, planning, API |
| Scrapy | Python-library | Onbeperkt (open source) | Developers | CSV, JSON, DB | Volledige codecontrole, schaalbaar |
| Puppeteer | Node.js-library | Onbeperkt (open source) | Developers | Custom (code) | Headless browser, dynamische JS-ondersteuning |
| Selenium | Multi-language | Onbeperkt (open source) | Developers | Custom (code) | Browserautomatisering, multi-browser support |
| Zyte | Cloud | 1 spider, 1 uur/job, 7 dagen retentie | Devs, ops-teams | CSV, JSON | Gehoste Scrapy, proxybeheer |
| SerpAPI | API | 100 zoekopdrachten/maand | Devs, analisten | JSON | Zoekmachine-API’s, anti-blokkering |
| Diffbot | API | 10.000 credits/maand | Devs, AI-projecten | JSON | AI-extractie, knowledge graph |
Thunderbit: de beste keuze voor AI-gedreven, gebruiksvriendelijke data scraping
Waarom staat bovenaan mijn lijst? Niet alleen omdat ik bij het team hoor — ik vind oprecht dat Thunderbit het dichtst in de buurt komt van een AI-stagiair die echt luistert (en niet om koffiepauzes vraagt).
Thunderbit voelt niet als “eerst de tool leren, dan scrapen”. Het is eerder alsof je een slimme assistent aanstuurt: je beschrijft wat je wilt (“Pak alle productnamen, prijzen en links van deze pagina”), en de AI regelt de rest. Geen XPath, geen CSS-selectors, geen Regex-gedoe. En als je subpagina’s wilt meenemen (zoals productdetailpagina’s of contactlinks), kan Thunderbit automatisch doorklikken en je tabel verrijken — opnieuw met één klik.
Wat Thunderbit echt onderscheidt, is wat er ná het scrapen gebeurt. Wil je samenvatten, vertalen, categoriseren of opschonen? De ingebouwde AI-nabewerking helpt je direct. Je krijgt dus niet alleen ruwe data, maar gestructureerde, bruikbare informatie die klaar is voor je CRM, spreadsheet of volgende project.
Gratis plan: Met de gratis proefperiode kun je tot 6 pagina’s scrapen (of 10 met de trial boost), inclusief PDF’s, afbeeldingen en zelfs social media-templates. Exporteren naar Excel of CSV is gratis, en je kunt functies proberen zoals e-mail/telefoon/afbeeldingen extractie. Voor grotere klussen ontgrendelen betaalde plannen meer pagina’s, directe export naar Google Sheets/Notion/Airtable, geplande scraping en instant templates voor populaire sites zoals Amazon, Google Maps en Instagram.
Wil je Thunderbit in actie zien? Bekijk de of ga naar ons voor snelle startvideo’s.
Opvallende functies van Thunderbit
- AI Suggest Fields: Beschrijf welke data je nodig hebt, en Thunderbit stelt automatisch de juiste kolommen en extractielogica voor.
- Subpagina’s scrapen: Klik automatisch door naar detailpagina’s of links en verrijk je hoofdtable — zonder handmatige setup.
- Instant templates: One-click scrapers voor Amazon, Google Maps, Instagram en meer.
- PDF- & afbeelding-scraping: Haal tabellen en data uit PDF’s en afbeeldingen met AI — zonder extra tools.
- Meertalige ondersteuning: Scrape en verwerk data in 34 talen.
- Direct exporteren: Stuur data rechtstreeks naar Excel, Google Sheets, Notion of Airtable (betaalde plannen).
- AI-nabewerking: Vat samen, vertaal, categoriseer en schoon data op tijdens het scrapen.
- Gratis e-mail/telefoon/afbeeldingen extractie: Pak contactgegevens of afbeeldingen van elke site met één klik.
Thunderbit overbrugt de kloof tussen “alleen data scrapen” en “data waar je echt iets mee kunt”. Voor business users is dit het meest overtuigende voorbeeld van een echte AI-data-assistent dat ik tot nu toe heb gezien.

De rest van de top 12: reviews van gratis data scraper tools
Hieronder de overige tools, gegroepeerd op wie er het meeste aan heeft.
Voor no-code & business users
Thunderbit
Boven al behandeld. De snelste start voor niet-programmeurs, met AI-functies en instant templates.
Webscraper.io
- Platform: Chrome-extensie
- Beste voor: Eenvoudige, statische sites; niet-programmeurs die wat trial-and-error niet erg vinden.
- Belangrijkste functies: Sitemap-gestuurd scrapen, ondersteunt paginering, export naar CSV/XLSX.
- Gratis plan: Onbeperkt lokaal gebruik, maar geen cloud-runs of planning. Alles handmatig.
- Beperkingen: Geen ingebouwde ondersteuning voor logins, PDF’s of complexe dynamische content. Alleen community support.
ParseHub
- Platform: Desktop-app (Windows, Mac, Linux)
- Beste voor: Niet-programmeurs en semi-technische gebruikers die tijd willen investeren om het te leren.
- Belangrijkste functies: Visuele workflow builder, ondersteunt dynamische sites, AJAX, logins, paginering.
- Gratis plan: 5 openbare projecten, 200 pagina’s per run, alleen handmatige runs.
- Beperkingen: Projecten zijn openbaar in het gratis plan (pas op met gevoelige data), geen planning, tragere extracties.
Octoparse
- Platform: Desktop-app (Windows/Mac), Cloud (betaald)
- Beste voor: Niet-programmeurs en analisten die veel power en flexibiliteit willen.
- Belangrijkste functies: Visueel point-and-click, ondersteuning voor dynamische content, templates voor populaire sites.
- Gratis plan: 10 taken, tot 50.000 rijen/maand, alleen desktop (geen cloud/planning).
- Beperkingen: Geen API, IP-rotatie of planning in het gratis plan. Voor complexe sites kan de leercurve stevig zijn.
Browse AI
- Platform: Cloud
- Beste voor: No-code gebruikers die eenvoudige scraping en monitoring willen automatiseren.
- Belangrijkste functies: Point-and-click robot recorder, planning, integraties (Sheets, Zapier).
- Gratis plan: 50 credits/maand, 1 website, tot 5 robots.
- Beperkingen: Beperkt volume, en bij complexe sites is er wat leertijd nodig.
Voor developers & technische gebruikers
Scrapy
- Platform: Python-library (open source)
- Beste voor: Developers die maximale controle en schaalbaarheid willen.
- Belangrijkste functies: Zeer aanpasbaar, geschikt voor grote crawls, middleware, pipelines.
- Gratis plan: Onbeperkt (open source).
- Beperkingen: Geen GUI, vereist Python-code. Niet geschikt voor niet-programmeurs.
Puppeteer
- Platform: Node.js-library (open source)
- Beste voor: Developers die dynamische, JavaScript-zware sites scrapen.
- Belangrijkste functies: Headless browser-automatisering, volledige controle over navigatie en extractie.
- Gratis plan: Onbeperkt (open source).
- Beperkingen: Vereist JavaScript-code, geen GUI.
Selenium
- Platform: Multi-language (Python, Java, enz.), open source
- Beste voor: Developers die browsers automatiseren voor scraping of testing.
- Belangrijkste functies: Multi-browser support, automatiseert klikken, scrollen en logins.
- Gratis plan: Onbeperkt (open source).
- Beperkingen: Langzamer dan headless libraries, vereist scripting.
Zyte (Scrapy Cloud)
- Platform: Cloud
- Beste voor: Developers en ops-teams die Scrapy-spiders op schaal willen draaien.
- Belangrijkste functies: Gehoste Scrapy, proxybeheer, job scheduling.
- Gratis plan: 1 gelijktijdige spider, 1 uur per job, 7 dagen dataretentie.
- Beperkingen: Geen geavanceerde planning in het gratis plan, Scrapy-kennis vereist.
Voor teams & enterprise
Apify
- Platform: Cloud
- Beste voor: Teams, semi-technische gebruikers en developers die kant-en-klare of custom scrapers willen.
- Belangrijkste functies: Actor marketplace (vooraf gebouwde bots), planning, API, integraties.
- Gratis plan: $5 credits/maand (genoeg voor kleine klussen), 7 dagen dataretentie.
- Beperkingen: Enige leercurve, gebruik is begrensd door credits.
SerpAPI
- Platform: API
- Beste voor: Developers en analisten die zoekmachinedata nodig hebben (Google, Bing, YouTube).
- Belangrijkste functies: Search API’s, anti-blokkering, gestructureerde JSON-output.
- Gratis plan: 100 zoekopdrachten/maand.
- Beperkingen: Niet bedoeld voor willekeurige websites, alleen via API.
Diffbot
- Platform: API
- Beste voor: Developers, AI/ML-teams en enterprises die gestructureerde webdata op schaal nodig hebben.
- Belangrijkste functies: AI-gedreven extractie, knowledge graph, article/product API’s.
- Gratis plan: 10.000 credits/maand.
- Beperkingen: Alleen API, technische kennis vereist, throughput is rate-limited.
Beperkingen van gratis plannen: wat “gratis” per tool echt betekent
Laten we eerlijk zijn: “gratis” kan van alles betekenen — van “onbeperkt voor hobbyisten” tot “net genoeg om je hooked te maken”. Dit is wat je in de praktijk krijgt:
| Tool | Pagina’s/rijen per maand | Exportformaten | Planning | API-toegang | Opvallende gratis limieten |
|---|---|---|---|---|---|
| Thunderbit | 6 pagina’s | Excel, CSV | Nee | Nee | AI Suggest Fields beperkt, geen directe export naar Sheets/Notion in gratis plan |
| Browse AI | 50 credits | CSV, Sheets | Ja | Ja | 1 website, 5 robots, 15 dagen retentie |
| Octoparse | 50.000 rijen | CSV, Excel, JSON | Nee | Nee | Alleen desktop, geen cloud/planning |
| ParseHub | 200 pagina’s/run | CSV, Excel, JSON | Nee | Nee | 5 openbare projecten, lage snelheid |
| Webscraper.io | Onbeperkt lokaal | CSV, XLSX | Nee | Nee | Handmatige runs, geen cloud |
| Apify | $5 credits (~klein) | CSV, JSON, Sheets | Ja | Ja | 7 dagen retentie, creditlimiet |
| Scrapy | Onbeperkt | CSV, JSON, DB | Nee | N.v.t. | Code vereist |
| Puppeteer | Onbeperkt | Custom (code) | Nee | N.v.t. | Code vereist |
| Selenium | Onbeperkt | Custom (code) | Nee | N.v.t. | Code vereist |
| Zyte | 1 spider, 1 uur/job | CSV, JSON | Beperkt | Ja | 7 dagen retentie, 1 gelijktijdige job |
| SerpAPI | 100 zoekopdrachten | JSON | Nee | Ja | Alleen search API’s |
| Diffbot | 10.000 credits | JSON | Nee | Ja | Alleen API, rate-limited |
Kortom: voor echte projecten bieden Thunderbit, Browse AI en Apify de meest bruikbare gratis trials voor business users. Voor doorlopend of grootschalig scrapen loop je snel tegen limieten aan en moet je upgraden of overstappen op open-source/code-oplossingen.
Welke data scraper tool past het best bij jouw situatie? (gids per gebruikersprofiel)
Gebruik dit spiekbriefje om te kiezen op basis van je rol en je technische comfort:
| Gebruikerstype | Beste tools (gratis) | Waarom |
|---|---|---|
| Niet-programmeur (Sales/Marketing) | Thunderbit, Browse AI, Webscraper.io | Snelst te leren, point-and-click, AI-hulp |
| Semi-technisch (Ops/Analist) | Octoparse, ParseHub, Apify, Zyte | Meer power, kan complexere sites aan, soms scripting mogelijk |
| Developer/Engineer | Scrapy, Puppeteer, Selenium, Diffbot, SerpAPI | Volledige controle, onbeperkt, API-first |
| Team/Enterprise | Apify, Zyte | Samenwerking, planning, integraties |
Praktijksituaties voor webscraping: vergelijking van tool-flexibiliteit
Zo scoren deze tools in vijf veelvoorkomende scenario’s:
| Scenario | Thunderbit | Browse AI | Octoparse | ParseHub | Webscraper.io | Apify | Scrapy | Puppeteer | Selenium | Zyte | SerpAPI | Diffbot |
|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Listings met paginering | Makkelijk | Makkelijk | Gemiddeld | Gemiddeld | Gemiddeld | Makkelijk | Makkelijk | Makkelijk | Makkelijk | Makkelijk | N.v.t. | Gemiddeld |
| Google Maps-vermeldingen | Makkelijk* | Moeilijk | Gemiddeld | Gemiddeld | Moeilijk | Makkelijk | Moeilijk | Moeilijk | Moeilijk | Moeilijk | Makkelijk | N.v.t. |
| Pagina’s met login | Makkelijk | Gemiddeld | Gemiddeld | Gemiddeld | Handmatig | Gemiddeld | Makkelijk | Makkelijk | Makkelijk | Makkelijk | N.v.t. | N.v.t. |
| PDF-data extractie | Makkelijk | Nee | Nee | Nee | Nee | Gemiddeld | Moeilijk | Moeilijk | Moeilijk | Moeilijk | Nee | Beperkt |
| Social media content | Makkelijk* | Gedeeltelijk | Moeilijk | Moeilijk | Moeilijk | Makkelijk | Moeilijk | Moeilijk | Moeilijk | Moeilijk | YouTube | Beperkt |
- Thunderbit en Apify bieden kant-en-klare templates/actors voor Google Maps en social media scraping, waardoor dit voor niet-technische gebruikers veel eenvoudiger wordt.
Plugin vs. desktop vs. cloud: wat is de beste ervaring met een webscraper?
- Chrome-extensies (Thunderbit, Webscraper.io):
- Voordelen: Je bent snel weg, draait in je browser, minimale setup.
- Nadelen: Vaak veel handwerk, gevoelig voor sitewijzigingen, beperkte automatisering.
- Thunderbit’s voordeel: AI vangt structuurwijzigingen op, navigeert subpagina’s en kan zelfs PDF’s/afbeeldingen scrapen — veel robuuster dan klassieke extensies.
- Desktop-apps (Octoparse, ParseHub):
- Voordelen: Krachtig, visuele workflows, kan dynamische sites en logins aan.
- Nadelen: Steilere leercurve, geen cloud-automatisering in gratis plannen, afhankelijk van OS.
- Cloudplatforms (Browse AI, Apify, Zyte):
- Voordelen: Planning, samenwerking, schaalbaarheid, integraties.
- Nadelen: Gratis plannen zijn vaak credit-based, setup kost tijd, soms API-kennis nodig.
- Open-source libraries (Scrapy, Puppeteer, Selenium):
- Voordelen: Onbeperkt, volledig aanpasbaar, ideaal voor devs.
- Nadelen: Code vereist, niet bedoeld voor business users.
Webscraping-trends in 2026: wat moderne tools onderscheidt
Webscraping in 2026 draait om AI, automatisering en integraties. Dit is wat er aan het schuiven is:
- AI-herkenning van structuur: Tools zoals Thunderbit detecteren automatisch datavelden, waardoor setup voor niet-programmeurs super eenvoudig wordt.
- Meertalige extractie: Thunderbit en anderen ondersteunen scraping én verwerking in tientallen talen.
- Directe integraties: Exporteer direct naar Google Sheets, Notion of Airtable — geen gedoe meer met CSV’s.
- PDF/afbeeldingen scrapen: Thunderbit loopt hier voorop met AI-extractie van tabellen uit PDF’s en afbeeldingen.
- Planning & automatisering: Cloudtools (Apify, Browse AI) laten je terugkerende scrapes instellen en daarna gewoon vergeten.
- Nabewerking: Samenvatten, vertalen, categoriseren en opschonen tijdens het scrapen — minder rommelige spreadsheets.
Thunderbit, Apify en SerpAPI lopen voorop in deze trends, maar Thunderbit valt vooral op doordat het AI-gedreven scraping toegankelijk maakt voor iedereen — niet alleen voor developers.

Meer dan scrapen: dataverwerking & value-add functies
Het gaat niet alleen om data binnenhalen — het gaat erom dat je er meteen iets mee kunt. Zo scoren de beste tools op nabewerking:
| Tool | Opschonen | Vertalen | Categoriseren | Samenvatten | Opmerkingen |
|---|---|---|---|---|---|
| Thunderbit | Ja | Ja | Ja | Ja | Ingebouwde AI-nabewerking |
| Apify | Gedeeltelijk | Gedeeltelijk | Gedeeltelijk | Gedeeltelijk | Afhankelijk van de actor |
| Browse AI | Nee | Nee | Nee | Nee | Alleen ruwe data |
| Octoparse | Gedeeltelijk | Nee | Gedeeltelijk | Nee | Enige veldverwerking |
| ParseHub | Gedeeltelijk | Nee | Gedeeltelijk | Nee | Enige veldverwerking |
| Webscraper.io | Nee | Nee | Nee | Nee | Alleen ruwe data |
| Scrapy | Ja* | Ja* | Ja* | Ja* | Als de developer het bouwt |
| Puppeteer | Ja* | Ja* | Ja* | Ja* | Als de developer het bouwt |
| Selenium | Ja* | Ja* | Ja* | Ja* | Als de developer het bouwt |
| Zyte | Gedeeltelijk | Nee | Gedeeltelijk | Nee | Enkele auto-extractie features |
| SerpAPI | Nee | Nee | Nee | Nee | Alleen gestructureerde zoekdata |
| Diffbot | Ja | Ja | Ja | Ja | AI-gedreven, maar alleen via API |
- Developer moet de verwerkingslogica zelf implementeren.
Thunderbit is de enige tool waarmee niet-technische gebruikers van ruwe webdata naar actiegerichte, gestructureerde inzichten kunnen gaan — in één workflow.
Community, support en leermateriaal: snel op weg
Documentatie en onboarding maken echt het verschil. Zo vergelijken de tools:
| Tool | Docs & tutorials | Community | Templates | Leercurve |
|---|---|---|---|---|
| Thunderbit | Uitstekend | Groeiend | Ja | Zeer laag |
| Browse AI | Goed | Goed | Ja | Laag |
| Octoparse | Uitstekend | Groot | Ja | Gemiddeld |
| ParseHub | Uitstekend | Groot | Ja | Gemiddeld |
| Webscraper.io | Goed | Forum | Ja | Gemiddeld |
| Apify | Uitstekend | Groot | Ja | Gemiddeld-hoog |
| Scrapy | Uitstekend | Enorm | N.v.t. | Hoog |
| Puppeteer | Goed | Groot | N.v.t. | Hoog |
| Selenium | Goed | Enorm | N.v.t. | Hoog |
| Zyte | Goed | Groot | Ja | Gemiddeld-hoog |
| SerpAPI | Goed | Middelgroot | N.v.t. | Hoog |
| Diffbot | Goed | Middelgroot | N.v.t. | Hoog |
Thunderbit en Browse AI zijn het meest laagdrempelig voor beginners. Octoparse en ParseHub hebben sterke resources, maar vragen wat meer geduld. Apify en developer tools hebben een steile leercurve, maar zijn wél goed gedocumenteerd.
Conclusie: de juiste gratis data scraper kiezen voor 2026
De kern: niet elke “gratis” data scraper is even bruikbaar. Kies op basis van je rol, je technische comfort en wat je precies wilt scrapen.
- Ben je een business user of niet-programmeur en wil je snel data — vooral van lastige sites, PDF’s of afbeeldingen — dan is Thunderbit de beste start. De AI-aanpak, prompts in gewone taal en nabewerking maken het het dichtst bij een echte AI-data-assistent. Probeer de gratis en ervaar hoe snel je van “ik heb deze data nodig” naar “hier is mijn spreadsheet” gaat.
- Ben je developer of heb je onbeperkte, volledig aanpasbare scraping nodig, dan zijn open-source tools zoals Scrapy, Puppeteer en Selenium de beste keuze.
- Voor teams en semi-technische gebruikers bieden Apify en Zyte schaalbare oplossingen voor samenwerking, met royale gratis tiers voor kleine klussen.
Welke workflow je ook hebt: begin met de tool die past bij je skills en je behoeften. En onthoud: in 2026 hoef je geen programmeur te zijn om webdata slim te gebruiken — je hebt vooral de juiste assistent nodig (en misschien wat humor als de robots sneller zijn dan jij).
Verder lezen? Bekijk meer gidsen en vergelijkingen op de , waaronder: