ScraperAPI에 가입하고 Hobby 플랜에서 "100,000 credits"를 확인한 뒤 스크래핑을 시작합니다. 그런데 3일 뒤 대시보드를 보니 크레딧의 80%가 사라졌고, 실제로 긁어온 페이지는 6,000개 정도뿐입니다. 대체 무슨 일이 있었던 걸까요? 핵심은 크레딧 배수 시스템입니다. 그리고 이 시스템은 대부분의 리뷰가 제대로 설명하지 않는, ScraperAPI에서 가장 중요한 요소입니다. 저는 몇 주 동안 ScraperAPI 문서를 파헤치고, 경쟁사 5곳의 실제 가격 데이터를 비교하고, Reddit과 Capterra의 모든 리뷰를 훑어봤습니다. 이 리뷰는 우리 팀이 처음 스크래핑 API를 검토하던 시절, 제가 꼭 읽고 싶었던 글입니다. 여기서는 크레딧의 실제 계산법부터 ScraperAPI가 강한 지점과 완전히 약한 지점, G2·Capterra·Reddit 전반에서 실제 사용자들이 하는 이야기까지 정리하고, 솔직히 말해 스크래핑 API가 정말 필요한지까지 함께 판단해보겠습니다.
ScraperAPI란 무엇이며, 누구를 위한 서비스인가?
ScraperAPI는 대규모 스크래핑 뒤에 숨어 있는 복잡한 인프라를 처리해주는 웹 스크래핑 API입니다. 50개 이상 국가에 걸친 의 프록시 로테이션, 자동 CAPTCHA 해결, JavaScript 렌더링, 자동 재시도까지 맡아줍니다. 간단한 API 호출로 URL을 보내면 HTML을 돌려주고, 구조화 데이터 엔드포인트를 사용하면 파싱된 JSON도 받을 수 있습니다. 이 회사는 2018년 Daniel Ni가 설립했으며, 라스베이거스에 본사가 있습니다. 현재 Deloitte, Sony, Alibaba를 포함한 를 지원하고 있고, 월 을 처리하고 있습니다.
주요 타깃은 커스텀 스크래핑 파이프라인을 만드는 개발팀과 기술 운영팀입니다. 코드를 작성하지 않는다면 ScraperAPI는 애초에 당신을 위한 도구가 아닙니다. (이 부분은 뒤에서 더 다룹니다.)
핵심 기능은 프록시 로테이션, JavaScript 렌더링, 지역 타깃팅, 인기 사이트용 구조화 데이터 엔드포인트, 실패 요청에 대한 자동 재시도입니다.
하지만 대부분의 리뷰가 놓치는 중요한 점이 하나 있습니다. ScraperAPI 가격 페이지에 적힌 크레딧 숫자는 배수 구조를 이해하지 못하면 상당히 오해하기 쉽습니다. 그래서 먼저 이 부분부터 보겠습니다.
ScraperAPI의 크레딧 시스템은 실제로 어떻게 작동하나? (대부분의 리뷰가 건너뛰는 부분)
ScraperAPI는 크레딧 기반 과금 방식을 사용합니다. 기본 개념은 단순합니다. 1 API 요청 = 1 크레딧. 하지만 실제로는 거의 그렇게 돌아가지 않습니다. 실제 크레딧 비용은 두 가지에 따라 달라집니다. 스크래핑하는 도메인과 활성화한 기능입니다. 그리고 이 비용은 직관적이지 않은 방식으로 누적됩니다.
가입 전에 누구나 먼저 봐야 할 크레딧 배수 표

파라미터를 하나도 건드리지 않았다고 해도, 어떤 웹사이트를 스크래핑하느냐에 따라 기본 크레딧 비용이 달라집니다.
| 도메인 카테고리 | 요청당 기본 크레딧 | 예시 |
|---|---|---|
| 일반 웹사이트 | 1 | 블로그, 뉴스 사이트, 단순 HTML |
| 이커머스 | 5 | Amazon, eBay, Walmart |
| SERP(검색엔진 결과) | 25 | Google, Bing |
| 소셜 미디어 | 30 |
여기에 기능 플래그가 추가 크레딧을 더합니다.
| 파라미터 | 추가 크레딧 | 비고 |
|---|---|---|
render=true (JS 렌더링) | +10 | 모든 플랜 |
screenshot=true | +10 | 모든 플랜 |
premium=true (프리미엄 프록시) | +10 | 모든 플랜 |
ultra_premium=true | +30 | 유료 플랜만 |
| 안티봇 우회(Cloudflare, DataDome, PerimeterX) | 각 +10 | 자동 감지됨 — 직접 선택하는 항목 아님 |
premium=true + render=true 조합 | +25 | +20이 아님 |
ultra_premium=true + render=true 조합 | +75 | +40이 아님 |
마지막 줄이 핵심입니다. 기능을 함께 쓰면 개별 비용을 단순 합산한 것보다 더 많은 크레딧이 듭니다. 프리미엄 프록시(+10)와 JavaScript 렌더링(+10)을 함께 쓰면 논리적으로는 추가 20크레딧이면 충분해 보이지만, ScraperAPI는 를 청구합니다. 울트라 프리미엄(+30)과 JavaScript 렌더링(+10)을 같이 쓰면 +40이 맞을 것 같지만 실제로는 입니다. 거의 두 배입니다. 이런 비선형 누적 구조는 눈에 띄게 문서화되어 있지 않으며, 사용자가 예상보다 훨씬 빨리 크레딧이 사라진다고 느끼는 주된 이유입니다.
추가 크레딧이 없는 파라미터는 다음과 같습니다. wait_for_selector, country_code, session_number, device_type, output_format, keep_headers=true, autoparse=true.
Free부터 Enterprise까지, 각 플랜이 실제로 제공하는 것
ScraperAPI의 은 다음과 같습니다.
| 플랜 | 월 요금 | 연간(월 환산) | API 크레딧 | 동시 스레드 | 지역 타깃팅 |
|---|---|---|---|---|---|
| Free | $0 | — | 1,000 | 5 | 없음 |
| Hobby | $49 | $44 | 100,000 | 20 | 미국 및 EU만 |
| Startup | $149 | $134 | 1,000,000 | 50 | 미국 및 EU만 |
| Business | $299 | $269 | 3,000,000 | 100 | 국가 단위(50개+ 국가) |
| Scaling | $475 | $427 | 5,000,000 | 200 | 국가 단위 |
| Enterprise | 맞춤형 | 맞춤형 | 5,000,000+ | 200+ | 국가 단위 |
이제 배수를 반영한 요청 1,000건당 실효 비용을 보겠습니다.
| 플랜 | 일반(1×) | JS 렌더링(10×) | 이커머스(5×) | SERP(25×) | 울트라 프리미엄 + JS(75×) |
|---|---|---|---|---|---|
| Hobby ($49) | $0.49 | $4.90 | $2.45 | $12.25 | $36.75 |
| Startup ($149) | $0.15 | $1.49 | $0.75 | $3.73 | $11.18 |
| Business ($299) | $0.10 | $1.00 | $0.50 | $2.49 | $7.48 |
| Scaling ($475) | $0.10 | $0.95 | $0.48 | $2.38 | $7.13 |
"100,000 credits"라고 광고하는 월 $49 플랜은, 보호된 사이트를 울트라 프리미엄 + JavaScript 렌더링으로 스크래핑할 경우 실제로는 1,333건밖에 처리하지 못합니다. 이는 수준으로, 완전 관리형 스크래핑 서비스보다 더 비싼 경우도 있습니다.
크레딧이 예상보다 빨리 사라지는 이유
사용자들이 흔히 당황하는 포인트는 세 가지입니다.
첫째, 도메인 기반 과금은 자동 적용됩니다. Amazon의 5배 배수나 Google의 25배 배수를 사용자가 직접 선택하는 것이 아닙니다. ScraperAPI가 도메인을 감지하는 순간 자동 적용됩니다. 안티봇 우회 크레딧(+10 for Cloudflare, DataDome, PerimeterX)도 감지되면 자동으로 붙습니다.
둘째, 크레딧은 이월되지 않습니다. 남은 크레딧은 됩니다. 누적되지 않습니다.
셋째, 이건 꽤 아픈 부분인데, Pay-As-You-Go는 Scaling 플랜($475/월) 이상에서만 사용 가능합니다. Hobby, Startup, Business 플랜에서 한가운데 크레딧이 떨어지면 다음 결제 주기까지 그냥 차단됩니다. 사실상 다음 단계로 업그레이드하는 것 외에는 선택지가 없습니다.
Reddit의 한 사용자는 Amazon 요청당 1크레딧 기준으로 6천만 크레딧이 $3,600 견적이었는데, 결제 후 사전 고지 없이 5배 배수가 적용됐다고 보고했습니다. 그 결과 6천만 플랜은 실제로 1,200만 요청분에 불과했으며, 기대치 대비 했다고 합니다.
DataPipeline 크레딧 함정
ScraperAPI의 노코드 DataPipeline 기능(스케줄 스크래핑 + 웹훅 전달)은 별도의, 훨씬 높은 크레딧 체계를 사용합니다. 기본 일반 요청은 표준 API 기준 1크레딧인데, DataPipeline에서는 입니다.
| 요청 유형 | 표준 API | DataPipeline | 비율 |
|---|---|---|---|
| 기본 일반 요청 | 1 | 6 | 6배 |
| 기본 이커머스 | 5 | 10 | 2배 |
| 기본 SERP | 25 | 30 | 1.2배 |
| 울트라 프리미엄 + JS(일반) | 75 | 80 | 1.07배 |
표준 크레딧 비용이라고 생각하고 노코드 파이프라인을 만든 사용자들은, 기본 요청부터 6배의 크레딧이 소모되는 걸 뒤늦게 알게 됩니다. 문서에는 나와 있지만, 직접 찾아봐야 합니다.
실제 요청당 비용: ScraperAPI vs 경쟁사
배수를 반영하지 않으면 가격 표시는 아무 의미가 없습니다. 저는 5개 제공업체의 현재 가격을 가져와, 약 $300/월 구간에서 세 가지 일반 시나리오로 통일해 비교했습니다.
기본 HTML 스크래핑(JS 없음, 프리미엄 프록시 없음)

| 제공업체 | 플랜 | 요청당 크레딧 | 실제 요청 수 | 1천 건당 비용 |
|---|---|---|---|---|
| ScrapingBee | Business $249 | 1 | 3,000,000 | $0.08 |
| ScraperAPI | Business $299 | 1 | 3,000,000 | $0.10 |
| Scrapfly | Startup $250 | 1 | 2,500,000 | $0.10 |
| ZenRows | Business $300 | $0.28/1K | ~1,071,000 | $0.28 |
| Bright Data | PAYG | $1.50/1K | ~200,000 | $1.50 |
JavaScript 렌더링이 필요한 경우
| 제공업체 | 플랜 | 요청당 크레딧 | 실제 요청 수 | 1천 건당 비용 |
|---|---|---|---|---|
| ScrapingBee | Business $249 | 5(기본 활성화) | 600,000 | $0.42 |
| Scrapfly | Startup $250 | 6 | 416,667 | $0.60 |
| ScraperAPI | Business $299 | 10 | 300,000 | $1.00 |
| ZenRows | Business $300 | 5× | ~214,000 | $1.40 |
| Bright Data | PAYG | 고정 요금 | ~200,000 | $1.50 |
프리미엄/주거용 프록시 + JavaScript 렌더링(보호된 사이트)
| 제공업체 | 플랜 | 요청당 크레딧 | 실제 요청 수 | 1천 건당 비용 |
|---|---|---|---|---|
| Bright Data | PAYG | 고정 요금 | ~200,000 | $1.50 |
| ScrapingBee | Business $249 | 25 | 120,000 | $2.08 |
| ScraperAPI | Business $299 | 25 | 120,000 | $2.49 |
| Scrapfly | Startup $250 | 31 | 80,645 | $3.10 |
| ZenRows | Business $300 | 25× | ~42,857 | $7.00 |
Bright Data의 Web Unlocker는 유일한 제공업체입니다. 모든 요청이 동일한 고정 요금으로 처리됩니다. 약 $300 구간에서는 보호된 사이트 스크래핑 기준으로 ScrapingBee와 ScraperAPI가 경쟁력이 있고, ZenRows가 가장 비쌉니다.
중요한 사용 습관 한 가지: ScrapingBee는 하며 비용은 5배입니다. ScrapingBee와 ScraperAPI를 직접 비교할 때는 반드시 같은 렌더링 설정으로 비교해야 합니다.
Scrape.do의 독립 분석에 따르면 ScraperAPI의 평균 비용은 로, 테스트한 모든 제공업체보다 비쌌고, 평균 응답 시간은 로 "가장 느린 제공업체 중 하나"였습니다. 계약 전에 알아둘 만한 정보입니다.
사이트별 성공률: ScraperAPI가 강한 곳과 약한 곳
모든 웹사이트에서 스크래핑 API가 똑같이 잘 작동하는 것은 아닙니다. Scrapeway의 2026년 4월 독립 벤치마크는 이를 매우 분명하게 보여줍니다.
사이트 카테고리별 성능
| 대상 사이트 | 성공률 | 평균 속도 | 1천 건당 비용(비즈니스 플랜) |
|---|---|---|---|
| Zillow | 100% | 10.5초 | $0.49 |
| Etsy | 99% | 4.8초 | $4.90 |
| Amazon | 98% | 6.5초 | $2.45 |
| 95% | 17.8초 | $14.70 | |
| Walmart | 93% | 11.4초 | $2.45 |
| Indeed | 90% | 15.8초 | $4.90 |
| StockX | 84% | 3.9초 | $4.90 |
| Realtor.com | 12% | 11.8초 | $0.49 |
| 0% | — | — | |
| Booking.com | 0% | — | — |
| Twitter/X | 0% | — | — |
전체 평균 성공률은 로, 업계 평균 58.2–59.5%보다 약간 높습니다. 평균 응답 시간은 5.2–7.3초로, 업계 평균 9.8초보다 빠릅니다.
ScraperAPI가 잘하는 영역
ScraperAPI는 이커머스(Amazon, Walmart, Etsy)와 부동산(Zillow)에서 확실히 강합니다. 이들 사이트의 구조화 데이터 엔드포인트는 파싱된 JSON을 높은 신뢰도로 반환합니다. 주 사용 목적이 Amazon 상품 페이지나 Google SERP를 스크래핑하는 것이라면, ScraperAPI는 충분히 괜찮은 선택입니다.
ScraperAPI가 약한 영역
소셜 미디어는 사실상 사각지대입니다. Instagram, Twitter/X, Booking.com은 모두 독립 테스트에서 성공률 0%를 기록했습니다. LinkedIn은 95%로 작동하지만, 요청당 30크레딧이라 비용이 꽤 높습니다.
로그인이 필요한 사이트는 명시적으로 불가입니다. ScraperAPI는 session_number 파라미터로 세션 유지(여러 요청 간 동일 IP)를 지원하지만, 합니다. 폼 입력, 2단계 인증, 복잡한 인증 흐름은 처리할 수 없습니다.
보호된 대상에서 오래된 데이터가 나올 수 있습니다. ScraperAPI는 어려운 대상에 대해 를 적용합니다. 즉, 가격이나 재고처럼 시시각각 변하는 데이터를 긁는다면 최대 10분 전 결과를 받을 수도 있습니다.
Proxyway의 2025년 벤치마크에서는 ScraperAPI가 Google 대상 인 81.72%를 기록했습니다.
사이트 카테고리 성능 요약
| 사이트 카테고리 | ScraperAPI 성능 | 알려진 문제 | 대안 후보 |
|---|---|---|---|
| Amazon / 이커머스 | ✅ 강함(SDP 엔드포인트) | 대규모일수록 크레딧 부담 큼 | Thunderbit 템플릿 (1클릭, 템플릿 자체는 행당 크레딧 없음) |
| Google SERP | ✅ 강함 | 지역 타깃팅에 추가 비용 발생; 한 벤치마크에서는 Google 성공률이 가장 낮음 | — |
| 부동산(Zillow) | ✅ 매우 우수(100%) | — | — |
| Instagram / 소셜 미디어 | ❌ 성공률 0% | 완전 실패 | Playwright + 프록시(직접 구축) |
| JS가 많은 SPA | ⚠️ 보통 | 10배 크레딧의 헤드리스 렌더링 필요 | Scrapfly, ZenRows |
| 로그인이 필요한 사이트 | ❌ ToS상 금지 | 세션/인증 지원 없음 | Thunderbit 브라우저 스크래핑 (로그인 세션 사용) |
| Booking.com / 여행 | ❌ 성공률 0% | 완전 실패 | Bright Data |
실제 사용자 평가는 어떤가: G2, Capterra, Reddit 종합
세 플랫폼의 피드백을 모아봤습니다. 현재 평점은 다음과 같습니다.
| 플랫폼 | 평점 | 리뷰 수 |
|---|---|---|
| G2 | 4.4/5 | 16 |
| Capterra | 4.6/5 | 62 |
| Trustpilot | 4.5/5 | 43 |
Capterra 세부 평점: 사용 편의성 4.9/5, 고객 지원 4.6/5, 기능 4.5/5, 가성비 4.5/5.
테마별 감성 요약
| 테마 | 긍정 신호 | 부정 신호 |
|---|---|---|
| 설정 난이도 / 문서 | "설정이 정말 쉽다. 몇 분 안에 스크래핑을 시작할 수 있다." — Latenode 커뮤니티; Capterra 사용 편의성 4.9/5 | — |
| 가격 투명성 | "입문 요금제가 합리적이다"(여러 Capterra 리뷰) | "크레딧 비용 구조가 헷갈릴 수 있다" — John S., Founder, Capterra (2025년 2월); "가격이 1000% 올랐고 품질은 떨어졌다" — CTO, Online Media, Capterra (2022년 9월) |
| 신뢰성 | "Amazon/Google에서는 잘 작동한다"(G2, Capterra) | "대량 작업에서는 ScraperAPI가 불안정해진다" — emcarter, Latenode; "일부 대상에서 실패율 80%"(Reddit) |
| 고객 지원 | "응답이 빠른 팀"(Capterra) | 한 사용자는 견적은 한 가격이었는데 청구는 5배로 됐다고 보고했고, 사전 고지가 없었다고 주장함(Reddit) |
| 장기적 가치 | 성공한 요청(200/404)만 과금 | "대규모 운영이라면 비용이 빠르게 누적된다"는 의견과 함께, 자체 인프라 구축이 "장기적으로 더 경제적"이라는 평가 — mikezhang, Latenode |
결론적으로, ScraperAPI는 초기 설정이 쉽고 널리 지원되는 인기 대상에서 안정적으로 작동한다는 평가를 받습니다. 불만은 주로 가격 충격(배수, 예기치 않은 인상)과 까다로운 대상에서의 신뢰성 문제에 집중됩니다.
ScraperAPI의 구조화 데이터 엔드포인트: 프리미엄 크레딧을 낼 가치가 있을까?
ScraperAPI는 5개 플랫폼에 걸쳐 를 제공하며, 원시 HTML이 아니라 파싱된 JSON을 반환합니다.
- Amazon(3개 엔드포인트): ASIN 기준 상품 상세, 검색 결과, 경쟁 오퍼. 가격, 평점, 설명, 리뷰, BSR, 이미지, 판매자 정보 등 18개 이상의 필드를 반환합니다. 를 지원합니다.
- Google(5개 엔드포인트): (일반 결과, 지식 그래프, 동영상, 관련 질문, 페이지네이션), 쇼핑, 지도, 뉴스, 채용.
- Walmart(4개 엔드포인트): 상품, 검색, 카테고리, 리뷰.
- eBay(2개 엔드포인트): 상품, 검색.
- Redfin(4개 엔드포인트): 검색, 에이전트 상세, 임대 매물, 매매 매물.
SDE는 Free를 포함한 모든 플랜에서 사용할 수 있습니다. ScraperAPI는 지원되는 SDE 도메인에서 을 주장하지만, 독립 벤치마크에서는 사이트에 따라 더 복합적인 결과가 나옵니다.
데이터 완성도
Amazon SDP는 ScraperAPI의 가장 강력한 기능입니다. 가격, 리뷰, BSR, 변형 옵션, 이미지, 판매자 정보 등 포괄적인 필드를 제공합니다. Google SERP SDP는 일반 검색 결과, 광고, 추천 스니펫, People Also Ask를 반환합니다. 이 두 플랫폼에서는 데이터 완성도가 상당히 좋습니다.
크레딧 효율성: SDP vs 직접 파싱
Business 플랜($299/월, 300만 크레딧)에서 SDE로 Amazon 상품 10,000개를 스크래핑하면 50,000크레딧(개당 5크레딧)이 들어가며, 플랜 가치로는 약 $5 수준입니다. 표준 요청(개당 1크레딧)으로 직접 파서를 만들면 10,000크레딧만 들지만, 파서를 개발하고 유지보수하는 데 개발자 시간이 필요합니다.
개발자가 없는 소규모 팀이라면 SDE가 실제 시간을 절약해줍니다.
대규모로 스크래핑하는 엔지니어링 역량이 있는 팀이라면 5배 크레딧 프리미엄은 정당화하기 어렵습니다.
SDPs와 노코드 스크래퍼 템플릿 비교
이 비교는 대부분의 리뷰가 말해주는 것보다 더 중요합니다. 은 Amazon, Shopify, Zillow, 그리고 를 위한 즉시 사용 가능한 스크래퍼 템플릿을 제공합니다. 코딩이 전혀 필요 없고, 템플릿 자체는 행당 크레딧 비용도 없습니다.
| 비교 항목 | ScraperAPI SDP(Amazon) | Thunderbit Amazon 템플릿 |
|---|---|---|
| 설정 시간 | 30~60분(코드 + API 연동) | 약 2분(확장 프로그램 설치, Amazon 열기, 템플릿 클릭) |
| 상품 1,000개당 비용(Business 플랜) | 약 $5(50,000크레딧, 크레딧당 $0.10) | 약 $16.50(Pro 기준 크레딧당 $0.0165로 1,000행 × 1크레딧) |
| 반환 필드 | 18개 이상(포괄적) | 상품명, 가격, 평점, 리뷰, 이미지, URL 등 |
| 내보내기 옵션 | JSON(파싱 코드는 필요) | Excel, CSV, Google Sheets, Airtable, Notion — 1클릭 |
| 유지보수 | ScraperAPI가 SDP를 유지 | Thunderbit 팀이 템플릿 유지 |
| 기술 수준 | Python/Node.js 필요 | 없음 |
개발팀이 대량의 Amazon 스크래핑을 운영한다면, ScraperAPI의 SDP는 규모가 커질수록 상품당 비용 효율이 좋습니다. 반면 코드 없이 Amazon 데이터를 스프레드시트로 받고 싶은 비기술 사용자라면 Thunderbit가 훨씬 빠르게 설정되고 사용도 쉽습니다.
스크래핑 API가 정말 필요할까? 대부분의 리뷰가 놓치는 노코드 경로
"Scraper API 리뷰"를 찾는 많은 사람들은 아직 API 기반 워크플로에 확정적으로 들어간 상태가 아닙니다. 오히려 API가 정말 필요한지부터 판단하고 있습니다.
생각보다 많은 사람들이 결국 필요하지 않습니다. 웹 스크래핑 API 시장은 규모로, 연 14~18% 성장 중이지만, 그 성장의 대부분은 기업 엔지니어링 팀이 이끌고 있습니다. 웹사이트에서 리드 500개만 뽑아오면 되는 세일즈 운영 담당자를 위한 시장은 아니라는 뜻입니다.
스크래핑 API vs 노코드 도구: 한눈에 보는 의사결정 프레임워크

| 비교 항목 | 스크래핑 API(ScraperAPI 등) | 노코드 도구(Thunderbit 등) |
|---|---|---|---|
| 최적 사용자 | 대규모 데이터 파이프라인을 만드는 개발자 | 비즈니스 사용자, 마케터, 세일즈 팀, 리서처 |
| 필요한 기술 | Python/Node.js, HTTP 개념, JSON 파싱 | 없음 — 브라우저에서 클릭만 하면 됨 |
| 설정 시간 | 최소 12시간(코드 + 테스트 + 디버깅) | 5분 이내 |
| 안티봇 대응 | 프리미엄 프록시(요청당 1075크레딧) | 실제 브라우저 세션 — 지문 추적을 자연스럽게 우회 |
| 로그인 필요 사이트 | ❌ ScraperAPI ToS상 금지 | ✅ Browser Scraping으로 기존 세션 사용 |
| 규모(페이지/일) | 월 10만300만+ 요청 | 비정기적 사용, 보통 하루 1,000페이지 이하 |
| 데이터 출력 | 원시 HTML 또는 JSON(파싱 코드 필요) | 바로 쓸 수 있는 행/열 구조 |
| 내보내기 | JSON, CSV(코드 필요) | Excel, CSV, Google Sheets, Airtable, Notion, Word, JSON |
| 유지보수 | 셀렉터, 재시도 로직, 인프라를 직접 수정해야 함 | 없음 — AI가 매번 페이지 구조를 다시 읽음 |
| 과금 단위 | 요청당 크레딧(가변: 175크레딧/요청) | 행당 크레딧(1크레딧 = 1행, 하위 페이지는 2크레딧) |
| 진입 가격 | 100K 크레딧에 월 $49 | 연간 기준 월 $9, 5,000크레딧 |
| 무료 요금제 | 월 1,000크레딧, 동시 5개 | 월 6페이지, 페이지당 30크레딧 |
| 가격 예측 가능성 | 낮음 — 배수 때문에 예상치 못한 비용 발생 | 높음 — 1행은 항상 1크레딧 |
스크래핑 API가 적합한 경우
- 개발자 또는 엔지니어링 팀이 있다
- 하루 10만 페이지 이상을 프로그램으로 스크래핑해야 한다
- 요청 헤더, 세션, 재시도 로직을 세밀하게 제어해야 한다
- 타깃 사이트가 잘 지원되는 편이다(Amazon, Google, Walmart, Zillow)
Thunderbit 같은 노코드 도구가 더 나은 경우
- 당신은 엔지니어링이 아니라 세일즈, 이커머스 운영, 마케팅, 부동산 업무를 한다
- 사이트마다 커스텀 파서를 만들지 않고 수십 개 사이트에서 데이터를 가져와야 한다
- Excel, Google Sheets, Airtable, Notion으로 바로 내보내고 싶다
- 로그인이 필요한 사이트도 스크래핑해야 한다(Thunderbit의 은 로그인 세션을 사용함)
- 사이트 레이아웃이 바뀌어도 코드 수정 없이 AI가 페이지를 매번 새로 읽어주길 원한다
- 하위 페이지 스크래핑이 필요하다: Thunderbit는 각 상세 페이지를 방문해 자동으로 행을 보강할 수 있다
의 사용 흐름은 정말 간단합니다. 확장 프로그램을 설치하고, 아무 페이지나 연 뒤, "AI Suggest Fields"를 클릭하고, "Scrape"를 누른 다음, 내보내면 됩니다. AI가 페이지의 데이터를 파악해 열을 제안해주므로, 셀렉터나 코드를 작성할 필요가 없습니다. 작동 방식이 더 궁금하다면 를 참고하세요.
가 클라우드 비용 초과를 경험했으며, 사용량 기반 과금에 안전장치가 없는 기업은 과금 충격 때문에 고 합니다. 변동형 API 비용에 한 번 데인 적이 있다면, 행당 크레딧 모델의 예측 가능성을 진지하게 고려할 만합니다.
한눈에 보는 ScraperAPI 장단점
| 장점 | 단점 |
|---|---|
| 강력한 프록시 인프라(4,000만+ IP, 50개+ 국가) | 혼란스러운 크레딧 배수 시스템 — 기능을 함께 쓰면 단순 합산보다 더 비쌈 |
| 뛰어난 문서와 쉬운 초기 설정(Capterra 사용 편의성 4.9/5) | 크레딧은 월별 이월되지 않음 |
| Amazon, Google, Zillow, Etsy에서 안정적 | Instagram, Twitter/X, Booking.com 성공률 0% |
| 성공한 요청(200/404)만 과금 | 404 응답도 크레딧을 소모함 |
| 파싱된 JSON을 반환하는 18개 구조화 데이터 엔드포인트 | 로그인 필요 사이트는 명시적으로 금지 |
| Free를 포함한 모든 플랜에서 사용 가능 | Pay-As-You-Go는 Scaling($475/월) 이상에서만 가능 |
| 7일 무조건 환불 정책 | 어려운 대상에 10분 강제 캐시 — 오래된 데이터 위험 |
| 30~35% YoY 매출 성장으로 개발이 활발한 편 | DataPipeline은 표준 API보다 최대 6배 크레딧 사용 |
| — | 미국 및 EU를 넘는 지역 타깃팅은 Business 플랜($299/월) 필요 |
| — | 사전 사용량 알림 없음 — 대시보드를 직접 확인해야 함 |
ScraperAPI를 최대한 활용하려면: 실전 팁
크레딧 소모를 매일 확인하세요
ScraperAPI의 는 평균 지연 시간, 스크래핑한 도메인, 동시성 같은 사용 통계를 제공합니다. 하지만 사전 알림은 없습니다. 크레딧이 부족해질 때 이메일이나 SMS로 알려주지 않습니다. 직접 확인해야 합니다. 분석 기록은 Hobby/Startup 플랜에서 2주, Business 이상에서 6개월로 제한됩니다.
첫 달에는 매일 대시보드를 확인하도록 캘린더 리마인더를 설정하세요. 자신이 쓰는 타깃에서 크레딧이 얼마나 빨리 소모되는지 감을 잡아야 합니다.
무료 티어로 먼저 대상 사이트를 테스트하세요
유료 플랜에 들어가기 전에, 1,000 무료 크레딧(그리고 5,000 크레딧의 7일 체험)을 사용해 실제 타깃 사이트의 성공률을 테스트하세요. 어떤 사이트가 JavaScript 렌더링이나 프리미엄 프록시를 필요로 하는지 기록해두면, 배수를 반영한 현실적인 월 비용을 추정할 수 있습니다.
꼭 필요할 때만 프리미엄 기능을 켜세요
ScraperAPI는 프리미엄 프록시나 JavaScript 렌더링을 자동 활성화하지 않습니다. render=true, premium=true, ultra_premium=true를 명시적으로 설정해야 합니다. 하지만 도메인 기반 과금은 자동입니다. Amazon은 항상 5크레딧, Google은 항상 25크레딧, LinkedIn은 항상 30크레딧입니다. 안티봇 우회 크레딧(+10 for Cloudflare, DataDome, PerimeterX)도 감지되면 자동으로 추가됩니다. 배치를 돌리기 전에 이 점을 꼭 이해하세요.
지원되는 사이트에서는 구조화 데이터 엔드포인트를 사용하세요
Amazon이나 Google을 스크래핑한다면, SDE는 더 많은 크레딧이 들더라도 개발 시간을 아껴줍니다. 지원되지 않는 사이트라면, 커스텀 파서를 만드는 것보다 가 더 빠르고 저렴한지 검토해보세요.
불안정한 대상에는 백업 플랜을 준비하세요
특정 사이트에서 ScraperAPI 성공률이 90% 이하라면, 해당 요청을 다른 제공업체로 돌리거나 브라우저 기반 도구를 쓰는 것이 좋습니다. 로그인 필요한 사이트는 ScraperAPI로는 그냥 안 됩니다. 대신 처럼 브라우저 세션 안에서 작동하는 도구가 필요합니다.
함정을 알아두세요
- 404 응답도 크레딧을 소모합니다 — ScraperAPI는 200과 404 상태 코드 모두 과금합니다
- 취소한 요청도 과금됩니다 — 70초 처리 창이 끝나기 전에 취소하면 청구됩니다
- 어려운 대상에는 10분 강제 캐시가 적용됩니다 — 오래된 데이터를 받을 수 있습니다
- Pay-As-You-Go는 Scaling($475/월) 이상에서만 제공됩니다 — 하위 플랜은 크레딧이 다 떨어지면 차단됩니다
- 미국 및 EU를 넘는 지역 타깃팅은 Business 플랜($299/월)이 필요합니다
핵심 정리: ScraperAPI는 당신에게 맞는 도구일까?
여러 조사를 거친 뒤 제가 내린 결론은 다음과 같습니다.
- ScraperAPI는 개발팀에게 괜찮은 선택입니다. Amazon, Google, Walmart, Zillow처럼 대량이면서도 잘 지원되는 타깃을 스크래핑할 때 특히 그렇습니다. 구조화 데이터 엔드포인트는 실제로 유용하고, 프록시 인프라도 크며, 문서 수준도 평균 이상입니다.
- 가장 큰 리스크는 크레딧 배수 시스템입니다. 배수가 어떻게 누적되는지 이해하지 못하면 과지출하게 됩니다. 광고된 크레딧과 실제 요청 수의 차이는 5~75배까지 벌어질 수 있습니다. 유료 플랜에 들어가기 전에, 자신의 사용 사례로 직접 계산해보세요.
- 신뢰성은 사이트에 따라 다릅니다. ScraperAPI는 이커머스와 부동산에서는 뛰어나지만, 구인 사이트와 소셜 미디어에서는 그저 그렇고, Instagram, Twitter/X, Booking.com에서는 사실상 쓸모가 없습니다. 모든 곳에서 동일하게 잘 될 거라고 기대하면 안 됩니다.
- 비기술 팀에게는 맞지 않는 도구입니다. 세일즈, 마케팅, 운영 업무를 하면서 코딩 없이 구조화된 데이터가 필요하다면, 같은 노코드 도구가 훨씬 적합합니다. AI 기반 필드 감지, 스프레드시트로 바로 내보내기, 하위 페이지 보강, 유지보수 부담 없음까지 제공합니다. 을 확인하거나 에서 튜토리얼을 시청해보세요.
- 예산이 제한된 개발자라면, 먼저 ScraperAPI 무료 티어로 실제 타깃에서 테스트한 뒤, ScrapingBee·Scrapfly·Bright Data와 실효 요청당 비용을 비교해보세요. 가장 저렴한 옵션은 사용 목적과 필요한 기능에 따라 완전히 달라집니다.
당신의 스크래핑 요구에 맞는 실제 숫자가 궁금하다면, ScraperAPI 무료 티어로 대상 사이트를 테스트해보거나, 해서 두 번의 클릭으로 어디까지 가능한지 확인해보세요. 에 대한 더 자세한 내용은 플랜 페이지를 참고하시면 됩니다.
FAQ
ScraperAPI는 무료인가요?
네, ScraperAPI는 월 이 포함된 무료 티어와 5,000 크레딧의 7일 체험을 제공합니다. 다만 JavaScript 렌더링, 프리미엄 프록시, 혹은 비용이 높은 도메인(Amazon = 5배, Google = 25배, LinkedIn = 30배)에 대한 크레딧 배수가 적용되므로, 실제 처리 가능량은 1,000 요청보다 훨씬 낮을 수 있습니다. 무료 티어에서는 울트라 프리미엄 프록시를 사용할 수 없습니다.
ScraperAPI는 요청당 얼마인가요?
기능 플래그와 대상 도메인에 따라 크게 달라집니다. 단순 HTML 사이트에 대한 일반 요청은 1크레딧입니다. Amazon 요청은 5크레딧, Google SERP 요청은 25크레딧입니다. JavaScript 렌더링을 켜면 10크레딧이 추가됩니다. 울트라 프리미엄 프록시와 JavaScript 렌더링을 함께 쓰면 요청당 75크레딧이 듭니다. Hobby 플랜($49/월, 10만 크레딧) 기준으로 보면, 요청당 $0.00049(일반)부터 $0.0368(울트라 프리미엄 + JS)까지 차이가 납니다. 자세한 내용은 위의 전체 비용 표를 참고하세요.
ScraperAPI는 Amazon 스크래핑에 좋은가요?
ScraperAPI의 Amazon Structured Data 엔드포인트는 가장 강력한 기능 중 하나로, 독립 벤치마크에서 을 보였고, 18개 이상의 필드를 포함한 포괄적인 파싱 JSON을 반환합니다. 하지만 Amazon 요청은 최소 5크레딧이 들어가므로 규모가 커질수록 비용이 빠르게 늘어납니다. 코드 없이 Amazon 데이터를 스프레드시트로 받고 싶은 소규모 팀이라면, 이 직접 내보내기가 가능한 1클릭 대안이 될 수 있습니다.
ScraperAPI 대안으로는 무엇이 있나요?
개발자 기준으로는 (기본 HTML에 가장 저렴), (JavaScript 렌더링 강점), (보호된 사이트에 최적, 렌더링과 무관한 고정 요금), 가 있습니다. 비기술 사용자에게는 가 있습니다. Excel, Google Sheets, Airtable, Notion으로 바로 내보낼 수 있는 노코드 AI Chrome 확장 프로그램입니다. 더 깊이 보려면 를 참고하세요.
ScraperAPI는 로그인 필요한 사이트도 스크래핑할 수 있나요?
ScraperAPI는 session_number 파라미터를 통해 세션 유지(여러 요청에서 같은 IP 사용)를 지원하지만, 합니다. 폼 입력, 2단계 인증, 복잡한 인증 흐름은 처리할 수 없습니다. 로그인 필요한 사이트에는, 사용 중인 브라우저 세션을 활용해 보이는 내용을 긁어오는 같은 브라우저 기반 도구가 더 안정적인 선택입니다.
더 알아보기