Trustpilot에는 가 127만 개 비즈니스에 걸쳐 쌓여 있지만, 그 데이터를 추출하도록 만들어진 스크래퍼 대부분은 몇 달 전에 이미 망가졌습니다. 최근에 리뷰를 가져오려 해 보셨다면, 악명 높은 10페이지 로그인 벽에 막혀 도구가 에러만 내뿜는 경험을 하셨을 가능성이 큽니다.
저는 지난 몇 주 동안 2026년에도 Trustpilot 리뷰 데이터를 안정적으로 추출할 수 있는 도구들을 테스트하고, 조사하고, 비교해 왔습니다. 상황은 상당히 바뀌었습니다. Trustpilot의 봇 방지 기능은 훨씬 더 공격적으로 변했고, Next.js 프런트엔드는 배포할 때마다 클래스명이 바뀌며, 가장 중요한 점은 인증 없이 접근할 수 있는 범위가 이제 리뷰 10페이지에서 끊긴다는 것입니다. 는 그 답답함을 정확히 보여 줬습니다. “스토어에 있는 어떤 액터도 작동하지 않는다”는 내용이었죠.
그렇다면 실제로 작동하는 도구는 무엇일까요? 저는 로그인 벽 처리 방식, 봇 방지 대응, 유지보수 부담, 그리고 마케터와 개발자 모두의 실사용 요구를 기준으로 다섯 가지 도구를 평가했습니다.
2026년에 Trustpilot 리뷰를 스크래핑하는 일이 생각보다 더 어려운 이유
Trustpilot은 단순한 정적 웹사이트가 아니어서, 기본적인 HTTP 요청을 던지고 BeautifulSoup로 파싱하는 식으로는 잘 안 됩니다. Next.js 기반의 현대적인 동적 렌더링 플랫폼이고, 지난 1년 동안 방어 수위도 눈에 띄게 높아졌습니다.
실제로 맞서야 하는 것들은 다음과 같습니다.

10페이지 로그인 벽. 이게 가장 큰 문제입니다. 에서도 Trustpilot이 로그인 프롬프트를 띄우기 전까지 리뷰 페이지를 처음 10페이지만 허용한다고 확인합니다. 리뷰가 2,000개인 비즈니스라면(페이지당 20개 기준 약 100페이지), 인증 세션이 없으면 데이터의 90%를 놓치게 됩니다.
봇 방지 기능. Trustpilot은 reCAPTCHA, 세션 기반 차단, CDN 수준의 요청 필터링, 브라우저 핑거프린팅을 사용합니다. 에서도 사이트가 “protected by reCAPTCHA” 상태이며, 기기 및 상호작용 신호를 수집한다고 명시합니다.
동적 CSS 클래스명. Trustpilot은 Next.js와 CSS 모듈을 사용하기 때문에 styles_reviewCardInner__EwDq2 같은 클래스명은 빌드 시 생성되고, Trustpilot이 업데이트를 배포할 때마다 바뀝니다. 은 바로 이런 셀렉터에 의존합니다. 즉, 그 튜토리얼을 따라 만든 코드는 Trustpilot이 프런트엔드를 한 번만 바꿔도 깨집니다.
DOM 구조 변화. 클래스명뿐 아니라 실제 HTML 계층도 바뀔 수 있습니다. 요소의 중첩 방식이 달라지고, 새로운 래퍼가 생기고, 페이지네이션 컴포넌트 구조도 재편됩니다.
Apify 액터든, Octoparse 워크플로든, 맞춤형 Python 스크립트든, CSS 셀렉터 기반 스크래퍼는 Trustpilot에서 구조적으로 취약합니다. 작동할 때는 잘 되지만, 안 될 때는 갑자기 안 됩니다. 그리고 “안 될 때”는 종종 몇 달이 아니라 몇 주 단위로 찾아옵니다.
최고의 Trustpilot 리뷰 스크래퍼를 고를 때 본 기준
저는 이 도구들을 단순히 “웹페이지를 스크래핑할 수 있나”라는 기준으로 평가하지 않았습니다. 이 목록의 모든 도구는 단순한 HTML 페이지에서 데이터를 가져올 수 있습니다.
진짜 질문은 이것이었습니다. 2026년의 Trustpilot 특유의 까다로운 조건을 제대로 처리할 수 있느냐는 것이죠.
가장 중요하게 본 항목은 다음과 같습니다.
| 기준 | Trustpilot에서 중요한 이유 |
|---|---|
| 로그인 벽 처리(10페이지 이상) | 대부분의 비즈니스는 리뷰가 200개를 훨씬 넘습니다. 10페이지 제한이 있으면 과거 데이터의 대부분을 놓치게 됩니다. |
| 봇 방지 우회 방식 | reCAPTCHA, 세션 차단, CDN 필터링은 허술한 스크래퍼를 바로 막아버립니다. |
| 셀렉터 내구성 / 유지보수성 | 생성된 CSS 클래스는 셀렉터 기반 도구를 자주 깨뜨립니다. 도구가 스스로 복구하나요? |
| 페이지네이션 지원 | 리뷰는 수백 페이지에 걸쳐 있습니다. 수동으로 한 페이지씩 추출하는 방식은 현실적이지 않습니다. |
| 노코드 vs 코드 필요 여부 | 마케터는 클릭형 인터페이스를 원하고, 개발자는 완전한 제어를 원합니다. |
| 가격 / 무료 플랜 | 예산이 민감한 팀은 도입 전에 비용 구조가 명확해야 합니다. |
| 내보내기 옵션 | 비즈니스 사용자는 단순한 원시 JSON보다 Google Sheets, Airtable, Notion을 원합니다. |

로그인 벽이 승부를 가릅니다.
도구가 10페이지를 넘지 못하거나, 최소한 인증된 접근 경로를 명확하게 제공하지 못한다면 2026년의 Trustpilot 스크래퍼로는 실용적이지 않습니다.
한눈에 보는 최고의 Trustpilot 리뷰 스크래퍼
전체 비교표는 다음과 같습니다.
| 도구 | 기술 수준 | 로그인 벽 처리 | 봇 방지 대응 | 페이지네이션 | 무료 플랜 | 내보내기 옵션 |
|---|---|---|---|---|---|---|
| Thunderbit | 노코드 | 브라우저 모드(로그인된 Chrome 세션 사용) | AI 의미 기반 추출이 레이아웃 변화에 적응 | 자동 감지, 다중 페이지 | 월 6페이지 무료 | Excel, Sheets, Airtable, Notion, CSV, JSON |
| Apify | 로우코드 | 액터별 상이, 일부는 10페이지 초과 시 쿠키 설정 필요 | 내장 프록시 회전, 액터별 상이 | 액터별 설정 가능 | 월 $5 플랫폼 크레딧 무료 | JSON, CSV, Excel, XML, RSS |
| Octoparse | 노코드(비주얼) | 수동 쿠키/세션 설정 필요 | IP 회전, 리저널 프록시, CAPTCHA 해결(유료) | 클릭/스크롤 워크플로 | 무료 플랜 + 14일 프리미엄 체험 | CSV, Excel, JSON, HTML, XML, 데이터베이스 |
| Web Scraper | 노코드(사이트맵) | 제한적 — 자체 가이드에서 10페이지 리뷰 제한을 문서화 | 유료 플랜에서 클라우드 + 프록시 | 설정 가능, JS 클릭 권장 | 무료 Chrome 확장 프로그램 | CSV, XLSX |
| ScraperAPI | 개발자용(Python) | 코드 수준의 세션/쿠키 관리 | 4천만 개+ 리저널 프록시, JS 렌더링, CAPTCHA 처리 | 코드 기반 | 7일 체험, API 크레딧 5,000개 | 개발자가 정의(예: CSV, JSON 등) |
1. Thunderbit
은 코드를 작성하지 않고도 웹사이트에서 구조화된 데이터를 얻어야 하는 비즈니스 팀을 위해 만든 AI 기반 Chrome 확장 프로그램입니다. Trustpilot용으로는 특히 을 제공해, 리뷰어 이름, 평점, 리뷰 제목, 리뷰 본문, 날짜, 비즈니스 응답을 두 번의 클릭만으로 추출할 수 있습니다.
제가 편파적일 수는 있습니다. 제가 이곳에서 일하니까요. 하지만 Thunderbit를 이렇게 만든 이유는 Trustpilot 스크래핑이 왜 어려운지와 직접 연결됩니다. 우리의 AI는 CSS 셀렉터에 의존하지 않고 페이지를 의미적으로 읽습니다. Trustpilot이 클래스명을 바꾸거나 DOM을 재구성해도, Thunderbit는 HTML의 정확한 주소가 아니라 페이지 요소의 의미를 찾기 때문에 적응할 수 있습니다.
Thunderbit가 10페이지 로그인 벽을 처리하는 방법
여기서 브라우저 모드가 중요합니다. Thunderbit는 사용자가 이미 Trustpilot에 로그인해 둔 같은 Chrome 브라우저 안에서 작동합니다. 브라우저 스크래핑 모드로 전환하면, 확장 프로그램은 인증 세션에서 보이는 페이지를 읽습니다. 프록시 꼼수도 없고, 쿠키 주입도 없고, Playwright 세션 풀도 필요 없습니다.
실제 작업 흐름은 간단합니다. Chrome에서 Trustpilot에 로그인한 뒤 원하는 리뷰 페이지로 이동하고, “AI Suggest Fields”를 클릭한 다음 “Scrape”를 누르면 됩니다. 그다음 페이지네이션은 자동으로 진행됩니다. 브라우저 세션이 접근할 수 있는 모든 페이지를 Thunderbit가 차례로 처리합니다.
Trustpilot이 바뀌어도 Thunderbit가 깨지지 않는 이유
우리의 가 이 차이를 직접 보여 줍니다. 기존 스크래퍼는 레이아웃이 바뀌거나 CSS 셀렉터를 업데이트해야 하면 깨지지만, Thunderbit는 특정 CSS에 의존하지 않고 콘텐츠를 이해하는 의미 기반 AI를 사용합니다. 동적 콘텐츠를 처리하고 자동 페이지네이션도 관리합니다.
이것은 styles_reviewCardInner__EwDq2 같은 클래스명으로 파싱하는 ScraperAPI 튜토리얼 코드와 대조적입니다. 그 셀렉터는 Trustpilot이 다음 배포를 할 때 깨질 가능성이 큽니다. 반면 Thunderbit의 AI는 “이 페이지에서 리뷰 본문은 어디에 있나요?”라고 묻지, “이 특정 div 클래스 안에는 뭐가 들어 있나요?”라고 묻지 않습니다.
Trustpilot 스크래핑을 위한 주요 기능
- AI Suggest Fields: 수동 설정 없이 리뷰 필드(이름, 평점, 날짜, 제목, 본문, 비즈니스 응답)를 자동 감지
- 두 번의 클릭으로 끝나는 작업 흐름: AI Suggest Fields → Scrape. 끝입니다.
- 로그인이 필요한 페이지용 브라우저 모드: 페이지 10페이지 이상 접근도 인증된 Chrome 세션 안에서 처리
- 자동 페이지네이션: 수동 개입 없이 다중 페이지 리뷰 세트를 처리
- 서브페이지 스크래핑: 개별 리뷰어 프로필을 방문해 보강 데이터 수집 가능
- 예약 스크래핑: 평판 추적용 주간 또는 월간 모니터링 설정 가능
- 내보내기: Google Sheets, Airtable, Notion, CSV, JSON — 모두 무료 포함
가격
- 무료 플랜: 월 6페이지, 신용카드 불필요
- 크레딧 기반 시스템: 1크레딧 = 출력 행 1개
- 유료 플랜: 기준 월 약 $9부터 시작
추천 대상: 코드를 건드리지 않고 Trustpilot 리뷰가 필요한 마케팅 팀, 운영팀, 비즈니스 사용자. 그리고 몇 주마다 깨지는 스크래퍼를 직접 유지보수하고 싶지 않은 분들.
2. Apify
는 다른 사용자와 Apify 팀이 만들어 둔 스크래핑 템플릿인 “액터(Actors)” 마켓플레이스를 갖춘 클라우드 기반 스크래핑 플랫폼입니다. Trustpilot의 경우, 스토어에는 여러 커뮤니티 유지보수 액터가 있고 신뢰도는 제각각입니다.
Apify의 장단점은 분명합니다. 강력할 수는 있지만 파편화돼 있습니다. 어떤 액터는 작동하고, 어떤 것은 더 이상 유지되지 않으며, 어떤 것은 10페이지 초과 접근에 쿠키가 필요합니다. 그리고 Reddit의 “스토어에 있는 어떤 액터도 작동하지 않는다”는 불만은 실제 상황을 반영합니다. Trustpilot 변경이 액터별 로직을 얼마나 빨리 망가뜨리는지 보여 주는 사례죠.
Trustpilot 액터와 알려진 한계
에는 여러 Trustpilot 액터가 있습니다. 그중 최소 하나(개발자 “burbn” 작성)는 10페이지를 넘는 페이지에는 쿠키 입력이 필요하다고 명시합니다. 또 다른 것들은 평점이 0.0이거나 사용자 수가 매우 적거나, 최근 수정일이 아주 가까워 유지보수는 계속되지만 신뢰도는 들쭉날쭉하다는 신호를 줍니다.
더 이상 사용되지 않는 액터들도 참고할 만합니다. 어떤 오래된 액터는 Trustpilot의 내장 __NEXT_DATA__ JSON을 직접 읽는 방식이었는데, DOM 파싱보다 빠른 영리한 접근이었지만 Trustpilot이 데이터 구조를 바꾸자 역시 깨졌습니다.
로그인 벽과 봇 방지 처리
- 로그인 벽: 선택한 액터에 완전히 좌우됩니다. 어떤 것은 10페이지 이상을 위해 쿠키 주입을 지원하지만, 어떤 것은 그렇지 않습니다.
- 봇 방지: Apify 플랫폼에는 프록시 회전과 컴퓨팅 유닛 기반 인프라가 포함됩니다. 리저널 프록시는 으로 제공됩니다.
- 유지보수: 액터가 깨지면, 유지보수자가 고쳐 주길 기다리거나, 다른 액터로 바꾸거나, 맞춤형 비공개 액터를 따로 의뢰해야 합니다.
가격
- 무료 플랜: 월 $5 선불 사용 크레딧, 신용카드 불필요
- Starter: 월 $9 + 사용량 과금
- Scale: 월 $99 + 사용량 과금
- 내보내기: JSON, CSV, Excel, XML, RSS(액터에 따라 다름)
추천 대상: 여러 액터를 비교하고, 쿠키를 설정하고, 문제가 생겼을 때 직접 해결할 수 있는 기술 사용자. 한 번 설정해 두고 잊어버리는 방식은 적합하지 않습니다.
3. Octoparse
는 시각적인 클릭형 워크플로 빌더를 갖춘 데스크톱 기반 노코드 스크래퍼입니다. Thunderbit의 두 번 클릭 방식과 ScraperAPI의 완전한 개발자 제어 사이에 위치한다고 볼 수 있습니다. 코드 없이 시각적으로 설정할 수 있지만, 여전히 워크플로를 직접 만들고 유지보수해야 합니다.
Octoparse에서 Trustpilot 스크래핑 설정하기
작업 흐름은 단순하지만 수동입니다.
- Trustpilot 비즈니스 리뷰 URL 붙여넣기
- 리뷰 요소(제목, 본문, 평점, 날짜, 리뷰어 이름)를 시각적으로 선택
- 다음 페이지 버튼을 사용해 페이지네이션 루프 정의
- 대기 시간 설정(reCAPTCHA 회피를 위해 2~5초 권장)
- 소규모 샘플은 로컬에서, 큰 작업은 클라우드에서 실행
도구에 익숙한 사람이라면 설정에 10~15분 정도 걸립니다. 다만 Octoparse는 DOM 요소에 연결된 시각적 셀렉터를 사용하기 때문에, Trustpilot이 페이지 구조를 바꿀 때마다 워크플로를 업데이트해야 합니다.
로그인 벽과 봇 방지 처리
- 로그인 벽: 수동 로그인/쿠키/세션 설정이 필요합니다. 자동으로 처리되지는 않습니다.
- 봇 방지: 에는 IP 회전, 리저널 프록시($3/GB), 자동 CAPTCHA 해결($천 건당 $1~1.5)이 포함됩니다.
- 유지보수: 중간 수준입니다. Trustpilot이 프런트엔드를 업데이트하면 워크플로를 다시 만들거나 조정해야 할 것으로 예상하세요.
가격
- 무료 플랜: 영구 무료, 10개 작업, 1개 기기, 로컬 추출, 월 최대 50,000행
- Standard: 월 $69(연간 청구)
- Professional: 월 $149
- 14일 프리미엄 체험: 클라우드 추출, 예약 실행, API, 템플릿 포함
- 내보내기: Excel, CSV, JSON, HTML, XML; 상위 요금제에서는 데이터베이스와 Google Sheets 지원
추천 대상: 시각적인 워크플로 제어를 원하고, 초기 설정 시간을 감수할 수 있으며, 페이지 변경 시 워크플로 유지보수도 가능하신 분들. 두 번 클릭 도구보다 더 많은 커스터마이징이 필요하지만 Python을 직접 작성하는 것보다는 덜 복잡한 환경을 원하는 팀에 좋습니다.
4. Web Scraper
는 사이트맵 기반 접근 방식을 사용하는 Chrome 확장 프로그램이자 클라우드 플랫폼입니다. Trustpilot에서 가장 강한 제공 항목은 으로, 비즈니스 이름, 카테고리, 주소, 평점, 리뷰 수, TrustScore, 웹사이트 URL 같은 회사 단위 데이터를 추출합니다.
리뷰 스크래핑만 놓고 보면, Web Scraper에는 꼭 짚고 넘어가야 할 제한 사항이 있습니다.
미리 만들어진 템플릿 vs 맞춤 설정
마켓플레이스 템플릿은 회사 탐색에는 잘 맞습니다. Trustpilot 카테고리 전반에서 비즈니스 프로필을 스크래핑하는 용도죠. 맞춤형 리뷰 추출은 Chrome 확장 프로그램 안의 Sitemap Wizard로 시각적으로 스크래퍼를 만들 수 있습니다.
에서는 Trustpilot이 페이지 간 콘텐츠를 동적으로 재정렬할 수 있어 결과가 밀리는 문제를 막기 위해 URL 기반 페이지네이션보다 JavaScript 클릭 페이지네이션을 권장합니다.
로그인 벽과 봇 방지 처리
여기서는 솔직해야 합니다. Web Scraper의 공식 가이드는 Trustpilot이 로그인 프롬프트를 띄우기 전에 리뷰 페이지를 처음 10페이지만 허용한다고 명시적으로 적고 있습니다. 이 가이드는 우회 방법을 제시하기보다 이 제한을 알려 주는 데 그칩니다.
- 로그인 벽: 제한적 처리. 10페이지 리뷰 제한이 자체 가이드에 문서화돼 있습니다.
- 봇 방지: 클라우드 플랜에는 프록시 지원이 포함되며, 가이드에서는 2~5초 지연과 낮은 동시성 사용을 권장합니다.
- 페이지네이션: 설정은 가능하지만, 비인증 접근에서는 실제로 처음 10페이지로 제한됩니다.
가격
- 무료 Chrome 확장 프로그램: 로컬 스크래핑, 기능 제한
- Project: 월 $50(5,000 URL 크레딧)
- Professional: 월 $100(20,000 URL 크레딧)
- Scale: 월 $200부터(조건부 무제한 URL 크레딧)
- 유료 클라우드 플랜 7일 무료 체험
- 내보내기: CSV, XLSX
추천 대상: Trustpilot 회사 프로필 스크래핑용 준비된 템플릿이 필요한 분들, 또는 처음 10페이지의 리뷰만 있으면 되는 분들. 리뷰가 아주 많은 비즈니스의 전체 리뷰 기록이 필요하다면 적합하지 않습니다.
5. ScraperAPI
는 개발자를 위한 스크래핑 인프라입니다. 클릭형 도구가 아니라, 파싱 로직을 작성하는 동안 봇 방지 대응을 처리해 주는 프록시/렌더링 계층입니다. 에서는 JS 렌더링, CAPTCHA 처리, 4천만 개 이상의 프록시를 내세우고 있습니다.
Python 개발자로서 추출 로직을 완전히 통제하고 싶다면, ScraperAPI가 필요한 기반 인프라를 제공합니다.
대신 유지보수도 전부 본인 책임입니다.
ScraperAPI로 맞춤형 Trustpilot 스크래퍼 만들기
은 Python + BeautifulSoup 워크플로를 보여 줍니다.
1import requests
2from bs4 import BeautifulSoup
3payload = {
4 "api_key": "YOUR_API_KEY",
5 "url": "https://www.trustpilot.com/review/example.com",
6 "render": "true",
7 "keep_headers": "true",
8}
9html = requests.get("https://api.scraperapi.com", params=payload).text
10soup = BeautifulSoup(html, "html.parser")
튜토리얼의 완성 코드에서는 pages_to_scrape = 10으로 설정되어 있어 공개 페이지 한계를 사실상 인정하고 있습니다. 10페이지 이상은 개발자가 인증 세션, 쿠키, 토큰을 직접 관리해야 합니다.
로그인 벽과 봇 방지 처리
- 로그인 벽: 코드 수준의 세션/쿠키 관리가 필요합니다. ScraperAPI는 프록시와 렌더링을 처리하고, 인증 로직은 본인이 담당합니다.
- 봇 방지: 자동 IP 회전이 되는 리저널 프록시 풀,
render=true를 통한 JS 렌더링, 스마트 프록시 회전을 통한 CAPTCHA 처리가 제공됩니다. 에서 이용 가능합니다. - 유지보수: Trustpilot이 클래스명을 바꿀 때마다(자주 그럽니다) 파싱 코드를 업데이트해야 합니다. 튜토리얼의
styles_reviewCardInner__EwDq2셀렉터는 이미 카운트다운이 시작된 상태입니다.
가격
- 7일 체험: , 신용카드 불필요
- Hobby: 월 $49(API 크레딧 100,000개)
- Startup: 월 $149(크레딧 1,000,000개)
- Business: 월 $299(크레딧 3,000,000개)
- 내보내기: 코드가 만들어 내는 모든 것(보통 CSV, JSON, 데이터베이스 기록)
추천 대상: 완전한 커스터마이징을 원하고, 자체 파싱 스크립트를 유지보수할 수 있으며, 세션 관리·페이지네이션 로직·데이터 구조를 프로그래밍 방식으로 제어해야 하는 개발자. 비기술 사용자에게는 맞지 않습니다.

Trustpilot 스크래퍼가 계속 깨지는 이유와, 안 깨지는 도구를 고르는 법
이건 Trustpilot 스크래퍼를 고를 때 가장 과소평가되는 요소입니다. 질문은 “이 도구가 오늘 작동하나?”가 아닙니다. “이 도구가 3주 뒤에도 작동할까?”가 핵심입니다.
Trustpilot에서 스크래퍼가 깨지는 이유는 크게 네 가지입니다.
-
생성된 CSS 클래스 변경. Next.js CSS 모듈은
styles_reviewCardInner__EwDq2같은 클래스명을 만듭니다. 이 이름들은 프런트엔드가 배포될 때마다 바뀝니다. 이런 클래스를 타깃으로 하는 스크래퍼는 전부 깨집니다. -
DOM 구조 변화. Trustpilot은 HTML 계층 구조를 다시 짤 수 있습니다. 리뷰 카드의 중첩 방식이 바뀌고, 래퍼 요소가 달라지고, 메타데이터 위치도 이동합니다.
-
봇 방지 트리거 변화. reCAPTCHA 기준선이 바뀌고, 세션 토큰 회전이 더 공격적으로 되며, CDN 필터링 규칙도 업데이트됩니다.
-
인증/세션 변화. 10페이지 로그인 벽은 2025년 말에 도입됐거나 더 엄격히 적용되기 시작했습니다. 앞으로도 언제든 추가 접근 제한이 생길 수 있습니다.
근본적인 아키텍처 차이는 셀렉터 기반 추출과 의미 기반 추출의 차이입니다.
-
셀렉터 기반 도구(Apify 액터, Octoparse 워크플로, ScraperAPI 스크립트, Web Scraper 사이트맵)는 “이 정확한 CSS 경로에 있는 요소를 찾아라”라고 묻습니다. 경로가 바뀌면 조용히 실패하거나 빈 데이터를 반환합니다.
-
의미/AI 기반 도구(Thunderbit)는 “이 페이지에서 리뷰 본문, 평점, 날짜를 찾아라”라고 묻습니다. AI는 페이지 콘텐츠를 주소가 아니라 의미로 해석합니다. 레이아웃이 바뀌어도 의미는 변하지 않기 때문에 깨지지 않습니다.
제 추천은 다음과 같습니다.
- 유지보수는 절대 못 하겠다? → AI 기반(Thunderbit)
- 유지보수는 조금 가능하고, 클라우드 자동화가 필요하다? → Apify(액터 선택과 모니터링 포함)
- 시각적 제어와 적당한 유지보수가 좋다? → Octoparse
- 템플릿 기반이고 범위가 제한적이면 충분하다? → Web Scraper
- 완전한 제어와 전부 직접 관리가 필요하다? → ScraperAPI
스크래핑한 Trustpilot 리뷰를 어떻게 활용할까
리뷰를 추출하는 것은 첫 단계일 뿐입니다. 포럼에서 제가 자주 보는 질문은 “데이터는 얻었는데, 이제 뭘 해야 하죠?”입니다.

감성 분석
가장 단순한 흐름은 리뷰를 Google Sheets로 내보낸 뒤, AI 도구(ChatGPT, Claude, 또는 Sheets의 AI 함수)를 사용해 각 리뷰를 긍정, 중립, 부정으로 분류하는 것입니다. 여기에 불만 유형, 긴급도, 권장 조치 우선순위 열을 추가할 수 있습니다.
더 큰 데이터셋이라면 CSV를 ChatGPT에 업로드하고 요약을 요청하세요. 예: “이 리뷰들을 감성별로 분류하고, 대표 인용문과 함께 상위 5개 불만 주제를 찾아줘.”
경쟁사 모니터링
Thunderbit의 예약 스크래핑을 사용해 경쟁사 리뷰를 주간 또는 월간 단위로 가져오세요. 다음 항목을 추적하면 됩니다.
- 시간에 따른 평균 평점 추세
- 1점 및 2점 리뷰 비중
- 리뷰 수 변화(리뷰가 늘고 있나요, 줄고 있나요?)
- 가장 흔한 불만 주제
- 비즈니스 응답률과 응답 속도
평점과 날짜 기준 피벗 테이블이 있는 간단한 Google Sheets 대시보드만 있어도 자동으로 업데이트되는 경쟁 인텔리전스 피드를 만들 수 있습니다.
주제 추출
리뷰를 다음과 같은 공통 범주로 묶을 수 있습니다. 배송/배달, 고객 지원, 환불, 제품 품질, 청구, 앱 사용성, 가격/가치, 사기 우려. 결과물은 주제, 개수, 평균 평점, 대표 인용문, 권장 비즈니스 조치를 보여 주는 표가 되어야 합니다.
이건 워드 클라우드보다 훨씬 유용합니다. 실제로 무엇이 만족이나 불만을 만들고 있는지 알려 주니까요.
여러 비즈니스를 한 번에 분석하기
카테고리 수준 리서치라면, 같은 Trustpilot 카테고리 안의 여러 비즈니스 리뷰를 스크래핑하세요. 전체 시장 세그먼트 전반에서 리뷰 수, 평점, 별점 분포, 주제별 비중을 비교할 수 있습니다. Web Scraper의 비즈니스 목록 템플릿은 기업을 찾아내는 데 유용하고, 각 비즈니스의 리뷰 수준 샘플링은 Thunderbit나 ScraperAPI가 처리할 수 있습니다.
Trustpilot 스크래핑의 법적·윤리적 고려 사항
저는 변호사가 아니며, 이건 법률 자문이 아닙니다. 하지만 컴플라이언스 현실은 중요합니다.
Trustpilot의 이용 약관은 명확합니다. 콘텐츠에 접근하거나 수집하는 것을 금지하며, 텍스트 마이닝, 데이터 마이닝, 웹 스크래핑도 명시적으로 언급합니다.
위험도 스펙트럼은 대략 이렇습니다.
- 낮은 위험: 자체 회사 리뷰를 내부 분석용으로 내보내는 경우, 특히 Trustpilot의 공식 비즈니스 도구나 API를 사용하는 경우
- 중간 위험: 시장 조사를 위해 경쟁사의 공개 페이지를 저용량으로 스크래핑하는 경우. 그래도 약관과 개인정보 의무의 적용을 받습니다.
- 높은 위험: 인증 벽 뒤의 10페이지 이상 콘텐츠를 스크래핑하거나, 기술적 통제를 우회하거나, 리뷰어 데이터를 재배포하거나, 스크래핑한 리뷰를 AI 모델 학습에 사용하는 경우
GDPR 고려 사항: 리뷰어 이름, 프로필 링크, 리뷰 본문, 위치 데이터는 EU 개인정보 보호법상 개인정보가 될 수 있습니다. 실무적 안전장치로는 필요한 필드만 수집하기, 내부 분석용으로 리뷰어 이름 해시 처리하기, 데이터 보존 기간 설정하기, 원문 리뷰를 대량으로 재게시하지 않기가 있습니다.
공개 데이터 vs 인증 데이터: 누구나 볼 수 있는 페이지(처음 10개 리뷰 페이지)를 스크래핑하는 것과 인증 벽 뒤의 데이터를 스크래핑하는 것 사이에는 법적·윤리적으로 분명한 차이가 있습니다. 공개 데이터만 사용하는 도구가 로그인 자격 증명이 필요한 도구보다 컴플라이언스 위험이 낮습니다.
이 점은 도구 선택에서 반드시 고려해야 합니다. Thunderbit의 브라우저 모드는 사용자의 세션에서 보이는 페이지를 사용하며, 인증을 독자적으로 우회하지 않습니다. ScraperAPI는 개발자에게 완전한 제어를 주는 대신 세션 관리의 적법성까지 모두 책임져야 합니다.
올바른 Trustpilot 리뷰 스크래퍼를 고르는 법
페르소나별 의사결정 기준은 다음과 같습니다.
- 코드 없이 리뷰가 필요한 비기술 마케터인가요? → Thunderbit. 두 번 클릭하면 끝나고, 나머지는 AI가 처리하며, Sheets/Notion/Airtable로 내보낼 수 있습니다.
- 설정과 디버깅에 익숙한 로우코드 사용자신가요? → Apify. 액터를 선택하고, 10페이지 이상용 쿠키를 설정하고, 깨짐 여부를 모니터링하세요.
- 워크플로 제어를 원하는 비주얼 빌더 사용자신가요? → Octoparse. 클릭형 설정이 가능하지만, Trustpilot이 바뀌면 유지보수가 필요합니다.
- 회사 수준 데이터나 처음 10페이지 리뷰만 필요하신가요? → Web Scraper. 비즈니스 프로필용 미리 만들어진 템플릿이 강합니다.
- 완전한 커스터마이징이 필요한 개발자신가요? → ScraperAPI. 파싱 로직, 세션 관리, 데이터 파이프라인을 직접 관리하세요.
유지보수 부담이 가장 중요하다면, 스펙트럼은 Thunderbit(거의 유지보수 없음)에서 ScraperAPI(전부 직접 유지보수)까지 이어집니다. 예산 측면에서는 이 목록의 모든 도구에 무료 시작점이 있으니, 도입 전에 먼저 그걸 사용해 보세요.
결론
Trustpilot 리뷰 데이터는 경쟁 인텔리전스, 평판 모니터링, 고객 인사이트 측면에서 정말 가치가 있습니다.
하지만 2026년에는 이를 안정적으로 추출하려면 10페이지 로그인 벽을 처리하고, DOM 변화에 적응하고, 봇 방지 보호를 별도의 수작업 개입 없이 관리할 수 있는 도구가 필요합니다.
대부분의 비즈니스 사용자에게 는 가장 수월한 선택입니다. 두 번 클릭, AI 기반 필드 감지, 인증된 페이지를 위한 브라우저 모드, 그리고 Trustpilot의 프런트엔드가 바뀌어도 유지보수할 일이 거의 없습니다. 월 6페이지까지, 신용카드 없이 .
완전한 제어가 필요한 개발자라면 ScraperAPI가 인프라를 제공합니다. 그 사이의 사용자라면 Apify, Octoparse, Web Scraper가 각자의 틈새를 채워 줍니다. 핵심은 자신의 기술 수준, 유지보수 허용 범위, 컴플라이언스 요구 사항에 맞는 도구를 고르는 것입니다.
Thunderbit가 Trustpilot을 어떻게 다루는지 직접 보고 싶다면, 에 안내 영상이 있습니다. 그리고 이나 에 대한 더 넓은 맥락이 필요하다면, 그 가이드들이 기본기를 잘 정리해 줍니다.
자주 묻는 질문
1. Trustpilot 리뷰를 10페이지 이후까지 스크래핑할 수 있나요?
네, 하지만 인증된 경로를 사용해야 합니다. Trustpilot은 첫 10개 리뷰 페이지 이후 비인증 접근을 차단합니다. Thunderbit의 브라우저 모드는 로그인된 Chrome 세션 안에서 작동하므로, 사용자가 볼 수 있는 페이지에 접근할 수 있습니다. ScraperAPI는 코드 수준의 세션/쿠키 관리가 필요합니다. Apify 액터는 쿠키 설정이 필요합니다. Octoparse는 수동 로그인/쿠키 설정이 필요합니다. Web Scraper의 공식 문서도 10페이지 제한을 인정하지만 내장 우회 방법은 제공하지 않습니다.
2. Trustpilot 리뷰를 스크래핑하는 것은 합법인가요?
Trustpilot의 이용 약관은 명시적 허가 없이 자동화된 데이터 수집을 금지합니다. 법적 위험은 방식과 사용 사례에 따라 다릅니다. 자신의 공개 리뷰를 스크래핑하는 것은 경쟁사 페이지를 인증 벽 우회로 가져오는 것보다 위험이 낮습니다. EU 리뷰어 데이터에는 GDPR이 적용됩니다. 이건 법률 자문이 아니므로, 대규모 또는 상업적 스크래핑 프로젝트라면 법률 전문가와 상의하세요.
3. Trustpilot에서 어떤 데이터를 추출할 수 있나요?
일반적으로 추출 가능한 필드는 다음과 같습니다. 리뷰어 이름, 별점, 리뷰 제목, 리뷰 본문, 작성 날짜, 체험 날짜, 인증 구매 여부, 리뷰어 위치, 비즈니스 응답 텍스트, 회사명, TrustScore, 총 리뷰 수, 별점 분포, 리뷰 URL.
4. Trustpilot 스크래퍼는 얼마나 자주 깨지나요?
셀렉터 기반 도구(Apify 액터, Octoparse 워크플로, 맞춤형 Python 스크립트)는 Trustpilot이 CSS 클래스나 DOM 구조를 바꿀 때마다 깨질 수 있고, 이런 일은 한 달에 여러 번 일어날 수도 있습니다. Thunderbit 같은 AI 의미 기반 도구는 특정 셀렉터가 아니라 페이지의 의미를 해석하기 때문에 자동으로 적응합니다. 다만 어떤 도구도 10페이지 로그인 벽 같은 큰 접근 제어 변화에는 완전히 면역이 아닙니다.
5. Trustpilot 리뷰를 무료로 스크래핑할 수 있나요?
이 목록의 모든 도구에는 무료 시작점이 있습니다. Thunderbit는 월 6페이지 무료, ScraperAPI는 7일 동안 5,000개 체험 크레딧, Web Scraper는 로컬 사용용 무료 Chrome 확장 프로그램, Octoparse는 영구 무료 플랜(10개 작업, 월 50,000행), Apify는 월 $5의 무료 플랫폼 크레딧을 제공합니다. 소규모 샘플링이나 테스트라면 어떤 도구든 결제 없이 사용할 수 있습니다.
더 알아보기
