Trustpilot 目前擁有 ,涵蓋 127 萬家企業——而大多數原本用來擷取這些資料的爬蟲,早在幾個月前就已經失效。如果您最近嘗試抓取評論,大概已經碰上那道臭名昭著的第 10 頁登入牆,然後看著工具只回傳錯誤。
過去幾週,我花了不少時間測試、研究並比較那些到了 2026 年仍能可靠擷取 Trustpilot 評論資料的工具。整體環境已經大不相同:Trustpilot 的防機器人措施更嚴格,Next.js 前端會產生每次部署都可能變動的 class 名稱,而且——最關鍵的是——未登入存取現在只允許到第 10 頁評論。我在 看到一句話,完美道出了大家的挫折感:「商店裡沒有一個 actor 能用。」
那麼,究竟哪些工具真的能用?我根據它們如何處理登入牆、防機器人措施、維護成本,以及行銷人員與開發者的實際需求,評估了五款工具。
為什麼在 2026 年抓取 Trustpilot 評論比想像中更難
Trustpilot 不是那種用基本 HTTP 請求就能抓、再用 BeautifulSoup 解析的單純靜態網站。它是以 Next.js 建構的現代動態平台,而且過去一年防護也明顯升級了。
您實際上要面對的是什麼:

第 10 頁登入牆。 這是最主要的痛點。 證實,Trustpilot 只允許前 10 頁評論,之後就會跳出登入提示。對於擁有 2,000 則評論的企業來說(以每頁 20 則計算,大約 100 頁),如果沒有登入狀態,您就會失去 90% 的資料。
防機器人措施。 Trustpilot 使用 reCAPTCHA、基於工作階段的封鎖、CDN 層級請求過濾,以及瀏覽器指紋辨識。其 也明確寫著網站「受 reCAPTCHA 保護」,並會收集裝置與互動訊號。
動態 CSS class 名稱。 由於 Trustpilot 使用 Next.js 與 CSS modules,像 styles_reviewCardInner__EwDq2 這類 class 名稱是在建置時產生,且每次 Trustpilot 部署更新時都可能改變。 甚至直接依賴這些精確選擇器——也就是說,只要 Trustpilot 下一次更新前端,照著那篇教學寫的程式很可能立刻失效。
DOM 結構變動。 除了 class 名稱之外,實際的 HTML 階層也可能改變。元素的巢狀結構會不同、外層包裝元素會新增、分頁元件也可能被重新設計。
不論是 Apify Actors、Octoparse 工作流程,還是客製化 Python 腳本,只要是依賴 CSS selector 的爬蟲,在 Trustpilot 上都很脆弱。它們會一直能用,直到不能用為止。而「直到不能用」通常不是以月計算,而是以週計算。
我們在挑選最佳 Trustpilot 評論爬蟲時看重什麼
我並不是用一般的「能不能抓網頁」標準來評估這些工具。這份清單上的每個工具都能從簡單的 HTML 頁面中擷取資料。
真正的問題是:它能不能在 2026 年,針對 Trustpilot 這種特殊情境,穩定運作?
以下是最重要的考量:
| 標準 | 為什麼對 Trustpilot 很重要 |
|---|---|
| 登入牆處理(第 10 頁以上) | 多數企業的評論遠超過 200 則。若只能抓 10 頁,代表您會漏掉大部分歷史資料。 |
| 防機器人繞過方式 | reCAPTCHA、工作階段封鎖與 CDN 過濾,會直接擋下天真的爬蟲。 |
| 選擇器韌性/維護成本 | 生成式 CSS class 會讓依賴選擇器的工具頻繁失效。工具能自我修復嗎? |
| 分頁支援 | 評論可能橫跨數百頁。手動逐頁擷取並不實際。 |
| 免程式碼 vs. 需要程式碼 | 行銷人員需要點選即可操作;開發者則想要完整控制。 |
| 價格/免費方案 | 重視預算的團隊需要在承諾之前先看清楚成本。 |
| 匯出選項 | 商業使用者需要的是 Google Sheets、Airtable、Notion,而不只是原始 JSON。 |

登入牆就是決勝關鍵。
如果一個工具無法跨過第 10 頁——或至少無法提供明確的登入後存取方式——那它在 2026 年就不能算是可行的 Trustpilot 爬蟲。
一眼看懂最佳 Trustpilot 評論爬蟲
完整比較如下:
| 工具 | 技能門檻 | 登入牆處理 | 防機器人方式 | 分頁 | 免費方案 | 匯出選項 |
|---|---|---|---|---|---|---|
| Thunderbit | 免程式碼 | 瀏覽器模式(使用您已登入的 Chrome 工作階段) | AI 語意擷取可適應版面變動 | 自動偵測、多頁 | 每月免費 6 頁 | Excel、Sheets、Airtable、Notion、CSV、JSON |
| Apify | 低程式碼 | 依 Actor 而定;部分需要為第 10 頁以上設定 cookie | 內建代理輪換、依 Actor 而異 | 可依 Actor 設定 | 每月 $5 平台額度 | JSON、CSV、Excel、XML、RSS |
| Octoparse | 免程式碼(視覺化) | 需手動設定 cookie/工作階段 | IP 輪換、住宅代理、CAPTCHA 解題(付費) | 點選/捲動流程 | 免費方案 + 14 天進階試用 | CSV、Excel、JSON、HTML、XML、資料庫 |
| Web Scraper | 免程式碼(sitemap) | 有限制——其官方指南已說明有 10 頁評論上限 | 付費方案提供雲端 + 代理 | 可設定;建議用 JS 點擊 | 免費 Chrome 擴充功能 | CSV、XLSX |
| ScraperAPI | 開發者(Python) | 需在程式層級管理工作階段/cookie | 4,000 萬以上住宅代理、JS 渲染、CAPTCHA 處理 | 以程式碼實作 | 7 天試用、5,000 API 額度 | 由開發者自行決定(CSV、JSON 等) |
1. Thunderbit
是一款 AI 驅動的 Chrome 擴充功能,專為需要結構化資料、但不想寫程式的商務團隊設計。就 Trustpilot 而言,它提供了 ,只要兩下點擊,就能擷取評論者名稱、評分、評論標題、評論內容、日期與商家回覆。
我有點偏心——畢竟我就在這裡工作——但我們之所以把 Thunderbit 做成這樣,正是因為我們很清楚 Trustpilot 抓取難在哪裡。我們的 AI 以語意方式讀取頁面,而不是依賴 CSS selector。當 Trustpilot 變更 class 名稱或重組 DOM 時,Thunderbit 仍能適應,因為它看的是頁面元素的意義,而不是它們的 HTML 位址。
Thunderbit 如何處理第 10 頁登入牆
這就是瀏覽器模式發揮作用的地方。Thunderbit 是在您的 Chrome 瀏覽器裡運作——也就是您已經登入 Trustpilot 的同一個瀏覽器。當您切換到瀏覽器爬取模式時,擴充功能會讀取您登入狀態下看得到的頁面。不需要代理花招,不需要注入 cookie,也不需要 Playwright 工作階段池。
實際流程是:先在 Chrome 登入 Trustpilot,前往您想要的評論頁,點擊「AI 建議欄位」,再點擊「爬取」。之後分頁會自動進行——Thunderbit 會一路處理您的瀏覽器工作階段可存取的每一頁。
為什麼 Trustpilot 改版時 Thunderbit 不容易壞掉
我們的 直接說明了這點:傳統爬蟲在版面變動、CSS selector 需要更新時就會壞掉。Thunderbit 使用能理解內容的語意 AI,不依賴特定 CSS,能處理動態內容與自動分頁。
這和 ScraperAPI 的教學程式形成鮮明對比,後者是靠像 styles_reviewCardInner__EwDq2 這樣的 class 名稱來解析。那個 selector 下一次 Trustpilot 部署時就會失效。Thunderbit 的 AI 不是在問「這頁面的評論文字在哪裡?」而是在問「這頁面上哪裡是評論文字?」
Trustpilot 抓取的主要功能
- AI 建議欄位:自動偵測評論欄位(名稱、評分、日期、標題、內容、商家回覆),無需手動設定
- 兩步驟流程:AI 建議欄位 → 爬取,就這麼簡單
- 登入需求頁面的瀏覽器模式:可在您已登入的 Chrome 工作階段中運作,存取第 10 頁以上內容
- 自動分頁:可處理多頁評論,不需手動介入
- 子頁面爬取:可前往個別評論者個人頁面,補充更多資料
- 排程爬取:可設定每週或每月監控評論,做口碑追蹤
- 匯出:Google Sheets、Airtable、Notion、CSV、JSON,全都免費包含
價格
- 免費方案:每月 6 頁,不需信用卡
- 點數制:1 點 = 1 筆輸出列
- 付費方案:自 起約每月 $9
最適合:需要在不寫程式的情況下取得 Trustpilot 評論的行銷團隊、營運團隊與商務使用者——而且不想維護一個每隔幾週就壞掉的爬蟲。
2. Apify
是一個雲端爬取平台,內建市集可供使用者挑選預先建立好的「Actors」——也就是其他使用者與 Apify 團隊所製作的爬取範本。針對 Trustpilot,這個市集裡有多個由社群維護的 Actors,可靠度不一。
Apify 的取捨在於:它很強大,但也很分散。有些 Actors 能用,有些已停更,有些在第 10 頁以上需要 cookie。Reddit 上那些「商店裡沒有一個 actor 能用」的抱怨也是真的——這正反映出 Trustpilot 的變動速度有多快,足以打壞特定 Actor 的邏輯。
Trustpilot Actors 與已知限制
裡有幾個 Trustpilot Actors。其中至少有一個(開發者為「burbn」)明確說明,第 10 頁之後需要輸入 cookie。其他則可能是 0.0 評分、使用人數極少,或最近才修改——這些都顯示維護仍在進行,可靠度也有所差異。
那些已停用的 Actors 也值得一提。早期有一個 Actor 會直接讀取 Trustpilot 內嵌的 __NEXT_DATA__ JSON,這是個巧妙的方法,速度比 DOM 解析快,但當 Trustpilot 改變資料結構時,仍然會壞掉。
登入牆與防機器人處理
- 登入牆:完全取決於您選哪個 Actor。有些支援為第 10 頁以上注入 cookie,有些則不支援。
- 防機器人:Apify 平台內建代理輪換與以 compute unit 為基礎的基礎架構。住宅代理可在 。
- 維護:當 Actor 壞掉時,您只能等維護者修復、改用另一個 Actor,或委託建立一個私人客製 Actor。
價格
- 免費方案:預付 $5/月用量,不需信用卡
- Starter:$9/月 + 按量付費
- Scale:$99/月 + 按量付費
- 匯出:JSON、CSV、Excel、XML、RSS(依 Actor 而定)
最適合:技術能力不錯、能評估多個 Actors、設定 cookie,並在出問題時自行排查的使用者。若您想要的是一套設定好就不用管的方案,這不是最理想的選擇。
3. Octoparse
是一款桌面版免程式碼爬蟲,採用視覺化點選式工作流程建構器。它介於 Thunderbit 的兩步驟簡潔與 ScraperAPI 的完整開發者控制之間——您可以不用寫程式就做視覺化設定,但仍需要自己建立與維護工作流程。
在 Octoparse 中設定 Trustpilot 抓取
流程不複雜,但需要手動操作:
- 貼上 Trustpilot 商家評論網址
- 視覺化選取評論元素(標題、內文、評分、日期、評論者名稱)
- 使用下一頁按鈕定義分頁迴圈
- 設定等待時間(建議 2–5 秒,以避免 reCAPTCHA)
- 小型樣本可在本機執行,大型任務則可使用雲端執行
對熟悉這工具的人來說,整個設定大約需要 10–15 分鐘。問題在於:由於 Octoparse 使用的是綁定 DOM 元素的視覺選擇器,只要 Trustpilot 改變頁面結構,您就得更新工作流程。
登入牆與防機器人處理
- 登入牆:需要手動登入/cookie/工作階段設定,無法自動處理。
- 防機器人: 包含 IP 輪換、住宅代理($3/GB)以及自動 CAPTCHA 解題(每千次 $1–1.5)。
- 維護:中等。當 Trustpilot 更新前端時,預期要重建或調整工作流程。
價格
- 免費方案:終身免費,10 個任務、1 台裝置、本機擷取,每月最多 50,000 列
- Standard:$69/月(按年計費)
- Professional:$149/月
- 14 天進階試用:包含雲端擷取、排程、API 與範本
- 匯出:Excel、CSV、JSON、HTML、XML;高階方案可用資料庫與 Google Sheets
最適合:想要視覺化工作流程控制、不介意初始設定時間,且能接受頁面變動時維護流程的使用者。適合需要比兩步驟工具更多自訂、但又比寫 Python 更簡單的團隊。
4. Web Scraper
是一款 Chrome 擴充功能與雲端平台,採用 sitemap 式的爬取方式。它在 Trustpilot 上最強的功能,是一個 ,可擷取公司層級資料:公司名稱、分類、地址、評分、評論數、TrustScore 與網站網址。
若是專門抓評論,Web Scraper 有一項值得注意的已知限制。
預先建立的範本 vs. 自訂設定
市集範本很適合做公司探索——也就是跨 Trustpilot 分類爬取商家檔案。若要自訂評論擷取,Sitemap Wizard 則可讓您在 Chrome 擴充功能裡以視覺化方式建立爬蟲。
建議使用 JavaScript 點擊式分頁,而不是以 URL 為基礎的分頁,因為 Trustpilot 可能在不同頁面之間動態重新排序內容,導致結果位移。
登入牆與防機器人處理
這裡必須誠實說:Web Scraper 的官方指南明確指出,Trustpilot 只允許前 10 頁評論,之後會顯示登入提示。該指南把這點記為已知限制,而不是提供繞過方式。
- 登入牆:處理能力有限。10 頁評論上限已寫在官方指南中。
- 防機器人:雲端方案提供代理支援;指南建議延遲 2–5 秒並降低並行數。
- 分頁:可設定,但對未登入存取而言,實際上只能抓前 10 頁評論。
價格
- 免費 Chrome 擴充功能:本機爬取,功能有限
- Project:$50/月(5,000 URL 點數)
- Professional:$100/月(20,000 URL 點數)
- Scale:$200/月起(在條件下提供無限 URL 點數)
- 付費雲端方案 7 天免費試用
- 匯出:CSV、XLSX
最適合:想要現成範本來抓取 Trustpilot 公司檔案,或只需要前 10 頁評論的使用者。如果您需要高評論數企業的完整評論歷史,這不是最合適的選擇。
5. ScraperAPI
是給開發者用的爬取基礎架構——不是點選即用工具,而是能處理防機器人措施的代理/渲染層,讓您專注撰寫解析邏輯。它的 主打 JS 渲染、CAPTCHA 處理與 4,000 萬以上代理。
如果您是想完全掌控擷取邏輯的 Python 開發者,ScraperAPI 可以提供底層管線。
但維護工作也一併由您承擔。
用 ScraperAPI 建立自訂 Trustpilot 爬蟲
示範了一個 Python + BeautifulSoup 的流程:
1import requests
2from bs4 import BeautifulSoup
3payload = {
4 "api_key": "YOUR_API_KEY",
5 "url": "https://www.trustpilot.com/review/example.com",
6 "render": "true",
7 "keep_headers": "true",
8}
9html = requests.get("https://api.scraperapi.com", params=payload).text
10soup = BeautifulSoup(html, "html.parser")
教學中的完整程式碼把 pages_to_scrape = 10 設死了——這其實也默認承認了公開頁面限制。若要抓第 10 頁以上,開發者必須自行處理登入工作階段、cookie 與 token。
登入牆與防機器人處理
- 登入牆:需要在程式層級管理工作階段/cookie。ScraperAPI 負責代理與渲染,驗證邏輯則由您處理。
- 防機器人:住宅代理池搭配自動 IP 輪換、以
render=true進行 JS 渲染,以及透過智慧代理輪換處理 CAPTCHA。 都可使用。 - 維護:當 Trustpilot 變更 class 名稱時(這很常發生),您必須更新解析程式碼。教學裡的
styles_reviewCardInner__EwDq2selector 其實已經在倒數計時。
價格
- 7 天試用:,不需信用卡
- Hobby:$49/月(100,000 API 額度)
- Startup:$149/月(1,000,000 額度)
- Business:$299/月(3,000,000 額度)
- 匯出:由您的程式輸出決定(通常是 CSV、JSON、資料庫寫入)
最適合:想要完整自訂、能維護自己解析腳本,並需要可程式化控制工作階段管理、分頁邏輯與資料結構的開發者。不適合非技術使用者。

為什麼 Trustpilot 爬蟲總是壞掉(以及怎麼選才不容易壞)
這是選擇 Trustpilot 爬蟲時最被低估的因素。問題不是「這工具今天能不能用?」而是「它三週後還會不會能用?」
Trustpilot 上的爬蟲會因四個常見原因而失效:
-
生成的 CSS class 變動。 Next.js 的 CSS modules 會產生像
styles_reviewCardInner__EwDq2這樣的 class 名稱。每次前端部署都可能改變。任何以這些 class 為目標的爬蟲都會壞掉。 -
DOM 結構變動。 Trustpilot 可能重組 HTML 階層——例如改變評論卡片的巢狀方式、變更外層包裝元素、把中繼資料移到不同位置。
-
防機器人觸發條件變動。 reCAPTCHA 的門檻會調整,工作階段 token 輪換會更積極,CDN 過濾規則也會更新。
-
驗證/工作階段變動。 第 10 頁登入牆是在 2025 年底出現(或被更嚴格執行)的。未來隨時都可能出現更多存取限制。
根本的架構差異,在於 依賴選擇器 的擷取方式與 語意式 擷取方式:
-
依賴選擇器的工具(Apify Actors、Octoparse 工作流程、ScraperAPI 腳本、Web Scraper sitemap)會問:「找到這個精確 CSS 路徑上的元素。」當路徑改變時,它們就會靜默失敗,或回傳空資料。
-
語意/AI 工具(Thunderbit)會問:「這頁面的評論文字、評分與日期在哪裡?」AI 是根據意義理解頁面內容,而不是根據位址。版面改變不會讓它壞掉,因為意義沒有變。
我的建議:
- 完全不能接受維護? → AI 型(Thunderbit)
- 能接受一些維護、但想要雲端自動化? → Apify(搭配 Actor 選擇與監控)
- 想要視覺化控制、可接受中等維護? → Octoparse
- 以範本為主、範圍有限? → Web Scraper
- 要完全控制、自己承擔全部? → ScraperAPI
抓取到的 Trustpilot 評論可以拿來做什麼
擷取評論只是第一步。我在論壇上最常看到的問題是:「我有資料了——接下來呢?」

情緒分析
最簡單的流程:先把評論匯出到 Google Sheets,接著用 AI 工具(ChatGPT、Claude,或 Sheets 的 AI 函式)將每則評論分類為正面、中立或負面。再新增欄位標示抱怨類別、緊急程度與建議處理優先順序。
若是較大的資料集,可將 CSV 上傳到 ChatGPT,請它幫您摘要:「請依情緒分類這些評論,並找出前 5 大抱怨主題,以及具代表性的引文。」
競爭對手監測
使用 Thunderbit 的排程爬取,每週或每月抓取競爭對手評論。追蹤:
- 平均評分的時間趨勢
- 1 星與 2 星評論的占比
- 評論量變化(是變多還是變少?)
- 最常見的抱怨主題
- 商家回覆率與回覆速度
用一個簡單的 Google Sheets 儀表板,按評分與日期建立樞紐分析表,就能做出會自動更新的競爭情報來源。
主題萃取
將評論依常見類別分組:出貨/配送、客服、退款、產品品質、帳單、App 易用性、價格/價值,以及詐騙疑慮。輸出結果應是一個表格,包含:主題、數量、平均評分、代表性引言與建議商業行動。
這比文字雲更有用。它能告訴您,究竟是什麼在驅動滿意或不滿。
批次多企業分析
若是做類別層級研究,可以抓取同一個 Trustpilot 分類下多家企業的評論。比較整個市場區段的評論量、評分、星等分布與主題出現頻率。Web Scraper 的商家列表範本適合找公司;而 Thunderbit 或 ScraperAPI 則可處理每家公司層級的評論樣本。
抓取 Trustpilot 時的法律與倫理考量
我不是律師,以下內容也不是法律意見。不過,合規現實確實很重要。
Trustpilot 的服務條款寫得非常清楚。它們 使用者以 Trustpilot 未提供或未明確核准的任何方式存取或蒐集內容,並特別指出未經明確許可的文字探勘、資料探勘與網頁爬取。
風險光譜大致如下:
- 較低風險:匯出您自己公司的評論做內部分析,特別是使用 Trustpilot 官方商業工具或 API。
- 中等風險:低量爬取公開的競爭對手頁面,用於市場研究。仍需遵守服務條款與隱私義務。
- 較高風險:抓取需登入的第 10 頁以上內容、繞過技術控制、重新散布評論者資料,或將爬取評論用於 AI 模型訓練。
GDPR 考量:評論者姓名、個人頁面連結、評論文字與所在地資料,在歐盟隱私法下可能都屬於個人資料。實務上的防護措施包括:只收集必要欄位、將評論者姓名雜湊化以供內部分析、設定資料保留期限,以及不要大規模重新發布原始評論文字。
公開資料 vs. 已驗證資料:抓取任何人都看得到的頁面(前 10 頁評論)與抓取驗證牆後的資料,在法律與倫理上有明顯區別。只使用公開資料的工具,比起需要登入憑證的工具,合規風險較低。
這也應該納入您的工具選擇考量。Thunderbit 的瀏覽器模式會使用您自己工作階段中可見的頁面——它不會自行繞過驗證。ScraperAPI 讓開發者擁有完整控制權,但同時也要對工作階段管理的合法性負完全責任。
如何選擇適合的 Trustpilot 評論爬蟲
依使用者角色做出的決策框架:
- 不懂技術、需要不用寫程式就拿到評論的行銷人員? → Thunderbit。兩步驟完成,剩下交給 AI,匯出到 Sheets/Notion/Airtable。
- 能接受設定與除錯的低程式碼使用者? → Apify。挑選 Actor、為第 10 頁以上設定 cookie,並監控是否失效。
- 想要工作流程控制的視覺化建構者? → Octoparse。點選式設定,但要預期 Trustpilot 改版後需要維護。
- 只需要公司層級資料,或只抓前 10 頁評論? → Web Scraper。商家檔案有很強的現成範本。
- 開發者、想要完全自訂? → ScraperAPI。自己負責解析邏輯、工作階段管理與資料管線。
如果您最在意的是維護成本,那麼這條光譜大致是從 Thunderbit(幾乎零維護)到 ScraperAPI(所有事都由您維護)。從預算角度看,這份清單裡每一款工具都有免費入門方案——在正式投入前,先從那裡開始。
結論
Trustpilot 評論資料對於競爭情報、口碑監控與客戶洞察,確實非常有價值。
但到了 2026 年,要穩定擷取這些資料,您需要一款能處理第 10 頁登入牆、適應 DOM 變動,並在不斷介入的情況下仍能對抗防機器人保護的工具。
對大多數商務使用者來說, 是阻力最小的路徑——兩下點擊、AI 驅動欄位偵測、可處理已驗證頁面的瀏覽器模式,以及當 Trustpilot 改版前端時也幾乎零維護。您可以用每月 6 頁、免信用卡的方式,。
若您是想完全掌控的開發者,ScraperAPI 提供了基礎設施。至於介於兩者之間的人,Apify、Octoparse 與 Web Scraper 各自對應不同需求。關鍵在於,工具要和您的技術熟悉度、維護容忍度與合規需求相匹配。
如果您想看看 Thunderbit 對 Trustpilot 的實際處理方式,我們在 上有一段 。而如果您想了解更多關於 或 的背景知識,這些指南會把基礎說得很清楚。
常見問題
1. 能抓取第 10 頁之後的 Trustpilot 評論嗎?
可以,但前提是要透過已驗證的方式。Trustpilot 會在前 10 頁評論之後封鎖未登入存取。Thunderbit 的瀏覽器模式是在您已登入的 Chrome 工作階段中運作,因此可以存取您看得到的頁面。ScraperAPI 需要在程式層級管理工作階段/cookie。Apify Actors 需要 cookie 設定。Octoparse 則需要手動登入與 cookie 設定。Web Scraper 的官方文件也承認 10 頁限制,但沒有內建繞過方式。
2. 抓取 Trustpilot 評論是否合法?
Trustpilot 的服務條款禁止未經明確許可的自動化資料蒐集。法律風險會因方法與用途而異:抓取自己公開的評論,風險通常比繞過驗證牆去抓競爭對手低。若涉及歐盟評論者資料,GDPR 也適用。這不是法律建議——若是大規模或商業用途,請諮詢法律顧問。
3. 可以從 Trustpilot 擷取哪些資料?
常見欄位包含:評論者名稱、星等評分、評論標題、評論文字、發布日期、體驗日期、已驗證購買狀態、評論者所在地、商家回覆文字、公司名稱、TrustScore、總評論數、星等分布,以及評論網址。
4. Trustpilot 爬蟲多久會壞一次?
依賴選擇器的工具(Apify Actors、Octoparse 工作流程、客製 Python 腳本)可能在 Trustpilot 變更 CSS class 或 DOM 結構時就壞掉,而這種情況每月可能發生多次。像 Thunderbit 這類 AI 語意工具,因為是根據頁面意義而不是特定 selector 來理解內容,所以能自動適應。不過,沒有任何工具能免疫像第 10 頁登入牆這類重大存取控制變更。
5. 可以免費抓取 Trustpilot 評論嗎?
這份清單中的每個工具都有免費入門方案:Thunderbit 每月提供 6 頁免費額度,ScraperAPI 提供 7 天 5,000 點試用額度,Web Scraper 有可本機使用的免費 Chrome 擴充功能,Octoparse 有終身免費方案(10 個任務、每月 50,000 列),Apify 則提供每月 $5 的免費平台額度。若只是小規模抽樣或測試,這些工具都能在不付費的情況下使用。
了解更多
