如何抓取 Google Shopping 資料——免寫程式或用程式都可以

最後更新於 April 15, 2026

Google Shopping 每月處理超過 。這代表海量的價格資訊、商品趨勢與賣家資料,全都集中在你的瀏覽器裡,來自成千上萬家零售商。

要把這些資料從 Google Shopping 匯出到試算表?這才是最麻煩的地方。我實際試過不少做法——從免寫程式的瀏覽器擴充功能,到完整的 Python 腳本——體驗落差超大,有時候是「哇,原來這麼簡單」,有時候則是「我已經在除錯 CAPTCHA 三天了,我想放棄」。這類教學大多預設你是 Python 開發者,但依我的經驗,真正需要 Google Shopping 資料的人,很多其實是電商營運、定價分析師和行銷人員,他們只是想拿到數字,不想自己寫程式。所以這篇指南會介紹三種方法,從最簡單到最技術導向,讓你可以依照自己的能力與時間,選出最適合的做法。

什麼是 Google Shopping 資料?

Google Shopping 是一個商品搜尋引擎。你輸入「無線降噪耳機」,Google 就會從數十家線上商店抓出商品清單——商品標題、價格、賣家、評分、圖片、連結,一應俱全。它就像一份即時更新的商品目錄,把全網正在販售的內容整理得清清楚楚。

為什麼要抓取 Google Shopping 資料?

單看一個商品頁,幾乎看不出什麼端倪;但如果把上百筆資料整理進試算表,規律與趨勢就會慢慢浮現。

google-shopping-manual-vs-auto (1).png

以下是我最常看到的幾種應用情境:

應用情境受益對象你想找的資料
競品定價分析電商團隊、定價分析師競爭對手價格、促銷模式、價格變化趨勢
商品趨勢洞察行銷團隊、產品經理新商品、成長中的類別、評論增長速度
廣告情報分析PPC 管理者、成長團隊贊助商品、哪些賣家在投放、廣告出現頻率
賣家/名單研究業務團隊、B2B活躍商家、剛進入某類別的新賣家
MAP 監控品牌管理者違反最低廣告價格政策的零售商
庫存與品類追蹤品類經理缺貨情況、商品組合缺口

已經開始使用 AI 定價工具。投資競爭定價情報的公司,回報率甚至可高達 29 倍。Amazon 大約每 10 分鐘就會更新一次價格。如果你還在人工比對競品價格,這筆時間成本真的不划算。

Thunderbit 是一款 AI 網頁爬蟲 Chrome 擴充功能,能幫助商務使用者透過 AI 從網站擷取資料。對於想取得結構化 Google Shopping 資料、又不想寫程式的電商營運、定價分析師與行銷人員來說,它特別好用。

你實際上能從 Google Shopping 抓到哪些資料?

在選工具或開始寫任何一行程式前,先搞清楚有哪些欄位可以抓,哪些欄位需要額外處理,會省下很多時間。

Google Shopping 搜尋結果中的欄位

當你在 Google Shopping 搜尋時,每個結果頁上的商品卡片通常會包含:

欄位資料類型範例備註
商品標題文字"Sony WH-1000XM5 Wireless Headphones"通常都會出現
價格數字$278.00可能同時顯示折扣價與原價
賣家/商店文字"Best Buy"同一商品可能有多個賣家
評分數字4.7滿分 5 顆星;不一定都有
評論數數字12,453新商品有時沒有
商品圖片 URLURLhttps://...初次載入時可能回傳 base64 暫存圖
商品連結URLhttps://...可能連到 Google 商品頁或直接到商店
運送資訊文字"Free shipping"不一定會出現
贊助標記布林值Yes/No表示是否為付費曝光,對廣告情報很有用

商品詳情頁的欄位(子頁面資料)

如果你點進 Google Shopping 的單一商品詳情頁,就能取得更完整的資訊:

欄位資料類型備註
完整描述文字需要進入商品頁才能取得
所有賣家價格數字(多筆)可並排比較不同零售商的價格
規格資訊文字會依商品類別而異(尺寸、重量等)
單筆評論內容文字來自買家的完整評論內容
優缺點摘要文字Google 有時會自動產生

要拿到這些欄位,通常必須在抓完搜尋結果後,再逐一進入每個商品子頁面。具備能力的工具可以自動完成這件事——下面我會示範整個流程。

抓取 Google Shopping 資料的三種方式(先選你的路)

thunderbit-web-scraping-paths.png

三種方法,從最簡單到最技術導向。先看哪一列最符合你的情況,再直接跳過去:

方法技能需求設定時間防機器人處理最適合
免寫程式(Thunderbit Chrome 擴充功能)初學者約 2 分鐘自動處理電商營運、行銷人員、臨時研究
Python + SERP API中階約 30 分鐘由 API 處理需要可程式化、可重複執行的開發者
Python + Playwright(瀏覽器自動化)進階約 1 小時以上自行處理自訂流程、特殊情境處理

方法 1:不用寫程式抓取 Google Shopping 資料(使用 Thunderbit)

  • 難度: 初學者
  • 所需時間: 約 2–5 分鐘
  • 你需要準備: Chrome 瀏覽器、(免費版即可)、一個 Google Shopping 搜尋詞

這是從「我需要 Google Shopping 資料」到「這就是我的試算表」最快的路。免寫程式、免 API 金鑰、免代理伺服器設定。我帶過很多非技術同事走這個流程,沒有人卡住。

第 1 步:安裝 Thunderbit 並打開 Google Shopping

先從 Chrome 線上應用程式商店安裝 ,並註冊免費帳號。

接著前往 Google Shopping。你可以直接進入 shopping.google.com,或是在一般 Google 搜尋頁切到 Shopping 分頁。搜尋你感興趣的商品或類別,例如「無線降噪耳機」。

你應該會看到一個商品列表網格,裡面有價格、賣家與評分。

第 2 步:點選「AI Suggest Fields」自動偵測欄位

點開 Thunderbit 擴充功能圖示,叫出側邊欄,然後按 「AI Suggest Fields」。AI 會掃描 Google Shopping 頁面,並自動建議欄位:商品標題、價格、賣家、評分、評論數、圖片 URL、商品連結。

你可以檢查這些欄位建議,重新命名欄位、刪掉不需要的欄位,或新增自訂欄位。如果你想更精準一點,例如「只擷取純數字價格,不要貨幣符號」,你可以在該欄位加上 Field AI Prompt。

你會在 Thunderbit 面板看到欄位結構預覽。

第 3 步:點選「Scrape」並檢視結果

按下藍色的 「Scrape」 按鈕。Thunderbit 會把所有可見商品清單抓成一個結構化表格。

如果有多頁結果?Thunderbit 會自動處理分頁——依頁面設計自動翻頁,或透過捲動載入更多結果。如果資料很多,你可以在 Cloud Scraping(更快、一次最多處理 50 頁、由 Thunderbit 的分散式基礎架構執行)和 Browser Scraping(使用你自己的 Chrome 工作階段,適合 Google 顯示地區限定結果或需要登入時)之間選擇。

我實測抓取 50 筆商品清單大約只要 30 秒。若手動做同樣的事——打開每個商品、複製標題、價格、賣家、評分——大概要花我 20 多分鐘。

第 4 步:用子頁面抓取補充資料

初次抓取完成後,在 Thunderbit 面板點選 「Scrape Subpages」。AI 會逐一造訪每個商品詳情頁,並把更多欄位——完整描述、所有賣家價格、規格、評論——補到原始表格中。

不需要額外設定——AI 會自己判斷每個詳情頁的結構並抓取相關資料。我曾用這個方法,在 5 分鐘內替 40 個商品建立出完整的競爭定價矩陣(商品 + 所有賣家價格 + 規格)。

第 5 步:匯出到 Google Sheets、Excel、Airtable 或 Notion

點選 「Export」,再選擇你的目的地——、Excel、Airtable 或 Notion,全部免費。也可以下載 CSV 與 JSON。

兩次點擊完成抓取,一次點擊完成匯出。對應的 Python 腳本?大約 60 行程式碼,還要加上代理設定、CAPTCHA 處理與後續維護。

方法 2:使用 Python + SERP API 抓取 Google Shopping 資料

  • 難度: 中階
  • 所需時間: 約 30 分鐘
  • 你需要準備: Python 3.10+、requestspandas 套件、SERP API 金鑰(ScraperAPI、SerpApi 或類似服務)

如果你需要可程式化、可重複執行地存取 Google Shopping 資料,SERP API 是最穩定的 Python 做法。防機器人機制、JavaScript 渲染、代理輪換,全都在背後處理好。你送出 HTTP 請求,就能拿回結構化 JSON。

第 1 步:設定 Python 環境

安裝 Python 3.12(2025–2026 年最安全的正式環境預設選擇)以及所需套件:

1pip install requests pandas

註冊一個 SERP API 供應商帳號。 每月提供 100 次免費搜尋; 則提供 5,000 點免費額度。到儀表板裡取得你的 API 金鑰。

第 2 步:設定 API 請求

以下是使用 ScraperAPI 的 Google Shopping endpoint 的最小範例:

1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5resp = requests.get(
6    "https://api.scraperapi.com/structured/google/shopping",
7    params={"api_key": API_KEY, "query": query, "country_code": "us"}
8)
9data = resp.json()

API 會回傳結構化 JSON,欄位包含 titlepricelinkthumbnailsource(賣家)與 rating

第 3 步:解析 JSON 回應並擷取欄位

1products = data.get("shopping_results", [])
2rows = []
3for p in products:
4    rows.append({
5        "title": p.get("title"),
6        "price": p.get("price"),
7        "seller": p.get("source"),
8        "rating": p.get("rating"),
9        "reviews": p.get("reviews"),
10        "link": p.get("link"),
11        "thumbnail": p.get("thumbnail"),
12    })
13df = pd.DataFrame(rows)

第 4 步:匯出成 CSV 或 JSON

1df.to_csv("google_shopping_results.csv", index=False)

這種方式很適合批次處理:你可以迴圈跑 50 個關鍵字,一次腳本執行就產出完整資料集。缺點是成本——SERP API 是按查詢計費,查詢量一高,費用就會上來。下面我會再談價格。

方法 3:使用 Python + Playwright 抓取 Google Shopping 資料(瀏覽器自動化)

  • 難度: 進階
  • 所需時間: 約 1 小時以上(外加持續維護)
  • 你需要準備: Python 3.10+、Playwright、住宅代理、耐心

這是「完全掌控」的做法。你啟動真實瀏覽器,前往 Google Shopping,然後從渲染後的頁面擷取資料。彈性最高,但也最脆弱——Google 的防機器人系統很強,而且頁面結構一年會變好幾次。

先提醒你:我遇過不少使用者花了好幾週跟 CAPTCHA 和 IP 封鎖纏鬥。這方法能用,但你得預期後續維護。

第 1 步:設定 Playwright 與代理

1pip install playwright
2playwright install chromium

你需要住宅代理。資料中心 IP 幾乎會立刻被擋——有位論壇使用者說得很直接:「所有 AWS IP 都會被封,或在前 1/2 個結果後就遇到 CAPTCHA。」Bright Data、Oxylabs 或 Decodo 這類服務都有住宅代理池,費用大約從每 GB 1–5 美元起。

用真實的 user-agent 和你的代理來設定 Playwright:

1from playwright.sync_api import sync_playwright
2with sync_playwright() as p:
3    browser = p.chromium.launch(
4        headless=True,
5        proxy={"server": "http://your-proxy:port", "username": "user", "password": "pass"}
6    )
7    context = browser.new_context(
8        user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ..."
9    )
10    page = context.new_page()

第 2 步:前往 Google Shopping 並處理防機器人機制

先組出 Google Shopping URL 並導向:

1query = "wireless noise cancelling headphones"
2url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
3page.goto(url, wait_until="networkidle")

如果跳出歐盟地區的 Cookie 同意視窗,就處理它:

1try:
2    page.click("button#L2AGLb", timeout=3000)
3except:
4    pass

動作之間要加入像真人一樣的延遲——每次載入頁面之間等待 2–5 秒,並帶有隨機抖動。Google 的偵測系統會標記過快、過於一致的請求模式。

第 3 步:捲動、翻頁並擷取商品資料

Google Shopping 會動態載入結果。你需要捲動來觸發 lazy loading,然後擷取商品卡片:

1import time, random
2# 捲動以載入所有結果
3for _ in range(3):
4    page.evaluate("window.scrollBy(0, 1000)")
5    time.sleep(random.uniform(1.5, 3.0))
6# 擷取商品卡片
7cards = page.query_selector_all("[jsname='ZvZkAe']")
8results = []
9for card in cards:
10    title = card.query_selector("h3")
11    price = card.query_selector("span.a8Pemb")
12    # ... 擷取其他欄位
13    results.append({
14        "title": title.inner_text() if title else None,
15        "price": price.inner_text() if price else None,
16    })

這裡有個關鍵提醒:上面的 CSS selector 只是近似值,而且一定會變。Google 會經常輪替 class 名稱。2024–2026 年之間就已經有三套不同的 selector 被記錄下來。建議鎖定較穩定的屬性,例如 jsnamedata-cid<h3> 標籤與 img[alt],不要依賴 class 名稱。

第 4 步:儲存成 CSV 或 JSON

1import json
2from datetime import datetime
3filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
4with open(filename, "w") as f:
5    json.dump(results, f, indent=2)

你得定期維護這支腳本。當 Google 改變頁面結構——這種事一年會發生好幾次——你的 selector 就會失效,又得回頭除錯。

最大痛點:CAPTCHA 與防機器人封鎖

不管哪個論壇,大家講的故事都差不多:「我花了幾週,但最後還是敗給 Google 的防機器人機制。」CAPTCHA 與 IP 封鎖,是多數人放棄 DIY Google Shopping 爬蟲的第一大原因。

Google 如何封鎖爬蟲(以及怎麼應對)

防機器人挑戰Google 的作法應對方式
IP 指紋辨識幾次請求後就封鎖資料中心 IP使用住宅代理,或改用瀏覽器式抓取
CAPTCHA當請求太快或太像自動化時觸發限速(每次請求間隔 10–20 秒)、像真人的延遲、CAPTCHA 解題服務
JavaScript 渲染Shopping 結果透過 JS 動態載入使用 Headless 瀏覽器(Playwright)或支援 JS 的 API
User-Agent 偵測封鎖常見機器人 user-agent輪換真實且最新的 user-agent 字串
TLS 指紋辨識偵測非瀏覽器的 TLS 特徵使用帶瀏覽器偽裝的 curl_cffi 或真實瀏覽器
AWS/雲端 IP 封鎖封鎖已知雲端供應商 IP 段完全避免使用資料中心 IP

2025 年 1 月,Google 將 JavaScript 執行變成 SERP 與 Shopping 結果的必要條件,——包括 SemRush 與 SimilarWeb 使用的流程。到了 2025 年 9 月,Google 又停用舊版商品詳情頁 URL,改導向一個新的「Immersive Product」介面,並透過非同步 AJAX 載入。任何 2025 年底之前寫的教學,現在大多已經過時了。

各方法如何應對這些挑戰

SERP APIs 會在背後處理所有事情——代理、渲染、CAPTCHA 解題。你根本不用想這些問題。

Thunderbit Cloud Scraping 透過分散式雲端基礎架構,跨美國、歐洲與亞洲自動處理 JS 渲染與防機器人機制。Browser Scraping 模式則使用你自己的已登入 Chrome 工作階段,因為看起來就像正常使用者在瀏覽,所以幾乎不會被偵測。

DIY Playwright 則把所有責任都丟給你——代理管理、延遲調校、CAPTCHA 解題、selector 維護,以及持續監控是否壞掉。

抓取 Google Shopping 資料的真實成本:誠實比較

「20,000 次請求要 50 美元……對我的小專案來說有點貴。」這種抱怨在論壇很常見,但大家通常忽略了最大的成本。

成本比較表

做法前期成本每次查詢成本(估算)維護負擔隱藏成本
DIY Python(不使用代理)免費$0高(容易壞、CAPTCHA)你的除錯時間
DIY Python + 住宅代理程式免費約 $1–5/GB中高代理供應商費用
SERP API(SerpApi、ScraperAPI)免費額度有限約 $0.50–5.00 / 1K 次查詢高量時成本快速上升
Thunderbit Chrome 擴充功能免費額度(6 頁)以點數計費,約 1 點/列很低高量需要付費方案
Thunderbit Open API(Extract)以點數計費約 20 點/頁按次擷取付費

每個人都忽略的隱藏成本:你的時間

一個 0 元的 DIY 解決方案,如果要你花 40 小時除錯,其實一點也不免費。假設時薪 50 美元,那就是 2,000 美元的人力成本——而且下個月 Google 只要一改 DOM,這個爬蟲又可能壞掉。

google-shopping-cost-vs (2).png

McKinsey 的 Technology Outlook 指出,只有在。低於這個門檻,自建方案其實只是在燒預算,卻未必帶來 ROI。對大多數每週只查幾百到幾千次的電商團隊來說,免寫程式工具或 SERP API,通常比自己從頭打造還划算。

如何建立自動化的 Google Shopping 價格監控

多數教學都把抓資料當成一次性任務。但對電商團隊來說,真正的用途是持續、自動化監控。你不只需要今天的價格,還需要昨天、上週,甚至明天的價格變化。

使用 Thunderbit 設定排程抓取

Thunderbit 的 Scheduled Scraper 讓你可以用白話描述時間間隔——像是「每天早上 9 點」或「每週一和週四中午」——AI 會自動把它轉成週期性排程。輸入你的 Google Shopping URL,點選 「Schedule」,就完成了。

每次執行都會自動匯出到 Google Sheets、Airtable 或 Notion。最後的結果,就是一份每天自動更新競品價格的試算表,隨時可拿來做樞紐分析表或設定提醒。

不用 cron job,不用管理伺服器,不用煩惱 Lambda function。(我看過不少開發者在 AWS Lambda 跑 Selenium 卡了好幾天,而 Thunderbit 的排程器直接跳過這些麻煩。)

如果你想更深入了解如何建立,我們有另外一篇完整解析。

用 Python 設定排程(給開發者)

如果你採用 SERP API 方案,可以用 cron job(Linux/Mac)、Windows Task Scheduler,或 AWS Lambda、Google Cloud Functions 這類雲端排程器來安排執行。APScheduler 這類 Python 套件也可以。

代價是:你現在要自己負責監控腳本健康狀態、處理失敗、按時輪換代理,以及在 Google 改版時更新 selector。對大多數團隊來說,維護排程 Python 爬蟲所花的工程時間,往往比直接用專門工具還高。

抓取 Google Shopping 資料的技巧與最佳實務

不管你用哪種方法,下面幾件事都能幫你少踩很多坑。

尊重速率限制

不要用短時間內大量請求狂轟 Google——很快就會被封,而且你的 IP 可能還會被標記一段時間。DIY 方法請把每次請求間隔拉到 10–20 秒,並加入隨機抖動。工具與 API 會替你處理這些。

依照資料量選對方法

快速決策指南:

  • 每週少於 10 次查詢 → Thunderbit 免費版或 SerpApi 免費額度
  • 每週 10–1,000 次查詢 → SERP API 付費方案或
  • 每週超過 1,000 次查詢 → SERP API 企業方案或 Thunderbit Open API

清理並驗證你的資料

價格常常帶有貨幣符號、地區格式差異(1.299,00 € vs $1,299.00),偶爾還會出現奇怪字元。你可以在擷取時用 Thunderbit 的 Field AI Prompt 先做標準化,或在之後用 pandas 清理:

1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)

也要檢查自然搜尋結果與贊助商品是否重複,它們常常會重疊。可用(標題、價格、賣家)這個組合去重。

了解法律環境

抓取公開可取得的商品資料,一般來說通常是合法的,但法律環境變化很快。最近最值得注意的發展是:Google 在 2025 年 12 月以 DMCA § 1201 為依據,,理由是其繞過 Google 的「SearchGuard」防抓取系統。這是一種新的執法方向,也繞開了 hiQ v. LinkedIn 和 Van Buren v. United States 等早期案例建立的防線。

實務上建議:

  • 只抓公開可見的資料——不要登入後再抓受限內容
  • 不要擷取個資(評論者姓名、帳號資訊等)
  • 要知道 Google 的服務條款禁止自動化存取——使用 SERP API 或瀏覽器擴充功能可降低風險,但不代表完全沒有法律灰色地帶
  • 若你的業務在歐盟,也要留意 GDPR;不過商品列表大多屬於非個人化的商業資料
  • 如果你打算把抓來的資料做成商業產品,建議先諮詢法律顧問

如果你想更深入了解,我們也有另外整理專文。

到底該用哪一種方法抓 Google Shopping 資料?

我把這三種方法都用在相同的商品類別上跑過之後,結論是這樣:

如果你是非技術使用者,而且需要快速拿到資料——選 Thunderbit。打開 Google Shopping,點兩下,就能匯出。不到 5 分鐘,你就會有一份乾淨的試算表。 可以先試用,不用先承諾;而且子頁面抓取功能給你的資料通常比大多數 Python 腳本更完整。

如果你是開發者,而且需要可重複執行、可程式化的存取——用 SERP API。穩定性值得那筆按次成本,而且可以避開所有防機器人麻煩。SerpApi 文件最完整;ScraperAPI 的免費額度最慷慨。

如果你需要最高控制權,而且正在打造自訂資料管線——Playwright 可以用,但請先做好心理準備。你要投入大量時間在代理管理、selector 維護與 CAPTCHA 處理上。到了 2025–2026 年,最低可行的繞過組合是 curl_cffi 搭配 Chrome 偽裝 + 住宅代理 + 每次 10–20 秒的節奏控制。單純靠 requests 搭配輪換 user-agent 的做法,基本上已經不行了。

最好的方法,是能讓你拿到準確資料,又不會吃掉整個工作週。對多數人來說,那不是一支 60 行的 Python 腳本,而是兩次點擊。

如果你需要大量處理,可以看看 ;或者到 看教學影片,直接了解實際流程。

立即試用 Thunderbit 進行 Google Shopping 抓取

常見問題

抓取 Google Shopping 資料是否合法?

依照 hiQ v. LinkedIn 和 Van Buren v. United States 等判例,抓取公開可見的商品資料一般來說是合法的。不過,Google 的服務條款禁止自動化存取,而 Google 在 2025 年 12 月對 SerpApi 的訴訟,也引入了新的 DMCA § 1201 規避主張。使用有信譽的工具與 API 可以降低風險;若是商業用途,建議諮詢法律顧問。

我可以在不被封鎖的情況下抓 Google Shopping 嗎?

可以,但方法很重要。SERP API 會自動處理防機器人機制。Thunderbit 的 Cloud Scraping 使用分散式基礎架構來避免封鎖,而 Browser Scraping 模式則使用你自己的 Chrome 工作階段(看起來就像正常瀏覽)。DIY Python 腳本則需要住宅代理、像真人一樣的延遲,以及 TLS 指紋管理——即使如此,被封鎖的情況還是很常見。

抓取 Google Shopping 資料最簡單的方法是什麼?

Thunderbit Chrome 擴充功能。進入 Google Shopping,點「AI Suggest Fields」,再點「Scrape」,最後匯出到 Google Sheets 或 Excel。免寫程式、免 API 金鑰、免代理設定。整個流程大約 2 分鐘。

如果要做價格監控,我多久可以抓一次 Google Shopping?

使用 Thunderbit 的 Scheduled Scraper,你可以用白話設定每天、每週或自訂間隔監控。若使用 SERP API,頻率取決於方案額度——多數供應商都足以支援每小時追蹤幾百個 SKU 的每日監控。DIY 腳本則可依你的基礎設施決定執行頻率,但越頻繁,防機器人麻煩通常越多。

我可以把 Google Shopping 資料匯出到 Google Sheets 或 Excel 嗎?

可以。Thunderbit 可免費直接匯出到 Google Sheets、Excel、Airtable 和 Notion。Python 腳本則可匯出成 CSV 或 JSON,再匯入任何試算表工具。若你要做持續監控,Thunderbit 排程匯出到 Google Sheets 可以建立即時、自動更新的資料集。

  • 延伸閱讀
Topics
使用 Python 抓取 Google ShoppingPython Google Shopping 爬蟲使用 Python 擷取 Google Shopping 資料用 Python 抓取 Google Shopping 商品價格
目錄

試試 Thunderbit

只需 2 次點擊即可擷取潛在客戶與其他資料。由 AI 驅動。

取得 Thunderbit 免費使用
使用 AI 擷取資料
輕鬆將資料轉移到 Google Sheets、Airtable 或 Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week