Google Shopping 每個月處理超過 。這代表海量的價格資訊、商品趨勢與賣家資料,全都整合在你的瀏覽器裡,來源遍布數千家零售商。
要把這些資料從 Google Shopping 匯出到試算表?問題就開始複雜了。我花了不少時間測試各種做法——從免寫程式的瀏覽器擴充功能,到完整的 Python 腳本——結果體驗從「哇,這也太簡單了吧」到「我已經除錯 CAPTCHA 三天了,我想放棄」。多數相關教學都假設你本來就是 Python 開發者,但依我的經驗,真正需要 Google Shopping 資料的人,大多是電商營運、定價分析師與行銷人員,他們只是想拿到數據,不想寫程式。所以這篇指南整理了三種方法,依照難易度由低到高排列,讓你可以依照自己的技能與時間預算,挑選最適合的路線。
什麼是 Google Shopping 資料?
Google Shopping 本質上就是一個商品搜尋引擎。當你輸入「wireless noise-cancelling headphones」時,Google 會從數十家網路商店抓出商品列表——包含商品標題、價格、賣家、評分、圖片與連結。這是一份即時、持續更新的商品目錄,顯示整個網路上有哪些商品正在販售。
為什麼要抓取 Google Shopping 資料?
單看一個商品頁面,幾乎看不出什麼端倪。但如果把上百筆資料整理成試算表,趨勢就會浮現。

以下是我最常看到的應用情境:
| 應用情境 | 受益對象 | 重點觀察內容 |
|---|---|---|
| 競品定價分析 | 電商團隊、定價分析師 | 競品價格、促銷模式、價格變動趨勢 |
| 商品趨勢發掘 | 行銷團隊、產品經理 | 新商品、成長中的品類、評論成長速度 |
| 廣告情報分析 | PPC 經理、成長團隊 | 贊助商品、出價的賣家、廣告出現頻率 |
| 賣家/潛在客戶研究 | 業務團隊、B2B 團隊 | 活躍商家、進入新類別的新賣家 |
| MAP 監控 | 品牌經理 | 違反最低廣告價格政策的零售商 |
| 庫存與品項組合追蹤 | 品類經理 | 缺貨情況、品項組合缺口 |
現在都在使用 AI 定價工具。投入競爭性定價情報的公司,曾回報高達 29 倍的投資報酬。Amazon 的價格大約每 10 分鐘更新一次。如果你還在手動查競品價格,效率上很難跟上。
Thunderbit 是一款 AI 網頁爬蟲 Chrome 擴充功能,幫助商務使用者透過 AI 從網站抓取資料。對於想要取得結構化 Google Shopping 資料、但不想寫程式的電商營運、定價分析師與行銷人員來說,它特別實用。
你實際能從 Google Shopping 抓到哪些資料?
在你選工具或開始寫第一行程式之前,最好先搞清楚哪些欄位抓得到,以及哪些欄位需要額外處理。
Google Shopping 搜尋結果可取得的欄位
當你在 Google Shopping 執行搜尋時,結果頁面上的每個商品卡片通常都會包含:
| 欄位 | 類型 | 範例 | 備註 |
|---|---|---|---|
| 商品標題 | 文字 | "Sony WH-1000XM5 Wireless Headphones" | 通常一定會有 |
| 價格 | 數字 | $278.00 | 可能同時顯示特價與原價 |
| 賣家/商店 | 文字 | "Best Buy" | 同一商品可能有多個賣家 |
| 評分 | 數字 | 4.7 | 滿分 5 顆星;不一定會顯示 |
| 評論數 | 數字 | 12,453 | 新商品有時不會出現 |
| 商品圖片網址 | URL | https://... | 初次載入時可能回傳 base64 佔位圖 |
| 商品連結 | URL | https://... | 連到 Google 的商品頁或商店頁 |
| 運送資訊 | 文字 | "Free shipping" | 不一定每筆都有 |
| 贊助標記 | 布林值 | 是/否 | 表示付費曝光——對廣告情報很有用 |
商品詳情頁可取得的欄位(子頁面資料)
如果你點進 Google Shopping 的單一商品詳情頁,可以抓到更豐富的資料:
| 欄位 | 類型 | 備註 |
|---|---|---|
| 完整描述 | 文字 | 需要進入商品頁 |
| 所有賣家價格 | 數字(多筆) | 可橫向比較不同零售商的價格 |
| 規格資訊 | 文字 | 依商品類別而異(尺寸、重量等) |
| 單則評論內容 | 文字 | 來自買家的完整評論 |
| 優缺點摘要 | 文字 | Google 有時會自動生成 |
要拿到這些欄位,就必須在抓完搜尋結果後,再逐一進入每個商品的子頁面。支援 的工具可以自動處理這件事——下面我會帶你看整個流程。
抓取 Google Shopping 資料的三種方式(先選你的路)

三種方法由簡到難排列。挑一列最符合你情況的方式,直接往下看:
| 方法 | 技能程度 | 設定時間 | 防機器人處理 | 最適合 |
|---|---|---|---|---|
| 免寫程式(Thunderbit Chrome 擴充功能) | 初學者 | 約 2 分鐘 | 自動處理 | 電商營運、行銷人員、一次性研究 |
| Python + SERP API | 中階 | 約 30 分鐘 | 由 API 處理 | 需要可程式化、可重複存取的開發者 |
| Python + Playwright(瀏覽器自動化) | 進階 | 約 1 小時以上 | 需自行處理 | 客製化流程、特殊情境處理 |
方法 1:不用寫程式抓取 Google Shopping 資料(使用 Thunderbit)
- 難度: 初學者
- 所需時間: 約 2–5 分鐘
- 你需要準備: Chrome 瀏覽器、(免費版可用)、一組 Google Shopping 搜尋條件
這是從「我需要 Google Shopping 資料」到「這是你的試算表」最快的路。免寫程式、免 API 金鑰、免代理設定。我已經帶過幾十次非技術同事走這個流程,從沒有人卡住。
步驟 1:安裝 Thunderbit 並開啟 Google Shopping
先從 Chrome Web Store 安裝 ,並註冊免費帳號。
接著前往 Google Shopping。你可以直接進入 shopping.google.com,也可以從一般 Google 搜尋頁的 Shopping 分頁進入。搜尋你有興趣的商品或類別,例如「wireless noise-cancelling headphones」。
你應該會看到一個商品列表網格,內含價格、賣家與評分。
步驟 2:點選「AI Suggest Fields」自動偵測欄位
點擊 Thunderbit 擴充功能圖示打開側邊欄,然後按 「AI Suggest Fields」。AI 會掃描 Google Shopping 頁面並自動建議欄位:商品標題、價格、賣家、評分、評論數、圖片網址、商品連結等。
檢查系統建議的欄位。你可以重新命名欄位、刪掉不需要的欄位,或新增自訂欄位。如果你想更精準,例如「只擷取數字價格,不要貨幣符號」,可以替該欄位加上 Field AI Prompt。
你會在 Thunderbit 面板中看到欄位結構的預覽。
步驟 3:按下「Scrape」並檢查結果
點擊藍色的 「Scrape」 按鈕。Thunderbit 會把所有可見的商品列表抓成結構化表格。
有多頁結果嗎?Thunderbit 會自動處理分頁——依頁面設計自動點頁,或透過滾動載入更多結果。如果結果很多,你可以選擇 雲端抓取(Cloud Scraping)(速度較快,單次最多可處理 50 頁,透過 Thunderbit 的分散式基礎架構執行)或 瀏覽器抓取(Browser Scraping)(使用你自己的 Chrome 工作階段——如果 Google 顯示區域限定結果或需要登入,這會很有用)。
依我的測試,抓取 50 筆商品大約只要 30 秒。若手動做同樣的事——逐一打開商品、複製標題、價格、賣家、評分——至少得花我 20 多分鐘。
步驟 4:用子頁面抓取補充更多資料
完成第一次抓取後,點 Thunderbit 面板中的 「Scrape Subpages」。AI 會逐一造訪每個商品詳情頁,並把更多欄位加回原始表格——包含完整描述、所有賣家價格、規格與評論。
不需要額外設定——AI 會自行判斷每個詳情頁的結構並抓取相關資料。我曾用這個方法,在不到 5 分鐘內,為 40 個商品建立一份完整的競品定價矩陣(商品 + 所有賣家價格 + 規格)。
步驟 5:匯出到 Google Sheets、Excel、Airtable 或 Notion
點擊 「Export」,選擇你的目的地——、Excel、Airtable 或 Notion。全部免費。也支援 CSV 和 JSON 下載。
兩下完成抓取,一下完成匯出。反觀等效的 Python 腳本呢?大概要 60 行程式碼、代理設定、CAPTCHA 處理,還要持續維護。
方法 2:用 Python + SERP API 抓取 Google Shopping 資料
- 難度: 中階
- 所需時間: 約 30 分鐘
- 你需要準備: Python 3.10 以上、
requests和pandas套件、一組 SERP API 金鑰(ScraperAPI、SerpApi 或類似服務)
如果你需要可程式化、可重複存取的 Google Shopping 資料,SERP API 是最穩定的 Python 作法。反機器人措施、JavaScript 渲染、代理輪換——這些都由 API 在背後處理。你送出 HTTP 請求,就會拿到結構化 JSON 回應。
步驟 1:設定 Python 環境
安裝 Python 3.12(在 2025–2026 年最穩妥的正式環境預設版本)以及必要套件:
1pip install requests pandas
註冊一個 SERP API 服務供應商。 每月提供 100 次免費搜尋; 提供 5,000 點免費額度。到控制台取得你的 API 金鑰。
步驟 2:設定 API 請求
以下是使用 ScraperAPI Google Shopping 端點的最小範例:
1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5resp = requests.get(
6 "https://api.scraperapi.com/structured/google/shopping",
7 params={"api_key": API_KEY, "query": query, "country_code": "us"}
8)
9data = resp.json()
API 會回傳結構化 JSON,包含 title、price、link、thumbnail、source(賣家)與 rating 等欄位。
步驟 3:解析 JSON 回應並擷取欄位
1products = data.get("shopping_results", [])
2rows = []
3for p in products:
4 rows.append({
5 "title": p.get("title"),
6 "price": p.get("price"),
7 "seller": p.get("source"),
8 "rating": p.get("rating"),
9 "reviews": p.get("reviews"),
10 "link": p.get("link"),
11 "thumbnail": p.get("thumbnail"),
12 })
13df = pd.DataFrame(rows)
步驟 4:匯出為 CSV 或 JSON
1df.to_csv("google_shopping_results.csv", index=False)
這種方式很適合批次處理:你可以迴圈跑 50 個關鍵字,一次執行就組出完整資料集。代價是成本——SERP API 會依查詢次數收費,當你的查詢量達到每天幾千筆時,費用會快速上升。下方會再談價格。
方法 3:用 Python + Playwright 抓取 Google Shopping 資料(瀏覽器自動化)
- 難度: 進階
- 所需時間: 約 1 小時以上(還要持續維護)
- 你需要準備: Python 3.10 以上、Playwright、住宅代理、耐心
這是「完全掌控」的做法。你啟動真實瀏覽器、進入 Google Shopping,然後從渲染後的頁面擷取資料。彈性最高,但也最脆弱——Google 的反機器人系統很強,頁面結構一年會改好幾次。
先提醒:我曾聽過一些使用者花了好幾週和 CAPTCHA、IP 封鎖苦戰,最後還是放棄。這方法確實可行,但要有長期維護的心理準備。
步驟 1:安裝 Playwright 與代理設定
1pip install playwright
2playwright install chromium
你需要住宅代理。資料中心 IP 幾乎會立刻被擋——有位論壇使用者講得很直白:「所有 AWS IP 都會被封,或在前 1/2 筆結果後遇到 CAPTCHA。」像 Bright Data、Oxylabs 或 Decodo 這類服務都提供住宅代理池,價格大約從每 GB 1–5 美元起。
使用接近真實使用者的 user-agent 與代理設定 Playwright:
1from playwright.sync_api import sync_playwright
2with sync_playwright() as p:
3 browser = p.chromium.launch(
4 headless=True,
5 proxy={"server": "http://your-proxy:port", "username": "user", "password": "pass"}
6 )
7 context = browser.new_context(
8 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ..."
9 )
10 page = context.new_page()
步驟 2:進入 Google Shopping 並處理反機器人機制
先組出 Google Shopping 網址並開啟:
1query = "wireless noise cancelling headphones"
2url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
3page.goto(url, wait_until="networkidle")
如果出現歐盟 cookie 同意視窗,就處理掉:
1try:
2 page.click("button#L2AGLb", timeout=3000)
3except:
4 pass
在動作之間加入像真人一樣的延遲——每次頁面載入之間隨機等 2–5 秒。Google 的偵測系統會抓過於快速且規律的請求模式。
步驟 3:滾動、分頁並擷取商品資料
Google Shopping 會動態載入結果。先滾動觸發延遲載入,再擷取商品卡片:
1import time, random
2# 滾動以載入所有結果
3for _ in range(3):
4 page.evaluate("window.scrollBy(0, 1000)")
5 time.sleep(random.uniform(1.5, 3.0))
6# 擷取商品卡片
7cards = page.query_selector_all("[jsname='ZvZkAe']")
8results = []
9for card in cards:
10 title = card.query_selector("h3")
11 price = card.query_selector("span.a8Pemb")
12 # ... 擷取其他欄位
13 results.append({
14 "title": title.inner_text() if title else None,
15 "price": price.inner_text() if price else None,
16 })
這裡有個很重要的提醒:上面的 CSS selector 只是近似值,而且一定會變。Google 經常輪換 class 名稱。光是 2024–2026 年之間,就已經出現過三套不同的 selector。請盡量依靠較穩定的屬性,例如 jsname、data-cid、<h3> 標籤與 img[alt],不要依賴 class 名稱。
步驟 4:儲存為 CSV 或 JSON
1import json
2from datetime import datetime
3filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
4with open(filename, "w") as f:
5 json.dump(results, f, indent=2)
你要預期定期維護這支腳本。當 Google 改變頁面結構時——而這一年會發生好幾次——你的 selector 就會失效,然後又回到除錯地獄。
最大痛點:CAPTCHA 與反機器人封鎖
論壇看了又看,故事都差不多:「我花了幾週,最後還是敗給 Google 的反機器人機制。」CAPTCHA 和 IP 封鎖,是大家放棄自製 Google Shopping 爬蟲的頭號原因。
Google 怎麼封鎖爬蟲(以及該怎麼應對)
| 反機器人挑戰 | Google 的作法 | 解法 |
|---|---|---|---|
| IP 指紋辨識 | 幾次請求後封鎖資料中心 IP | 使用住宅代理或瀏覽器式抓取 |
| CAPTCHA | 因請求過快或自動化模式而觸發 | 限速(每次請求間隔 10–20 秒)、像真人的延遲、CAPTCHA 解題服務 |
| JavaScript 渲染 | Shopping 結果透過 JS 動態載入 | 使用無頭瀏覽器(Playwright)或可渲染 JS 的 API |
| User-agent 偵測 | 封鎖常見機器人 user-agent | 輪換真實、最新的 user-agent 字串 |
| TLS 指紋辨識 | 偵測非瀏覽器的 TLS 特徵 | 使用帶瀏覽器偽裝的 curl_cffi 或直接用真實瀏覽器 |
| AWS/雲端 IP 封鎖 | 封鎖已知雲端服務商 IP 段 | 直接避免使用資料中心 IP |
2025 年 1 月,Google 將 JavaScript 執行改為 SERP 與 Shopping 結果的必要條件,,包括 SemRush 與 SimilarWeb 使用的部分流程。接著在 2025 年 9 月,Google 廢止舊版商品詳情頁網址,改導向一個透過非同步 AJAX 載入的新版「Immersive Product」介面。2025 年底以前寫的教學,現在大多已經過時。
各方法如何應對這些挑戰
SERP API 會在背後處理一切——代理、渲染、CAPTCHA 解題。你完全不必操心。
Thunderbit 雲端抓取 使用分散式雲端基礎架構,覆蓋美國、歐洲與亞洲,自動處理 JS 渲染與反機器人措施。瀏覽器抓取模式則使用你自己的已登入 Chrome 工作階段,因此看起來就像正常使用者在瀏覽,幾乎不會觸發偵測。
自己做的 Playwright 則把所有責任都丟給你——代理管理、延遲調校、CAPTCHA 解題、selector 維護,以及持續監控是否壞掉。
抓取 Google Shopping 資料的真實成本:誠實比較
「5 萬次請求要 50 美元……對我的興趣專案來說有點貴。」這種抱怨在論壇很常見。但通常大家忽略了最貴的成本。
成本比較表
| 做法 | 前期成本 | 每次查詢成本(估) | 維護負擔 | 隱藏成本 |
|---|---|---|---|---|
| 自建 Python(不使用代理) | 免費 | $0 | 非常高(失效、CAPTCHA) | 你除錯花掉的時間 |
| 自建 Python + 住宅代理 | 程式免費 | 約 $1–5/GB | 中高 | 代理服務費 |
| SERP API(SerpApi、ScraperAPI) | 免費額度有限 | 約 $0.50–5.00/1K 查詢 | 低 | 用量一高成本上升很快 |
| Thunderbit Chrome 擴充功能 | 免費版(6 頁) | 點數制,約 1 點/列 | 非常低 | 大量使用需付費方案 |
| Thunderbit Open API(Extract) | 點數制 | 約 20 點/頁 | 低 | 依擷取量計費 |
大家最常忽略的隱藏成本:你的時間
一個免費的 DIY 解法,如果讓你花 40 小時在除錯上,那就一點也不免費。以每小時 50 美元計算,這就是 2,000 美元的人力成本——而且這支爬蟲下個月還可能因為 Google 重新調整 DOM 再壞一次。

McKinsey 的 Technology Outlook 指出,只有在每天超過 時,自建與採購才有可能打平。在這個門檻以下,自建方案通常只是「燒預算,卻拿不到 ROI」。對多數每週只做幾百到幾千次查詢的電商團隊來說,免寫程式工具或 SERP API 的成本效益,通常都比自己從零打造更高。
如何建立自動化的 Google Shopping 價格監控
大多數教學都把抓取當成一次性任務。但對電商團隊來說,真正的用途是持續、自動化監控。你不只需要今天的價格,還需要昨天、上週,甚至明天的變化。
使用 Thunderbit 設定排程抓取
Thunderbit 的 Scheduled Scraper 讓你可以直接用自然語言描述時間間隔——像是「每天上午 9 點」或「每週一與週四中午」——AI 會自動轉成週期性排程。輸入你的 Google Shopping 網址,按一下 「Schedule」,就完成了。
每次執行都會自動匯出到 Google Sheets、Airtable 或 Notion。最後你會得到一份每天自動更新、可直接拿來做樞紐分析或告警的試算表。
不用 cron job。不用管伺服器。也不用煩惱 Lambda function。(我見過不少開發者在 AWS Lambda 跑 Selenium 卡了好幾天,而 Thunderbit 的排程器完全省掉這些麻煩。)
如果你想深入了解如何建立,我們也有另一篇完整解析。
用 Python 排程(給開發者)
如果你採用 SERP API 路線,可以用 cron job(Linux/Mac)、Windows Task Scheduler,或 AWS Lambda、Google Cloud Functions 這類雲端排程工具來定時執行。APScheduler 這類 Python 套件也可以。
但代價是:你現在要自己負責監控腳本健康狀況、處理失敗、按時輪換代理,還要在 Google 改版時更新 selector。對多數團隊來說,維護排程 Python 爬蟲所花的工程時間,通常已經超過專用工具的費用。
抓取 Google Shopping 資料的技巧與最佳做法
不管你用哪種方法,以下幾點都能幫你省下不少麻煩。
遵守速率限制
不要短時間內對 Google 連續狂打幾百個請求——你很快就會被封鎖,而且 IP 可能還會被標記一段時間。自己動手的做法:每次請求間隔 10–20 秒,並加入隨機抖動。工具與 API 會幫你處理這件事。
依照規模選擇方法
快速決策指南:
- 每週 < 10 次查詢 → Thunderbit 免費版或 SerpApi 免費版
- 每週 10–1,000 次查詢 → SERP API 付費方案或
- 每週 1,000 次以上查詢 → SERP API 企業方案或 Thunderbit Open API
清理與驗證資料
價格常常帶有貨幣符號、地區格式差異(1.299,00 € vs $1,299.00),有時還會混入亂碼。你可以用 Thunderbit 的 Field AI Prompts 在抓取時先標準化,或在事後用 pandas 清理:
1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)
也要檢查自然排名與贊助列表之間是否有重複,它們經常會重疊。可以用 (title, price, seller) 這個組合來去重。
了解法律風險
抓取公開可見的商品資料,通常被視為合法,但法律環境變化很快。最近最重要的發展是:,理由是其繞過 Google 的「SearchGuard」反抓取系統。這是一種新的執法方向,可能繞過先前像 hiQ v. LinkedIn 與 Van Buren v. United States 案所建立的防線。
實務建議:
- 只抓取公開可見的資料——不要登入去取得受限內容
- 不要擷取個人資訊(評論者姓名、帳戶資料等)
- 注意 Google 的服務條款禁止自動化存取——使用 SERP API 或瀏覽器擴充功能可降低(但無法完全消除)法律灰色地帶
- 若你的業務涉及歐盟,請留意 GDPR;不過商品列表大多屬於非個資的商業資料
- 如果你打算把抓取資料做成商業產品,建議諮詢法律顧問
若你想更深入了解 ,我們另有專文說明。
你應該用哪種方式抓取 Google Shopping 資料?
我把這三種方法都拿去抓同樣的商品類別之後,最後得到的結論如下:
如果你不是技術背景、又想快速拿到資料 —— 用 Thunderbit。打開 Google Shopping、點兩下、匯出。不到 5 分鐘就能得到乾淨的試算表。 讓你可以零門檻試用,而且子頁面抓取功能能提供比多數 Python 腳本更豐富的資料。
如果你是開發者,而且需要可重複執行的程式化存取 —— 用 SERP API。穩定性足以彌補每次查詢的成本,還能省去所有反機器人麻煩。SerpApi 文件最完整;ScraperAPI 的免費額度最寬鬆。
如果你需要最高控制權,且正在打造自訂流程 —— Playwright 可以,但請先預留足夠時間給代理管理、selector 維護與 CAPTCHA 處理。到了 2025–2026 年,最低可行的繞過組合是 curl_cffi 搭配 Chrome 偽裝 + 住宅代理 + 10–20 秒節奏控制。單純靠 requests 搭配輪換 user-agent 的腳本,基本上已經不夠用了。
最好的方法,就是能讓你拿到正確資料、又不會吃掉整個工作週的方法。對多數人來說,那不是 60 行 Python 程式,而是兩下點擊。
如果你需要大量使用,請查看 ;或者到 看教學影片,實際了解整個流程。
常見問題
抓取 Google Shopping 資料合法嗎?
根據 hiQ v. LinkedIn 與 Van Buren v. United States 等判例,抓取公開可見的商品資料一般來說是合法的。不過,Google 的服務條款禁止自動化存取,而且 Google 在 2025 年 12 月對 SerpApi 的訴訟,又引入了新的 DMCA § 1201 反規避理論。使用信譽良好的工具與 API 可以降低風險。若是商業用途,建議諮詢法律顧問。
我可以在不被封鎖的情況下抓取 Google Shopping 嗎?
可以,但方法很重要。SERP API 會自動處理反機器人措施。Thunderbit 的雲端抓取使用分散式基礎架構來避免封鎖,而瀏覽器抓取模式則使用你自己的 Chrome 工作階段(看起來就像正常瀏覽)。自製 Python 腳本則需要住宅代理、像真人一樣的延遲與 TLS 指紋管理——即使如此,被封鎖仍然很常見。
抓取 Google Shopping 資料最簡單的方法是什麼?
Thunderbit Chrome 擴充功能。進入 Google Shopping,點「AI Suggest Fields」,再點「Scrape」,然後匯出到 Google Sheets 或 Excel。免寫程式、免 API 金鑰、免代理設定。整個流程大約 2 分鐘。
做價格監控時,我多久可以抓一次 Google Shopping?
使用 Thunderbit 的 Scheduled Scraper,你可以用自然語言設定每天、每週或自訂間隔的監控。若使用 SERP API,頻率取決於你的方案額度——多數供應商足以支援數百個 SKU 的每日監控。DIY 腳本可依你的基礎架構支援的頻率執行,但頻率越高,反機器人的麻煩也越多。
我可以把 Google Shopping 資料匯出到 Google Sheets 或 Excel 嗎?
可以。Thunderbit 可免費直接匯出到 Google Sheets、Excel、Airtable 和 Notion。Python 腳本則可匯出成 CSV 或 JSON,之後再匯入任何試算表工具。若要持續監控,Thunderbit 排程匯出到 Google Sheets 可以建立一份即時自動更新的資料集。