Google Shopping では、毎月 が行われています。つまり、何千もの小売業者から集められた膨大な価格データ、商品トレンド、販売者情報が、そのままブラウザの中にずらっと並んでいるようなものです。
そのデータを Google Shopping から抜き出してスプレッドシートに入れるとなると、ここから一気に手間が増えます。私は、ノーコードのブラウザ拡張から本格的な Python スクリプトまで、いろいろ試してきましたが、体験の差はかなり大きくて、「え、こんなに簡単なの?」というものから、「CAPTCHA のデバッグを3日もやって、もう無理」というものまで本当に幅があります。この記事の多くは Python 開発者向けに書かれていますが、実際に Google Shopping のデータを欲しがっている人の多くは、コードを書かずに数字だけほしい ecommerce 担当者、価格分析担当者、マーケターです。そこでこのガイドでは、難易度が低い順に3つの方法を紹介します。自分のスキルと使える時間に合うやり方を選んでください。
Google Shopping データとは?
Google Shopping は商品検索エンジンです。「ワイヤレス ノイズキャンセリング ヘッドホン」と入力すると、Google が複数のオンラインストアから商品情報を集めて表示してくれます。商品名、価格、販売者、評価、画像、リンクなど、ネット上で売られているものがリアルタイムで更新されるカタログのような存在です。
なぜ Google Shopping データをスクレイピングするのか?
1つの商品ページだけを見ても、分かることはほとんどありません。何百件ものデータをスプレッドシートにまとめて、初めて見えてくるパターンがあります。

私がよく見る主な活用例は次のとおりです。
| 用途 | 役立つ人 | 探している情報 |
|---|---|---|
| 競合価格分析 | ecommerce チーム、価格分析担当者 | 競合価格、値下げ傾向、価格推移 |
| 商品トレンドの発見 | マーケティングチーム、プロダクトマネージャー | 新商品、伸びているカテゴリ、レビュー増加率 |
| 広告インテリジェンス | PPC 担当者、グロースチーム | 広告掲載枠、どの販売者が入札しているか、広告の頻度 |
| 販売者・リード調査 | 営業チーム、B2B | 稼働中の販売者、新規参入の店舗 |
| MAP 監視 | ブランドマネージャー | 最低広告価格ポリシーに違反している小売業者 |
| 在庫・品揃えの追跡 | カテゴリマネージャー | 在庫の有無、商品ラインナップの不足 |
は、すでに AI 搭載の価格設定ツールを使っています。競争価格インテリジェンスに投資した企業では、最大 29 倍のリターンが報告されています。Amazon はおよそ10分ごとに価格を更新しています。いまだに競合価格を手作業で確認しているなら、計算上かなり不利です。
Thunderbit は、AI を使ってウェブサイトからデータを抽出できる AI Web Scraper の Chrome 拡張機能です。特に、コードを書かずにきれいな Google Shopping データを取りたい ecommerce 担当者、価格分析担当者、マーケターに向いています。
Google Shopping から実際にどんなデータを取れるのか?
ツールを選ぶ前に、あるいはコードを書き始める前に、どの項目が取れて、どの項目には追加の手間が必要かを把握しておくと便利です。
Google Shopping の検索結果から取れる項目
Google Shopping で検索すると、結果ページ上の各商品カードには次のような情報があります。
| 項目 | 種類 | 例 | 補足 |
|---|---|---|---|
| 商品名 | テキスト | "Sony WH-1000XM5 Wireless Headphones" | 常に表示される |
| 価格 | 数値 | $278.00 | セール価格と元価格の両方が表示されることがある |
| 販売者 / 店舗 | テキスト | "Best Buy" | 1商品に複数の販売者が表示される場合がある |
| 評価 | 数値 | 4.7 | 5段階評価。常に表示されるわけではない |
| レビュー数 | 数値 | 12,453 | 新しい商品では表示されないことがある |
| 商品画像 URL | URL | https://... | 初回読み込み時は base64 のプレースホルダーが返ることがある |
| 商品リンク | URL | https://... | Google の商品ページ、または販売元サイトに遷移する |
| 送料情報 | テキスト | "Free shipping" | 常に表示されるわけではない |
| 広告タグ | 真偽値 | Yes/No | 有料掲載かどうかを示す。広告分析に便利 |
商品詳細ページ(サブページ)から取れる項目
Google Shopping の個別商品詳細ページに進むと、さらに詳しいデータを取れます。
| 項目 | 種類 | 補足 |
|---|---|---|
| 詳細説明 | テキスト | 商品ページへのアクセスが必要 |
| 全販売者の価格 | 数値(複数) | 複数小売業者の価格を横並びで比較できる |
| 仕様情報 | テキスト | 商品カテゴリによって内容が異なる(サイズ、重量など) |
| 個別レビュー本文 | テキスト | 購入者によるレビュー全文 |
| 長所・短所の要約 | テキスト | Google が自動生成する場合がある |
これらの項目を取るには、検索結果をスクレイピングしたあと、各商品のサブページにアクセスする必要があります。 に対応したツールなら、この作業を自動で処理できます。以下でその流れを説明します。
Google Shopping データをスクレイピングする3つの方法(自分に合うものを選ぶ)

難易度の低い順に3つの方法をまとめました。自分に合う行を選んで読み進めてください。
| 方法 | 難易度 | 準備時間 | アンチボット対策 | 向いている用途 |
|---|---|---|---|---|
| ノーコード(Thunderbit Chrome 拡張) | 初心者 | 約2分 | 自動で対応 | ecommerce 運用、マーケター、単発調査 |
| Python + SERP API | 中級者 | 約30分 | API 側で対応 | 再現性のあるプログラムアクセスが必要な開発者 |
| Python + Playwright(ブラウザ自動化) | 上級者 | 約1時間以上 | 自分で管理 | 独自パイプライン、例外処理が必要なケース |
方法1: コードなしで Google Shopping データをスクレイピングする(Thunderbit を使用)
- 難易度: 初心者
- 必要時間: 約2〜5分
- 必要なもの: Chrome ブラウザ、(無料枠で可)、Google Shopping の検索クエリ
「Google Shopping のデータが必要」から「はい、スプレッドシートです」まで最速で進める方法です。コードも API キーも、プロキシ設定も不要です。私は非技術系の同僚にこの流れを何十回も案内してきましたが、つまずいた人は一人もいませんでした。
ステップ1: Thunderbit をインストールして Google Shopping を開く
Chrome ウェブストアから をインストールし、無料アカウントを作成します。
そのあと、Google Shopping を開きます。shopping.google.com に直接アクセスしてもいいですし、通常の Google 検索の Shopping タブを使っても大丈夫です。欲しい商品やカテゴリを検索してください。たとえば「wireless noise-cancelling headphones」などです。
価格、販売者、評価が並んだ商品一覧のグリッドが表示されるはずです。
ステップ2: 「AI Suggest Fields」で列を自動検出する
Thunderbit の拡張アイコンをクリックしてサイドバーを開き、「AI Suggest Fields」 を押します。AI が Google Shopping ページを解析して、Product Title、Price、Seller、Rating、Review Count、Image URL、Product Link などの列を提案してくれます。
提案された項目を確認してください。列名の変更、不要な列の削除、独自項目の追加もできます。たとえば「通貨記号を除いた数値だけを取りたい」といった場合は、その列に Field AI Prompt を追加できます。
Thunderbit のパネル内で、列構成のプレビューが表示されるはずです。
ステップ3: 「Scrape」を押して結果を確認する
青い 「Scrape」 ボタンを押します。Thunderbit が表示されている商品一覧をすべて構造化テーブルに取り込みます。
複数ページある場合も問題ありません。Thunderbit がページ移動やスクロールによる追加読み込みを自動で処理します。結果が多い場合は、Cloud Scraping(高速。Thunderbit の分散インフラ上で動作し、一度に最大50ページまで対応)と、Browser Scraping(自分の Chrome セッションを使う。Google が地域別の結果を出す場合やログインが必要な場合に便利)のどちらかを選べます。
私のテストでは、50件の商品をスクレイピングするのに約30秒でした。同じ作業を手作業でやると、各商品を開いて、商品名、価格、販売者、評価をコピーするだけで20分以上かかります。
ステップ4: サブページスクレイピングでデータを拡張する
最初の抽出が終わったら、Thunderbit パネルの 「Scrape Subpages」 をクリックします。AI が各商品の詳細ページにアクセスし、詳細説明、全販売者の価格、仕様、レビューなどを元のテーブルに追加します。
追加設定は不要です。AI が各詳細ページの構造を判断して、必要なデータを取ってくれます。私はこの方法で、40商品分の競合価格マトリクス(商品情報 + 全販売者価格 + 仕様)を5分未満で作れました。
ステップ5: Google Sheets、Excel、Airtable、Notion にエクスポートする
「Export」 をクリックして、保存先を選びます。、Excel、Airtable、Notion に無料で出力できます。CSV と JSON のダウンロードにも対応しています。
2クリックでスクレイピング、1クリックでエクスポート。これを Python でやると、約60行のコードに加えて、プロキシ設定、CAPTCHA 対応、継続的な保守が必要になります。
方法2: Python + SERP API で Google Shopping データをスクレイピングする
- 難易度: 中級者
- 必要時間: 約30分
- 必要なもの: Python 3.10 以上、
requestsとpandasライブラリ、SERP API キー(ScraperAPI、SerpApi など)
Google Shopping データへプログラム経由で再現性のあるアクセスが必要なら、SERP API が最も安定した Python ベースの方法です。アンチボット対策、JavaScript レンダリング、プロキシのローテーションはすべて裏側で処理されます。HTTP リクエストを送れば、構造化された JSON が返ってきます。
ステップ1: Python 環境をセットアップする
Python 3.12 をインストールして、必要なパッケージを入れます(2025〜2026年の本番環境ではこれがいちばん無難です)。
1pip install requests pandas
SERP API の提供元に登録します。 では月100回まで無料検索が可能で、 では 5,000 無料クレジットが付与されます。ダッシュボードから API キーを取得してください。
ステップ2: API リクエストを設定する
以下は ScraperAPI の Google Shopping エンドポイントを使った最小構成の例です。
1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5resp = requests.get(
6 "https://api.scraperapi.com/structured/google/shopping",
7 params={"api_key": API_KEY, "query": query, "country_code": "us"}
8)
9data = resp.json()
API は title、price、link、thumbnail、source(販売者)、rating などの項目を含む構造化 JSON を返します。
ステップ3: JSON を解析して項目を抽出する
1products = data.get("shopping_results", [])
2rows = []
3for p in products:
4 rows.append({
5 "title": p.get("title"),
6 "price": p.get("price"),
7 "seller": p.get("source"),
8 "rating": p.get("rating"),
9 "reviews": p.get("reviews"),
10 "link": p.get("link"),
11 "thumbnail": p.get("thumbnail"),
12 })
13df = pd.DataFrame(rows)
ステップ4: CSV か JSON に出力する
1df.to_csv("google_shopping_results.csv", index=False)
バッチ処理にも向いています。50件のキーワードをループして、1回のスクリプト実行でデータセットをまとめて作れます。ただしコスト面では、SERP API はクエリ数に応じて課金されるため、1日あたり何千件にもなると費用が増えていきます。料金の話は後ほど詳しく触れます。
方法3: Python + Playwright で Google Shopping データをスクレイピングする(ブラウザ自動化)
- 難易度: 上級者
- 必要時間: 約1時間以上(+継続的な保守)
- 必要なもの: Python 3.10 以上、Playwright、住宅系プロキシ、根気
いわば「完全に自分で制御する」方法です。実際のブラウザを起動して Google Shopping にアクセスし、レンダリング後のページからデータを抜き出します。いちばん柔軟ですが、同時にいちばん壊れやすい方法でもあります。Google のアンチボットはかなり厳しく、ページ構造も年に何度も変わります。
正直に言うと、この方法で CAPTCHA や IP ブロックと何週間も格闘したユーザーを何人も見てきました。動かすことはできますが、継続メンテナンスは覚悟してください。
ステップ1: Playwright とプロキシを設定する
1pip install playwright
2playwright install chromium
住宅系プロキシが必要です。データセンター IP はほぼ即座にブロックされます。あるフォーラムユーザーは率直に「AWS の IP は全部ブロックされるか、1〜2件の結果の後に CAPTCHA に遭う」と言っていました。Bright Data、Oxylabs、Decodo などのサービスでは、1〜5ドル/GB 程度から住宅プロキシプールを利用できます。
現実的なユーザーエージェントとプロキシを使って Playwright を構成します。
1from playwright.sync_api import sync_playwright
2with sync_playwright() as p:
3 browser = p.chromium.launch(
4 headless=True,
5 proxy={"server": "http://your-proxy:port", "username": "user", "password": "pass"}
6 )
7 context = browser.new_context(
8 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ..."
9 )
10 page = context.new_page()
ステップ2: Google Shopping に移動し、アンチボット対策を処理する
Google Shopping の URL を作成してアクセスします。
1query = "wireless noise cancelling headphones"
2url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
3page.goto(url, wait_until="networkidle")
EU の cookie 同意ポップアップが出たら処理します。
1try:
2 page.click("button#L2AGLb", timeout=3000)
3except:
4 pass
ページ読み込みの合間には、2〜5秒のランダム待機を入れるなど、人間らしい間隔を意識してください。Google の検知システムは、速すぎて均一なリクエストパターンを警戒します。
ステップ3: スクロール、ページ送り、商品データの抽出を行う
Google Shopping の結果は動的に読み込まれます。スクロールで遅延読み込みを発生させてから、商品カードを抽出します。
1import time, random
2# スクロールして結果を読み込む
3for _ in range(3):
4 page.evaluate("window.scrollBy(0, 1000)")
5 time.sleep(random.uniform(1.5, 3.0))
6# 商品カードを抽出
7cards = page.query_selector_all("[jsname='ZvZkAe']")
8results = []
9for card in cards:
10 title = card.query_selector("h3")
11 price = card.query_selector("span.a8Pemb")
12 # ... 他の項目を抽出
13 results.append({
14 "title": title.inner_text() if title else None,
15 "price": price.inner_text() if price else None,
16 })
重要な注意点として、上の CSS セレクタはあくまで目安で、必ず変わります。Google は class 名を頻繁に変えます。2024〜2026年だけでも、3種類以上のセレクタ構成が確認されています。class 名よりも、jsname、data-cid、<h3> タグ、img[alt] のような比較的安定した属性を頼りにしてください。
ステップ4: CSV か JSON に保存する
1import json
2from datetime import datetime
3filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
4with open(filename, "w") as f:
5 json.dump(results, f, indent=2)
このスクリプトは定期的なメンテナンスが前提です。Google がページ構造を変えると、これは年に何度も起こりますが、セレクタが壊れて再デバッグになります。
最大の悩み: CAPTCHA とアンチボットブロック
あちこちのフォーラムで、同じような話を見かけます。「数週間かけたけど、Google のアンチボットに勝てず諦めた」。CAPTCHA と IP ブロックは、DIY の Google Shopping スクレイパーを諦める最大の理由です。
Google はどうやってスクレイパーを止めるのか? そしてどう対処するのか?
| アンチボットの課題 | Google の対策 | 回避策 |
|---|---|---|---|
| IP フィンガープリント | 数回のリクエスト後にデータセンター IP を遮断 | 住宅系プロキシ、またはブラウザベースのスクレイピング |
| CAPTCHA | 速すぎる、または自動化されたリクエストパターンで発生 | レート制限(リクエスト間を10〜20秒空ける)、人間らしい待機、CAPTCHA 解決サービス |
| JavaScript レンダリング | Shopping の結果が JS で動的に読み込まれる | ヘッドレスブラウザ(Playwright)または JS をレンダリングする API |
| ユーザーエージェント判定 | 典型的なボット UA を遮断 | 現実的で最新のユーザーエージェント文字列をローテーション |
| TLS フィンガープリント | ブラウザ以外の TLS シグネチャを検出 | ブラウザ偽装付きの curl_cffi、または実ブラウザを使用 |
| AWS / クラウド IP の遮断 | 既知のクラウド事業者 IP レンジを遮断 | データセンター IP を最初から使わない |
2025年1月、Google は SERP と Shopping の結果に JavaScript 実行を必須化し、。これには SemRush や SimilarWeb が使っていたパイプラインも含まれます。さらに2025年9月には、Google が旧来の商品詳細ページ URL を廃止し、新しい「Immersive Product」表示にリダイレクトするようになりました。この変更は非同期 AJAX で読み込まれます。2025年後半より前に書かれたチュートリアルは、今ではほとんど使えません。
各方法はこれらの課題にどう対応するか
SERP API は、プロキシ、レンダリング、CAPTCHA 解決まで裏側で全部処理します。ユーザーは何も気にしなくて大丈夫です。
Thunderbit の Cloud Scraping は、米国・EU・アジアに分散したクラウド基盤を使って、JS レンダリングとアンチボット対策を自動で処理します。Browser Scraping モードでは、認証済みの自分の Chrome セッションを使うため、通常のユーザー操作に見えて検知を避けやすくなります。
DIY の Playwright は、プロキシ管理、待機時間の調整、CAPTCHA 対応、セレクタ保守、そして壊れていないかの監視まで、すべて自分で背負うことになります。
Google Shopping データをスクレイピングする本当のコスト: 正直な比較
「2万リクエストで50ドル……趣味のプロジェクトにはちょっと高い」という声は、フォーラムでもよく見かけます。でも、その議論では一番大きなコストが見落とされがちです。
コスト比較表
| 方法 | 初期費用 | 1クエリあたりのコスト(目安) | 保守負担 | 見えにくいコスト |
|---|---|---|---|---|
| DIY Python(プロキシなし) | 無料 | $0 | 非常に高い(破損、CAPTCHA) | デバッグにかかる時間 |
| DIY Python + 住宅系プロキシ | コードは無料 | 約$1〜5/GB | 中〜高 | プロキシ事業者の料金 |
| SERP API(SerpApi, ScraperAPI) | 無料枠は限定的 | 約$0.50〜5.00 / 1,000クエリ | 低い | 件数が増えると一気に高くなる |
| Thunderbit Chrome 拡張 | 無料枠(6ページ) | クレジット制、約1クレジット/行 | 非常に低い | 大量処理は有料プラン |
| Thunderbit Open API(Extract) | クレジット制 | 約20クレジット/ページ | 低い | 抽出ごとに課金 |
みんなが見落とす隠れコスト: あなたの時間
無料の DIY 方案でも、40時間デバッグに費やすなら無料とは言えません。時給50ドルなら、2,000ドル分の労働です。しかも、来月 Google が DOM を変えたら、また壊れるかもしれません。

McKinsey の Technology Outlook によると、 現れます。それ未満では、自前で作ると「ROI を生まずに予算を消費する」ことになりがちです。週に数百〜数千件の検索で足りる多くの ecommerce チームにとっては、ノーコードツールや SERP API のほうが、自作よりかなり費用対効果が高いです。
Google Shopping の価格監視を自動化する方法
多くのガイドは、スクレイピングを一回限りの作業として扱っています。でも ecommerce チームにとって本当に大事なのは、継続的で自動化された監視 です。必要なのは今日の価格だけではなく、昨日、先週、そして明日の価格です。
Thunderbit で定期スクレイピングを設定する
Thunderbit の Scheduled Scraper では、「毎日午前9時」「毎週月曜と木曜の正午」のように、時間の間隔を自然な言葉で指示できます。AI がそれを繰り返し実行されるスケジュールに変換します。Google Shopping の URL を入力して 「Schedule」 をクリックすれば完了です。
各実行結果は Google Sheets、Airtable、Notion に自動で出力されます。最終的には、競合価格が毎日自動で入っていくスプレッドシートができ、ピボットテーブルやアラートにすぐ使えます。
cron も不要。サーバー管理も不要。Lambda 関連の面倒もありません。(Selenium を AWS Lambda で動かすのに何日も費やした開発者の投稿を何件も見ましたが、Thunderbit のスケジューラならその手間をまるごと飛ばせます。)
の作り方については、別途詳しく解説しています。
Python でスケジュール実行する場合(開発者向け)
SERP API を使うなら、cron ジョブ(Linux/Mac)、Windows タスク スケジューラ、AWS Lambda や Google Cloud Functions のようなクラウドスケジューラで実行できます。APScheduler のような Python ライブラリも使えます。
ただしその代わり、スクリプトの健全性監視、失敗時の処理、スケジュールに合わせたプロキシ切り替え、Google がページを変更した際のセレクタ更新まで、すべて自分たちの責任になります。多くのチームでは、定期実行の Python スクレイパーを維持するためのエンジニア工数のほうが、専用ツールの導入コストを上回ります。
Google Shopping データをスクレイピングする際のコツとベストプラクティス
方法に関係なく、いくつか押さえておくと余計な苦労を減らせます。
レート制限を守る
Google に短時間で大量のリクエストを送らないでください。ブロックされるうえ、IP がしばらくマークされることがあります。DIY の場合は、リクエスト間を10〜20秒空け、ランダムな揺らぎを入れましょう。ツールや API はこの点を自動で処理してくれます。
データ量に合った方法を選ぶ
簡単な目安は次のとおりです。
- 週10件未満 → Thunderbit の無料枠、または SerpApi の無料枠
- 週10〜1,000件 → SERP API の有料プラン、または
- 週1,000件以上 → SERP API のエンタープライズプラン、または Thunderbit Open API
データを整形・検証する
価格には通貨記号、地域ごとの表記(1.299,00 € と $1,299.00 など)、ときどき余計な文字が混ざります。Thunderbit の Field AI Prompt で抽出時に整えるか、後から pandas でクリーンアップしましょう。
1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)
オーガニック掲載とスポンサー掲載の重複も確認してください。これらはよく重なります。(title, price, seller) の組み合わせで重複排除するとよいです。
法的な前提を理解しておく
公開されている商品データのスクレイピングは、一般的には合法と考えられていますが、法的状況は急速に変わっています。最近の重要な動きとして、Google は 2025年12月に SerpApi を相手取り、Google の「SearchGuard」アンチスクレイピングシステムを回避したとして DMCA § 1201 で訴訟を起こしました。これは、hiQ 対 LinkedIn や Van Buren 対 United States のような過去の判例で確立された防御を迂回する、新しい執行の流れです。
実務上のガイドラインは次のとおりです。
- 公開されているデータだけを対象にすること。制限されたコンテンツに入るためにログインしない
- 個人情報(レビュー投稿者名、アカウント情報)を抽出しない
- Google の利用規約では自動アクセスが禁止されていることを認識すること。SERP API やブラウザ拡張を使うと法的グレーゾーンは減りますが、完全にはなくなりません
- EU で運用する場合は GDPR も意識すること。もっとも商品掲載情報の大半は非個人の商用データです
- スクレイピングデータを使った商用プロダクトを作るなら、弁護士に相談することを検討してください
については、別記事で詳しく取り上げています。
Google Shopping データをスクレイピングするなら、どの方法を選ぶべきか?
同じ商品カテゴリで3つの方法をすべて試した結果、私の結論はこうです。
技術的な作業は苦手だけど、すぐにデータが必要な人 — Thunderbit を使ってください。Google Shopping を開いて、2回クリックして、エクスポートするだけ。5分以内にきれいなスプレッドシートが手に入ります。 で気軽に試せて、サブページスクレイピングもあるので、多くの Python スクリプトより豊富なデータを取れます。
再現性のあるプログラムアクセスが必要な開発者 — SERP API が向いています。クエリごとのコストに見合う安定性があり、アンチボットの面倒も避けられます。ドキュメントの分かりやすさなら SerpApi、無料枠の太さなら ScraperAPI が強いです。
最大限の制御が必要で、独自パイプラインを作っている人 — Playwright は有効ですが、最初から覚悟して入るべきです。プロキシ管理、セレクタ保守、CAPTCHA 対応にかなりの時間を確保してください。2025〜2026年の最小構成の回避スタックは、curl_cffi による Chrome 偽装 + 住宅系プロキシ + 10〜20秒の間隔です。単純な requests スクリプトにユーザーエージェントのローテーションを入れるだけでは、もう通用しません。
最適な方法とは、あなたの週を食い潰さずに正確なデータを取れる方法です。多くの人にとって、それは60行の Python ではなく、2回のクリックです。
大量処理が必要なら を確認してください。実際の流れを見たいなら、 のチュートリアルもおすすめです。
FAQ
Google Shopping データをスクレイピングするのは合法ですか?
公開されている商品データのスクレイピングは、hiQ 対 LinkedIn や Van Buren 対 United States のような判例に照らして、一般的には合法と考えられています。ただし、Google の利用規約では自動アクセスが禁止されており、2025年12月の SerpApi に対する訴訟では、DMCA § 1201 に基づく新しい回避禁止の理論が持ち込まれました。信頼できるツールや API を使うことでリスクは下がります。商用利用の場合は、法律の専門家に相談してください。
ブロックされずに Google Shopping をスクレイピングできますか?
はい、ただし方法次第です。SERP API はアンチボット対策を自動で処理します。Thunderbit の Cloud Scraping は分散インフラでブロックを回避し、Browser Scraping モードは自分の Chrome セッションを使うため、通常のブラウジングのように見えます。DIY の Python スクリプトでは、住宅系プロキシ、人間らしい遅延、TLS フィンガープリント管理が必要で、それでもブロックは珍しくありません。
Google Shopping データを一番簡単にスクレイピングする方法は?
Thunderbit の Chrome 拡張です。Google Shopping を開いて、「AI Suggest Fields」をクリックし、「Scrape」を押して Google Sheets または Excel にエクスポートするだけ。コーディングも、API キーも、プロキシ設定も不要です。全体で約2分です。
価格監視のために Google Shopping をどのくらいの頻度でスクレイピングできますか?
Thunderbit の Scheduled Scraper なら、自然文で毎日・毎週・任意の間隔を設定できます。SERP API では、頻度はプランのクレジット上限に依存します。多くの提供元は、数百 SKU の日次監視に十分な量を用意しています。DIY スクリプトはインフラが許す限り頻繁に実行できますが、頻度を上げるほどアンチボット対策の悩みも増えます。
Google Shopping データを Google Sheets や Excel に出力できますか?
はい。Thunderbit は Google Sheets、Excel、Airtable、Notion に直接無料でエクスポートできます。Python スクリプトは CSV または JSON に出力し、その後スプレッドシートツールへ取り込めます。継続的な監視なら、Thunderbit の Google Sheets への定期出力で、常に最新の自動更新データセットを作れます。