Google Shopping は、毎月 をさばいています。つまり、何千もの小売店から集まった膨大な価格データ、商品トレンド、販売者情報が、そのままブラウザの中に並んでいるようなものです。
そのデータを Google Shopping から抜き出してスプレッドシートに落とし込む。ここからが一気に面倒になります。私は、ノーコードのブラウザー拡張から本格的な Python スクリプトまで、いろいろな方法をかなり試してきましたが、体験は「え、こんなに簡単なの?」から「CAPTCHA のデバッグを3日も続けていて、もう限界」まで本当に幅があります。多くのガイドは Python 開発者向けに書かれていますが、実際に Google Shopping のデータを必要としている人の多くは、EC 運営者、価格分析担当、マーケターなど、コードを書かずに数字だけほしい人たちです。そこでこのガイドでは、難易度の低い順に3つの方法を紹介します。あなたのスキルと使える時間に合うやり方を選んでください。
Google Shopping データとは?
Google Shopping は商品検索エンジンです。たとえば「ワイヤレス ノイズキャンセリング ヘッドホン」と検索すると、Google が複数のオンラインストアから商品をまとめて表示します。商品名、価格、販売店、評価、画像、リンクまで、ネット上で売られているものをリアルタイムで集めたカタログのようなものです。
なぜ Google Shopping データをスクレイピングするのか?
商品ページを1件見るだけでは、ほとんど何も分かりません。でも、それが何百件もあり、しかもスプレッドシートで構造化されていれば、そこから傾向が見えてきます。

私がよく見かける主な用途は次のとおりです。
| ユースケース | 恩恵を受ける人 | 探したい情報 |
|---|---|---|
| 競合価格分析 | EC チーム、価格分析担当 | 競合価格、値下げ傾向、価格変動の推移 |
| 商品トレンドの発見 | マーケティングチーム、プロダクトマネージャー | 新商品、伸びているカテゴリ、レビュー増加率 |
| 広告インテリジェンス | PPC 担当、成長チーム | スポンサード掲載、入札している販売者、広告の表示頻度 |
| 販売者・リード調査 | 営業チーム、B2B | 稼働中の販売者、カテゴリに新規参入した店舗 |
| MAP 監視 | ブランドマネージャー | 最低広告価格ポリシーに違反している小売店 |
| 在庫・品揃えの追跡 | カテゴリマネージャー | 在庫状況、商品ラインナップの抜け |
は、すでに AI 対応の価格設定ツールを使っています。競争価格のインテリジェンスに投資した企業では、最大29倍のリターンが報告されています。Amazon はおよそ10分ごとに価格を更新しています。今もライバル価格を手作業で確認しているなら、かなり時間の使い方で損をしています。
Thunderbit は、AI を使ってウェブサイトからデータを取得できる AI Web Scraper の Chrome 拡張機能です。特に、コードを書かずに構造化された Google Shopping データを欲しい EC 運営者、価格分析担当、マーケターに向いています。
Google Shopping から実際にどんなデータを取得できるのか?
ツールを選んだり、コードを書き始めたりする前に、どの項目が取得できて、どの項目に追加作業が必要なのかを把握しておくと役立ちます。
Google Shopping の検索結果から取得できる項目
Google Shopping で検索すると、結果ページの各商品カードには次のような情報があります。
| 項目 | 型 | 例 | 備考 |
|---|---|---|---|
| 商品名 | テキスト | "Sony WH-1000XM5 Wireless Headphones" | ほぼ常に表示される |
| 価格 | 数値 | $278.00 | セール価格と通常価格の両方が出ることがある |
| 販売者 / 店舗 | テキスト | "Best Buy" | 1商品に複数の販売者が表示される場合あり |
| 評価 | 数値 | 4.7 | 5点満点。常に表示されるとは限らない |
| レビュー件数 | 数値 | 12,453 | 新商品では表示されないことがある |
| 商品画像URL | URL | https://... | 初回読み込み時は base64 のプレースホルダーになる場合あり |
| 商品リンク | URL | https://... | Google の商品ページ、または販売店の直接ページへ遷移 |
| 配送情報 | テキスト | "Free shipping" | 常にあるわけではない |
| スポンサータグ | 真偽値 | Yes/No | 広告枠かどうかの判定に役立つ |
商品詳細ページから取得できる項目(サブページデータ)
Google Shopping の各商品詳細ページを開くと、さらに詳しい情報が取得できます。
| 項目 | 型 | 備考 |
|---|---|---|
| 詳細説明 | テキスト | 商品ページへのアクセスが必要 |
| すべての販売者価格 | 数値(複数) | 複数店舗の価格比較ができる |
| 仕様情報 | テキスト | 商品カテゴリごとに内容が異なる(寸法、重量など) |
| 個別レビュー本文 | テキスト | 購入者のレビュー全文 |
| 長所 / 短所の要約 | テキスト | Google が自動生成することがある |
これらの項目を取るには、検索結果を取得したあとで各商品のサブページにアクセスする必要があります。 に対応したツールなら、この作業を自動で処理できます。下でその流れを紹介します。
Google Shopping データを取得する3つの方法(あなたに合うものを選ぶ)

3つの方法を、簡単なものから技術的なものへと順番に並べました。自分に合う行を選んで進んでください。
| 方法 | 難易度 | 準備時間 | ボット対策への対応 | 向いている用途 |
|---|---|---|---|---|
| ノーコード(Thunderbit Chrome 拡張) | 初心者 | 約2分 | 自動で対応 | EC 運営、マーケター、単発調査 |
| Python + SERP API | 中級 | 約30分 | API 側で対応 | プログラムから繰り返し使いたい開発者 |
| Python + Playwright(ブラウザー自動化) | 上級 | 約1時間以上 | 自分で管理 | 独自パイプライン、例外対応が必要なケース |
方法1: コードなしで Google Shopping データを取得する(Thunderbit を使用)
- 難易度: 初心者
- 所要時間: 約2〜5分
- 必要なもの: Chrome ブラウザー、(無料枠で可)、Google Shopping の検索条件
「Google Shopping のデータが欲しい」から「はい、ここがスプレッドシートです」まで最短で進める方法です。コードも API キーもプロキシ設定も不要。私は非技術系のメンバーにこの流れを何十回も案内してきましたが、詰まった人は一人もいませんでした。
ステップ1: Thunderbit を入れて Google Shopping を開く
Chrome ウェブストアから をインストールし、無料アカウントを作成します。
次に Google Shopping へ移動します。shopping.google.com に直接行ってもいいですし、通常の Google 検索結果にある Shopping タブを開いても構いません。気になる商品やカテゴリを検索しましょう。たとえば「wireless noise-cancelling headphones」のようなキーワードです。
価格、販売店、評価が並んだ商品一覧が表示されるはずです。
ステップ2: 「AI Suggest Fields」を押して列を自動検出する
Thunderbit の拡張機能アイコンをクリックしてサイドバーを開き、「AI Suggest Fields」 を押します。AI が Google Shopping ページを解析し、商品名、価格、販売者、評価、レビュー件数、画像URL、商品リンクなどの列を提案します。
提案された項目を確認してください。列名の変更、不要な列の削除、カスタム項目の追加ができます。たとえば「通貨記号を含めず、数値だけ価格を取りたい」といった場合は、その列に Field AI Prompt を追加できます。
Thunderbit のパネルには、列構成のプレビューが表示されるはずです。
ステップ3: 「Scrape」を押して結果を確認する
青い 「Scrape」 ボタンを押します。Thunderbit が、画面上に表示されている商品一覧をすべて構造化テーブルに取り込みます。
複数ページある場合も問題ありません。レイアウトに応じてページ送りやスクロールによる追加読み込みを自動で処理します。結果が多い場合は、Cloud Scraping(高速、最大50ページまで一度に処理、Thunderbit の分散インフラ上で実行)と Browser Scraping(自分の Chrome セッションを使用。Google が地域別結果を出す場合やログインが必要な場合に便利)のどちらかを選べます。
私の検証では、50件の商品一覧のスクレイピングは約30秒で終わりました。同じ作業を手作業でやると、商品名、価格、販売者、評価を1件ずつ開いてコピーする必要があり、20分以上かかります。
ステップ4: サブページスクレイピングでデータを充実させる
最初のスクレイピングが終わったら、Thunderbit パネルで 「Scrape Subpages」 をクリックします。AI が各商品の詳細ページを巡回し、詳細説明、すべての販売者価格、仕様、レビューなどの追加項目を元のテーブルに追記します。
追加設定は不要です。AI が各詳細ページの構造を自動で判断し、必要なデータを取得します。私はこの方法で、40商品分の競合価格マトリクス(商品名 + 全販売者価格 + 仕様)を5分未満で作成できました。
ステップ5: Google Sheets、Excel、Airtable、Notion にエクスポートする
「Export」 をクリックし、保存先を選びます。 、Excel、Airtable、Notion に対応しています。すべて無料です。CSV と JSON のダウンロードも可能です。
スクレイピングは2クリック、エクスポートは1クリック。これに対して Python で同じことをやろうとすると、60行前後のコードに加えて、プロキシ設定、CAPTCHA 対応、継続メンテナンスが必要になります。
方法2: Python + SERP API で Google Shopping データを取得する
- 難易度: 中級
- 所要時間: 約30分
- 必要なもの: Python 3.10 以上、
requestsとpandasライブラリ、SERP API キー(ScraperAPI、SerpApi など)
プログラムから繰り返し使える形で Google Shopping データにアクセスしたいなら、SERP API が最も信頼できる Python ベースの方法です。ボット対策、JavaScript レンダリング、プロキシローテーションはすべて裏側で処理されます。HTTP リクエストを送るだけで、構造化された JSON が返ってきます。
ステップ1: Python 環境を準備する
Python 3.12 をインストールし(2025〜2026年の本番環境で無難な選択)、必要なパッケージを入れます。
1pip install requests pandas
SERP API 提供元に登録します。 は月100回の無料検索があり、 は5,000の無料クレジットがあります。ダッシュボードから API キーを取得してください。
ステップ2: API リクエストを設定する
以下は ScraperAPI の Google Shopping エンドポイントを使った最小例です。
1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5> This paragraph contains content that cannot be parsed and has been skipped.
6API からは `title`、`price`、`link`、`thumbnail`、`source`(販売者)、`rating` といった項目を含む構造化 JSON が返ります。
7### ステップ3: JSON 応答を解析して項目を取り出す
8```python
9products = data.get("shopping_results", [])
10rows = []
11for p in products:
12 rows.append({
13 "title": p.get("title"),
14 "price": p.get("price"),
15 "seller": p.get("source"),
16 "rating": p.get("rating"),
17 "reviews": p.get("reviews"),
18 "link": p.get("link"),
19 "thumbnail": p.get("thumbnail"),
20 })
21df = pd.DataFrame(rows)
ステップ4: CSV または JSON に出力する
1df.to_csv("google_shopping_results.csv", index=False)
バッチ処理にも向いています。50個のキーワードをループして、1回のスクリプト実行で大きなデータセットを作れます。ただし、その分コストはかかります。SERP API はクエリごとに課金されるため、1日に数千件になると料金が増えていきます。料金については後ほど説明します。
方法3: Python + Playwright で Google Shopping データを取得する(ブラウザー自動化)
- 難易度: 上級
- 所要時間: 約1時間以上(加えて継続メンテナンス)
- 必要なもの: Python 3.10 以上、Playwright、住宅用プロキシ、根気
これは「完全に自分で制御する」やり方です。実ブラウザーを起動し、Google Shopping にアクセスして、レンダリング済みページからデータを抜き出します。柔軟性は最も高いですが、壊れやすさも最上級です。Google のボット対策は厳しく、ページ構造も年に何度も変わります。
正直に言うと、この方法で CAPTCHA や IP ブロックと何週間も戦っていたユーザーを何人も見てきました。動くには動きますが、継続的な保守が必要だと考えてください。
ステップ1: Playwright とプロキシを設定する
1pip install playwright
2playwright install chromium
住宅用プロキシが必要です。データセンター IP はほぼ即座にブロックされます。あるフォーラムでは、「AWS の IP はすべてブロックされるか、1〜2件取得したら CAPTCHA に遭遇する」と率直に書かれていました。Bright Data、Oxylabs、Decodo などのサービスでは、住宅用プロキシプールをおよそ $1〜5/GB から利用できます。
実在のブラウザーらしく見える user-agent とプロキシを設定します。
1from playwright.sync_api import sync_playwright
2> This paragraph contains content that cannot be parsed and has been skipped.
3### ステップ2: Google Shopping に移動し、ボット対策に対応する
4Google Shopping の URL を作って移動します。
5```python
6query = "wireless noise cancelling headphones"
7url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
8page.goto(url, wait_until="networkidle")
EU の Cookie 同意ポップアップが出る場合は処理します。
1try:
2 page.click("button#L2AGLb", timeout=3000)
3except:
4 pass
操作の間には人間らしい遅延を入れます。ページ読み込みの間隔を2〜5秒ほどランダムに空けてください。Google の検出システムは、速くて一定のリクエストパターンを不審に見ます。
ステップ3: スクロール・ページ送り・商品データ取得
Google Shopping は結果を動的に読み込みます。スクロールして遅延読み込みを発動させ、そのあと商品カードを取得します。
1import time, random
2# スクロールして全件読み込む
3for _ in range(3):
4 page.evaluate("window.scrollBy(0, 1000)")
5 time.sleep(random.uniform(1.5, 3.0))
6> This paragraph contains content that cannot be parsed and has been skipped.
7重要な注意点です。上の CSS セレクタはあくまで目安で、**変更される可能性があります**。Google はクラス名を頻繁に変えます。2024〜2026年だけでも、3種類の異なるセレクタ構成が確認されています。クラス名よりも、`jsname`、`data-cid`、`<h3>` タグ、`img[alt]` のような比較的安定した属性を基準にしましょう。
8### ステップ4: CSV または JSON に保存する
9```python
10import json
11from datetime import datetime
12filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
13with open(filename, "w") as f:
14 json.dump(results, f, indent=2)
このスクリプトは定期的な保守が必要になると考えてください。Google がページ構造を変えるたびに、つまり年に何回もセレクタが壊れ、そのたびにデバッグし直すことになります。
最大の悩みどころ: CAPTCHA とボット対策ブロック
多くのフォーラムで同じ話が出てきます。「数週間頑張ったけど、Google のボット対策に負けて諦めた。」CAPTCHA と IP ブロックは、DIY の Google Shopping スクレイパーを諦める最大の理由です。
Google はどうやってスクレイパーをブロックするのか?
This paragraph contains content that cannot be parsed and has been skipped.
2025年1月、Google は SERP と Shopping の結果で JavaScript 実行を必須にし、。SemRush や SimilarWeb が使っていたパイプラインも含まれます。さらに2025年9月には、Google が旧来の商品詳細ページ URL を廃止し、新しい「Immersive Product」画面へリダイレクトするようになり、これは非同期 AJAX で読み込まれます。2025年後半より前に書かれたチュートリアルは、今ではほとんど使えません。
各方法はこれらの問題にどう対応するか
SERP API は、プロキシ、レンダリング、CAPTCHA 解決まで裏側ですべて処理します。利用者は気にしなくて済みます。
Thunderbit の Cloud Scraping は、米国、EU、アジアにまたがる分散クラウド基盤を使い、JS レンダリングとボット対策を自動で処理します。Browser Scraping モードは、自分の認証済み Chrome セッションを使うため、通常のユーザーがブラウジングしているように見え、検出を回避しやすくなります。
自作の Playwright は、プロキシ管理、遅延調整、CAPTCHA 対応、セレクタ保守、動作不良の継続監視まで、すべて自分で抱えることになります。
Google Shopping データ取得にかかる本当のコスト: 正直な比較
「約2万リクエストで50ドル……趣味のプロジェクトにはちょっと高い。」こうした不満はフォーラムでよく見かけます。でも、その議論では一番大きなコストが見落とされがちです。
コスト比較表
| 方法 | 初期費用 | 1クエリあたりの費用(概算) | 保守負担 | 見えにくいコスト |
|---|---|---|---|---|
| DIY Python(プロキシなし) | 無料 | $0 | 高い(壊れやすさ、CAPTCHA) | デバッグに費やす自分の時間 |
| DIY Python + 住宅用プロキシ | コードは無料 | 約$1〜5/GB | 中〜高 | プロキシ事業者の料金 |
| SERP API(SerpApi、ScraperAPI) | 無料枠は限定的 | 約$0.50〜5.00 / 1K クエリ | 低い | 大量利用で一気に高くなる |
| Thunderbit Chrome 拡張 | 無料枠(6ページ) | クレジット制、約1クレジット/行 | 非常に低い | 大量処理には有料プランが必要 |
| Thunderbit Open API(Extract) | クレジット制 | 約20クレジット/ページ | 低い | 取得ごとの従量課金 |
みんなが見落としがちな隠れコスト: あなたの時間
40時間のデバッグを食う DIY の $0 ソリューションは、実質的には無料ではありません。時給50ドルで考えると、人件費は2,000ドルです。しかも翌月に Google が DOM を変えたら、また壊れるかもしれません。

McKinsey の Technology Outlook によると、 にあります。それ以下では、社内で構築すると「ROI を生まずに予算を消費する」ことになりがちです。週に数百〜数千件程度の検索を行う多くの EC チームにとっては、ノーコードツールや SERP API のほうが、自前で作るよりかなり費用対効果が高いです。
Google Shopping の価格監視を自動化する方法
多くのガイドは、スクレイピングを一回限りの作業として扱っています。でも EC チームにとって本当に大事なのは、継続的で自動化された監視です。必要なのは今日の価格だけではなく、昨日、先週、そして明日の価格です。
Thunderbit で定期スクレイピングを設定する
Thunderbit の Scheduled Scraper では、「毎日午前9時」や「毎週月曜と木曜の正午」といったように、自然な文章で間隔を指定できます。すると AI がそれを繰り返し実行されるスケジュールに変換します。Google Shopping の URL を入力し、「Schedule」 をクリックするだけで完了です。
実行のたびに、Google Sheets、Airtable、Notion へ自動でエクスポートされます。最終的には、競合価格が毎日自動で蓄積され、ピボットテーブルやアラートにそのまま使えるスプレッドシートになります。
cron ジョブも、サーバー管理も、Lambda 関数の頭痛もいりません。(AWS Lambda で Selenium を動かすために何日も苦戦していた開発者の投稿を見たことがありますが、Thunderbit のスケジューラーならそうした作業を全部飛ばせます。)
の作り方については、別の記事で詳しく解説しています。
Python でスケジュールする場合(開発者向け)
SERP API を使うなら、cron ジョブ(Linux/Mac)、Windows Task Scheduler、AWS Lambda や Google Cloud Functions のようなクラウドスケジューラーで実行できます。APScheduler のような Python ライブラリも使えます。
ただしその場合、スクリプトの稼働監視、失敗時の対応、プロキシの定期ローテーション、Google のページ変更に合わせたセレクタ更新まで、すべて自分で面倒を見る必要があります。多くのチームでは、定期実行する Python スクレイパーを保守するエンジニア工数のほうが、専用ツールの費用を上回ります。
Google Shopping データをスクレイピングする際のヒントとベストプラクティス
方法が何であれ、少し気をつけるだけで手間がかなり減ります。
レート制限を守る
Google に対して短時間に何百回も連打しないでください。ブロックされますし、IP がしばらくフラグ付きのままになることもあります。DIY の場合は、リクエスト間を10〜20秒空け、ランダムな揺らぎも入れましょう。ツールや API はこの部分を代わりに処理してくれます。
データ量に合う方法を選ぶ
簡単な目安は次のとおりです。
- 週10件未満 → Thunderbit の無料枠、または SerpApi の無料枠
- 週10〜1,000件 → SERP API の有料プラン、または
- 週1,000件超 → SERP API のエンタープライズプラン、または Thunderbit Open API
データを整形・検証する
価格には通貨記号、地域ごとの表記差(1.299,00 € と $1,299.00 のような違い)、ときどき不要な文字が含まれます。Thunderbit の Field AI Prompts で取得時に正規化するか、あとで pandas で整えましょう。
1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)
自然検索とスポンサード掲載の間で重複があるか確認してください。かなりの頻度で重なります。(title, price, seller) の組で重複排除するとよいです。
法的な位置づけを理解する
公開されている商品データのスクレイピングは一般に合法と考えられていますが、法的環境は急速に変化しています。最近の重要な動きとして、 。DMCA §1201 に基づき、Google の「SearchGuard」対スクレイピングシステムを回避したとして争っています。これは、hiQ v. LinkedIn や Van Buren v. United States のような過去の判例で築かれた防御とは別の、新しい執行ルートです。
実務上の目安:
- 公開されているデータだけを取得する — 制限されたコンテンツを見るためにログインしない
- 個人情報(レビュー投稿者名、アカウント詳細)を抽出しない
- Google の利用規約では自動アクセスが禁止されている点を理解する — SERP API やブラウザー拡張を使うと法的グレーゾーンは減らせるが、ゼロにはならない
- EU で運用する場合は GDPR も意識する。ただし商品一覧はほぼ確実に非個人の商業データです
- 取得したデータを使って商用製品を作るなら、弁護士への相談を検討する
については、別記事で詳しく扱っています。
Google Shopping データのスクレイピングにはどの方法を使うべきか?
同じ商品カテゴリに対して3つの方法を試した結果、私の結論はこうです。
非技術系で、すぐにデータが必要な人 — Thunderbit を使ってください。Google Shopping を開いて2回クリックするだけで、きれいなスプレッドシートが5分以内に手に入ります。 で気軽に試せるうえ、サブページスクレイピング機能により、多くの Python スクリプトより豊富なデータが取れます。
繰り返し使えるプログラムからのアクセスが必要な開発者 — SERP API を使ってください。信頼性は1クエリごとの料金に見合っていますし、ボット対策の面倒もすべて避けられます。ドキュメントの分かりやすさでは SerpApi が優秀で、無料枠の太さでは ScraperAPI が有利です。
最大限の制御が必要で、独自パイプラインを作っている人 — Playwright は使えますが、覚悟して進めてください。プロキシ管理、セレクタ保守、CAPTCHA 対応にかなりの時間を割く必要があります。2025〜2026年時点で、最低限成立する回避構成は curl_cffi による Chrome 偽装 + 住宅用プロキシ + 10〜20秒の間隔です。単純な requests スクリプトに user-agent ローテーションを足しただけでは、もう通用しません。
最良の方法は、あなたの週を食い潰さずに正確なデータを取れる方法です。多くの人にとって、それは60行の Python スクリプトではなく、2回のクリックです。
大量処理が必要なら を確認してください。実際の流れを見たい方は、 のチュートリアルもおすすめです。
FAQ
Google Shopping データをスクレイピングするのは合法ですか?
公開されている商品データのスクレイピングは、hiQ v. LinkedIn や Van Buren v. United States などの判例に照らして、一般的には合法と考えられています。ただし、Google の利用規約では自動アクセスが禁止されており、Google が 2025年12月に SerpApi を提訴したことで、DMCA §1201 に基づく新しい回避禁止の論点も加わりました。信頼できるツールや API を使うことでリスクは下がります。商用利用なら弁護士に相談してください。
ブロックされずに Google Shopping をスクレイピングできますか?
はい、ただし方法次第です。SERP API はボット対策を自動で処理します。Thunderbit の Cloud Scraping は分散インフラでブロックを回避し、Browser Scraping モードは自分の Chrome セッションを使うため通常の閲覧に近い見え方になります。DIY の Python スクリプトでは、住宅用プロキシ、人間らしい遅延、TLS フィンガープリント管理が必要で、それでもブロックされることは珍しくありません。
Google Shopping データを取得する最も簡単な方法は?
Thunderbit の Chrome 拡張です。Google Shopping に移動し、「AI Suggest Fields」を押して、「Scrape」を押し、Google Sheets か Excel にエクスポートします。コーディングも API キーもプロキシ設定も不要で、全体で約2分です。
価格監視のために Google Shopping をどのくらいの頻度でスクレイピングできますか?
Thunderbit の Scheduled Scraper なら、自然な文章で日次・週次・任意間隔の監視を設定できます。SERP API の場合は、プランのクレジット上限によります。多くの提供元は、数百SKU程度の毎日監視には十分な枠があります。DIY スクリプトはインフラが許す限り高頻度で回せますが、頻度を上げるほどボット対策の面倒も増えます。
Google Shopping データを Google Sheets や Excel に出力できますか?
はい。Thunderbit は Google Sheets、Excel、Airtable、Notion に直接無料で出力できます。Python スクリプトは CSV や JSON に書き出せるので、その後どの表計算ツールにも取り込めます。継続的な監視には、Thunderbit の Google Sheets への定期エクスポートが、常に更新されるライブデータセットとして便利です。
- さらに詳しく