Google Shoppingデータの取得方法 — コードあり・なしで解説

最終更新日 April 15, 2026

Google Shopping は、毎月 をさばいています。つまり、何千もの小売店から集まった膨大な価格データ、商品トレンド、販売者情報が、そのままブラウザの中に並んでいるようなものです。

そのデータを Google Shopping から抜き出してスプレッドシートに落とし込む。ここからが一気に面倒になります。私は、ノーコードのブラウザー拡張から本格的な Python スクリプトまで、いろいろな方法をかなり試してきましたが、体験は「え、こんなに簡単なの?」から「CAPTCHA のデバッグを3日も続けていて、もう限界」まで本当に幅があります。多くのガイドは Python 開発者向けに書かれていますが、実際に Google Shopping のデータを必要としている人の多くは、EC 運営者、価格分析担当、マーケターなど、コードを書かずに数字だけほしい人たちです。そこでこのガイドでは、難易度の低い順に3つの方法を紹介します。あなたのスキルと使える時間に合うやり方を選んでください。

Google Shopping データとは?

Google Shopping は商品検索エンジンです。たとえば「ワイヤレス ノイズキャンセリング ヘッドホン」と検索すると、Google が複数のオンラインストアから商品をまとめて表示します。商品名、価格、販売店、評価、画像、リンクまで、ネット上で売られているものをリアルタイムで集めたカタログのようなものです。

なぜ Google Shopping データをスクレイピングするのか?

商品ページを1件見るだけでは、ほとんど何も分かりません。でも、それが何百件もあり、しかもスプレッドシートで構造化されていれば、そこから傾向が見えてきます。

google-shopping-manual-vs-auto (1).png

私がよく見かける主な用途は次のとおりです。

ユースケース恩恵を受ける人探したい情報
競合価格分析EC チーム、価格分析担当競合価格、値下げ傾向、価格変動の推移
商品トレンドの発見マーケティングチーム、プロダクトマネージャー新商品、伸びているカテゴリ、レビュー増加率
広告インテリジェンスPPC 担当、成長チームスポンサード掲載、入札している販売者、広告の表示頻度
販売者・リード調査営業チーム、B2B稼働中の販売者、カテゴリに新規参入した店舗
MAP 監視ブランドマネージャー最低広告価格ポリシーに違反している小売店
在庫・品揃えの追跡カテゴリマネージャー在庫状況、商品ラインナップの抜け

は、すでに AI 対応の価格設定ツールを使っています。競争価格のインテリジェンスに投資した企業では、最大29倍のリターンが報告されています。Amazon はおよそ10分ごとに価格を更新しています。今もライバル価格を手作業で確認しているなら、かなり時間の使い方で損をしています。

Thunderbit は、AI を使ってウェブサイトからデータを取得できる AI Web Scraper の Chrome 拡張機能です。特に、コードを書かずに構造化された Google Shopping データを欲しい EC 運営者、価格分析担当、マーケターに向いています。

Google Shopping から実際にどんなデータを取得できるのか?

ツールを選んだり、コードを書き始めたりする前に、どの項目が取得できて、どの項目に追加作業が必要なのかを把握しておくと役立ちます。

Google Shopping の検索結果から取得できる項目

Google Shopping で検索すると、結果ページの各商品カードには次のような情報があります。

項目備考
商品名テキスト"Sony WH-1000XM5 Wireless Headphones"ほぼ常に表示される
価格数値$278.00セール価格と通常価格の両方が出ることがある
販売者 / 店舗テキスト"Best Buy"1商品に複数の販売者が表示される場合あり
評価数値4.75点満点。常に表示されるとは限らない
レビュー件数数値12,453新商品では表示されないことがある
商品画像URLURLhttps://...初回読み込み時は base64 のプレースホルダーになる場合あり
商品リンクURLhttps://...Google の商品ページ、または販売店の直接ページへ遷移
配送情報テキスト"Free shipping"常にあるわけではない
スポンサータグ真偽値Yes/No広告枠かどうかの判定に役立つ

商品詳細ページから取得できる項目(サブページデータ)

Google Shopping の各商品詳細ページを開くと、さらに詳しい情報が取得できます。

項目備考
詳細説明テキスト商品ページへのアクセスが必要
すべての販売者価格数値(複数)複数店舗の価格比較ができる
仕様情報テキスト商品カテゴリごとに内容が異なる(寸法、重量など)
個別レビュー本文テキスト購入者のレビュー全文
長所 / 短所の要約テキストGoogle が自動生成することがある

これらの項目を取るには、検索結果を取得したあとで各商品のサブページにアクセスする必要があります。 に対応したツールなら、この作業を自動で処理できます。下でその流れを紹介します。

Google Shopping データを取得する3つの方法(あなたに合うものを選ぶ)

thunderbit-web-scraping-paths.png

3つの方法を、簡単なものから技術的なものへと順番に並べました。自分に合う行を選んで進んでください。

方法難易度準備時間ボット対策への対応向いている用途
ノーコード(Thunderbit Chrome 拡張)初心者約2分自動で対応EC 運営、マーケター、単発調査
Python + SERP API中級約30分API 側で対応プログラムから繰り返し使いたい開発者
Python + Playwright(ブラウザー自動化)上級約1時間以上自分で管理独自パイプライン、例外対応が必要なケース

方法1: コードなしで Google Shopping データを取得する(Thunderbit を使用)

  • 難易度: 初心者
  • 所要時間: 約2〜5分
  • 必要なもの: Chrome ブラウザー、(無料枠で可)、Google Shopping の検索条件

「Google Shopping のデータが欲しい」から「はい、ここがスプレッドシートです」まで最短で進める方法です。コードも API キーもプロキシ設定も不要。私は非技術系のメンバーにこの流れを何十回も案内してきましたが、詰まった人は一人もいませんでした。

ステップ1: Thunderbit を入れて Google Shopping を開く

Chrome ウェブストアから をインストールし、無料アカウントを作成します。

次に Google Shopping へ移動します。shopping.google.com に直接行ってもいいですし、通常の Google 検索結果にある Shopping タブを開いても構いません。気になる商品やカテゴリを検索しましょう。たとえば「wireless noise-cancelling headphones」のようなキーワードです。

価格、販売店、評価が並んだ商品一覧が表示されるはずです。

ステップ2: 「AI Suggest Fields」を押して列を自動検出する

Thunderbit の拡張機能アイコンをクリックしてサイドバーを開き、「AI Suggest Fields」 を押します。AI が Google Shopping ページを解析し、商品名、価格、販売者、評価、レビュー件数、画像URL、商品リンクなどの列を提案します。

提案された項目を確認してください。列名の変更、不要な列の削除、カスタム項目の追加ができます。たとえば「通貨記号を含めず、数値だけ価格を取りたい」といった場合は、その列に Field AI Prompt を追加できます。

Thunderbit のパネルには、列構成のプレビューが表示されるはずです。

ステップ3: 「Scrape」を押して結果を確認する

青い 「Scrape」 ボタンを押します。Thunderbit が、画面上に表示されている商品一覧をすべて構造化テーブルに取り込みます。

複数ページある場合も問題ありません。レイアウトに応じてページ送りやスクロールによる追加読み込みを自動で処理します。結果が多い場合は、Cloud Scraping(高速、最大50ページまで一度に処理、Thunderbit の分散インフラ上で実行)と Browser Scraping(自分の Chrome セッションを使用。Google が地域別結果を出す場合やログインが必要な場合に便利)のどちらかを選べます。

私の検証では、50件の商品一覧のスクレイピングは約30秒で終わりました。同じ作業を手作業でやると、商品名、価格、販売者、評価を1件ずつ開いてコピーする必要があり、20分以上かかります。

ステップ4: サブページスクレイピングでデータを充実させる

最初のスクレイピングが終わったら、Thunderbit パネルで 「Scrape Subpages」 をクリックします。AI が各商品の詳細ページを巡回し、詳細説明、すべての販売者価格、仕様、レビューなどの追加項目を元のテーブルに追記します。

追加設定は不要です。AI が各詳細ページの構造を自動で判断し、必要なデータを取得します。私はこの方法で、40商品分の競合価格マトリクス(商品名 + 全販売者価格 + 仕様)を5分未満で作成できました。

ステップ5: Google Sheets、Excel、Airtable、Notion にエクスポートする

「Export」 をクリックし、保存先を選びます。 、Excel、Airtable、Notion に対応しています。すべて無料です。CSV と JSON のダウンロードも可能です。

スクレイピングは2クリック、エクスポートは1クリック。これに対して Python で同じことをやろうとすると、60行前後のコードに加えて、プロキシ設定、CAPTCHA 対応、継続メンテナンスが必要になります。

方法2: Python + SERP API で Google Shopping データを取得する

  • 難易度: 中級
  • 所要時間: 約30分
  • 必要なもの: Python 3.10 以上、requestspandas ライブラリ、SERP API キー(ScraperAPI、SerpApi など)

プログラムから繰り返し使える形で Google Shopping データにアクセスしたいなら、SERP API が最も信頼できる Python ベースの方法です。ボット対策、JavaScript レンダリング、プロキシローテーションはすべて裏側で処理されます。HTTP リクエストを送るだけで、構造化された JSON が返ってきます。

ステップ1: Python 環境を準備する

Python 3.12 をインストールし(2025〜2026年の本番環境で無難な選択)、必要なパッケージを入れます。

1pip install requests pandas

SERP API 提供元に登録します。 は月100回の無料検索があり、 は5,000の無料クレジットがあります。ダッシュボードから API キーを取得してください。

ステップ2: API リクエストを設定する

以下は ScraperAPI の Google Shopping エンドポイントを使った最小例です。

1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5> This paragraph contains content that cannot be parsed and has been skipped.
6API からは `title`、`price`、`link`、`thumbnail`、`source`(販売者)、`rating` といった項目を含む構造化 JSON が返ります。
7### ステップ3: JSON 応答を解析して項目を取り出す
8```python
9products = data.get("shopping_results", [])
10rows = []
11for p in products:
12    rows.append({
13        "title": p.get("title"),
14        "price": p.get("price"),
15        "seller": p.get("source"),
16        "rating": p.get("rating"),
17        "reviews": p.get("reviews"),
18        "link": p.get("link"),
19        "thumbnail": p.get("thumbnail"),
20    })
21df = pd.DataFrame(rows)

ステップ4: CSV または JSON に出力する

1df.to_csv("google_shopping_results.csv", index=False)

バッチ処理にも向いています。50個のキーワードをループして、1回のスクリプト実行で大きなデータセットを作れます。ただし、その分コストはかかります。SERP API はクエリごとに課金されるため、1日に数千件になると料金が増えていきます。料金については後ほど説明します。

方法3: Python + Playwright で Google Shopping データを取得する(ブラウザー自動化)

  • 難易度: 上級
  • 所要時間: 約1時間以上(加えて継続メンテナンス)
  • 必要なもの: Python 3.10 以上、Playwright、住宅用プロキシ、根気

これは「完全に自分で制御する」やり方です。実ブラウザーを起動し、Google Shopping にアクセスして、レンダリング済みページからデータを抜き出します。柔軟性は最も高いですが、壊れやすさも最上級です。Google のボット対策は厳しく、ページ構造も年に何度も変わります。

正直に言うと、この方法で CAPTCHA や IP ブロックと何週間も戦っていたユーザーを何人も見てきました。動くには動きますが、継続的な保守が必要だと考えてください。

ステップ1: Playwright とプロキシを設定する

1pip install playwright
2playwright install chromium

住宅用プロキシが必要です。データセンター IP はほぼ即座にブロックされます。あるフォーラムでは、「AWS の IP はすべてブロックされるか、1〜2件取得したら CAPTCHA に遭遇する」と率直に書かれていました。Bright Data、Oxylabs、Decodo などのサービスでは、住宅用プロキシプールをおよそ $1〜5/GB から利用できます。

実在のブラウザーらしく見える user-agent とプロキシを設定します。

1from playwright.sync_api import sync_playwright
2> This paragraph contains content that cannot be parsed and has been skipped.
3### ステップ2: Google Shopping に移動し、ボット対策に対応する
4Google Shopping の URL を作って移動します。
5```python
6query = "wireless noise cancelling headphones"
7url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
8page.goto(url, wait_until="networkidle")

EU の Cookie 同意ポップアップが出る場合は処理します。

1try:
2    page.click("button#L2AGLb", timeout=3000)
3except:
4    pass

操作の間には人間らしい遅延を入れます。ページ読み込みの間隔を2〜5秒ほどランダムに空けてください。Google の検出システムは、速くて一定のリクエストパターンを不審に見ます。

ステップ3: スクロール・ページ送り・商品データ取得

Google Shopping は結果を動的に読み込みます。スクロールして遅延読み込みを発動させ、そのあと商品カードを取得します。

1import time, random
2# スクロールして全件読み込む
3for _ in range(3):
4    page.evaluate("window.scrollBy(0, 1000)")
5    time.sleep(random.uniform(1.5, 3.0))
6> This paragraph contains content that cannot be parsed and has been skipped.
7重要な注意点です。上の CSS セレクタはあくまで目安で、**変更される可能性があります**。Google はクラス名を頻繁に変えます。20242026年だけでも、3種類の異なるセレクタ構成が確認されています。クラス名よりも、`jsname`、`data-cid`、`<h3>` タグ、`img[alt]` のような比較的安定した属性を基準にしましょう。
8### ステップ4: CSV または JSON に保存する
9```python
10import json
11from datetime import datetime
12filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
13with open(filename, "w") as f:
14    json.dump(results, f, indent=2)

このスクリプトは定期的な保守が必要になると考えてください。Google がページ構造を変えるたびに、つまり年に何回もセレクタが壊れ、そのたびにデバッグし直すことになります。

最大の悩みどころ: CAPTCHA とボット対策ブロック

多くのフォーラムで同じ話が出てきます。「数週間頑張ったけど、Google のボット対策に負けて諦めた。」CAPTCHA と IP ブロックは、DIY の Google Shopping スクレイパーを諦める最大の理由です。

Google はどうやってスクレイパーをブロックするのか?

This paragraph contains content that cannot be parsed and has been skipped.

2025年1月、Google は SERP と Shopping の結果で JavaScript 実行を必須にし、。SemRush や SimilarWeb が使っていたパイプラインも含まれます。さらに2025年9月には、Google が旧来の商品詳細ページ URL を廃止し、新しい「Immersive Product」画面へリダイレクトするようになり、これは非同期 AJAX で読み込まれます。2025年後半より前に書かれたチュートリアルは、今ではほとんど使えません。

各方法はこれらの問題にどう対応するか

SERP API は、プロキシ、レンダリング、CAPTCHA 解決まで裏側ですべて処理します。利用者は気にしなくて済みます。

Thunderbit の Cloud Scraping は、米国、EU、アジアにまたがる分散クラウド基盤を使い、JS レンダリングとボット対策を自動で処理します。Browser Scraping モードは、自分の認証済み Chrome セッションを使うため、通常のユーザーがブラウジングしているように見え、検出を回避しやすくなります。

自作の Playwright は、プロキシ管理、遅延調整、CAPTCHA 対応、セレクタ保守、動作不良の継続監視まで、すべて自分で抱えることになります。

Google Shopping データ取得にかかる本当のコスト: 正直な比較

「約2万リクエストで50ドル……趣味のプロジェクトにはちょっと高い。」こうした不満はフォーラムでよく見かけます。でも、その議論では一番大きなコストが見落とされがちです。

コスト比較表

方法初期費用1クエリあたりの費用(概算)保守負担見えにくいコスト
DIY Python(プロキシなし)無料$0高い(壊れやすさ、CAPTCHA)デバッグに費やす自分の時間
DIY Python + 住宅用プロキシコードは無料約$1〜5/GB中〜高プロキシ事業者の料金
SERP API(SerpApi、ScraperAPI)無料枠は限定的約$0.50〜5.00 / 1K クエリ低い大量利用で一気に高くなる
Thunderbit Chrome 拡張無料枠(6ページ)クレジット制、約1クレジット/行非常に低い大量処理には有料プランが必要
Thunderbit Open API(Extract)クレジット制約20クレジット/ページ低い取得ごとの従量課金

みんなが見落としがちな隠れコスト: あなたの時間

40時間のデバッグを食う DIY の $0 ソリューションは、実質的には無料ではありません。時給50ドルで考えると、人件費は2,000ドルです。しかも翌月に Google が DOM を変えたら、また壊れるかもしれません。

google-shopping-cost-vs (2).png

McKinsey の Technology Outlook によると、 にあります。それ以下では、社内で構築すると「ROI を生まずに予算を消費する」ことになりがちです。週に数百〜数千件程度の検索を行う多くの EC チームにとっては、ノーコードツールや SERP API のほうが、自前で作るよりかなり費用対効果が高いです。

Google Shopping の価格監視を自動化する方法

多くのガイドは、スクレイピングを一回限りの作業として扱っています。でも EC チームにとって本当に大事なのは、継続的で自動化された監視です。必要なのは今日の価格だけではなく、昨日、先週、そして明日の価格です。

Thunderbit で定期スクレイピングを設定する

Thunderbit の Scheduled Scraper では、「毎日午前9時」や「毎週月曜と木曜の正午」といったように、自然な文章で間隔を指定できます。すると AI がそれを繰り返し実行されるスケジュールに変換します。Google Shopping の URL を入力し、「Schedule」 をクリックするだけで完了です。

実行のたびに、Google Sheets、Airtable、Notion へ自動でエクスポートされます。最終的には、競合価格が毎日自動で蓄積され、ピボットテーブルやアラートにそのまま使えるスプレッドシートになります。

cron ジョブも、サーバー管理も、Lambda 関数の頭痛もいりません。(AWS Lambda で Selenium を動かすために何日も苦戦していた開発者の投稿を見たことがありますが、Thunderbit のスケジューラーならそうした作業を全部飛ばせます。)

の作り方については、別の記事で詳しく解説しています。

Python でスケジュールする場合(開発者向け)

SERP API を使うなら、cron ジョブ(Linux/Mac)、Windows Task Scheduler、AWS Lambda や Google Cloud Functions のようなクラウドスケジューラーで実行できます。APScheduler のような Python ライブラリも使えます。

ただしその場合、スクリプトの稼働監視、失敗時の対応、プロキシの定期ローテーション、Google のページ変更に合わせたセレクタ更新まで、すべて自分で面倒を見る必要があります。多くのチームでは、定期実行する Python スクレイパーを保守するエンジニア工数のほうが、専用ツールの費用を上回ります。

Google Shopping データをスクレイピングする際のヒントとベストプラクティス

方法が何であれ、少し気をつけるだけで手間がかなり減ります。

レート制限を守る

Google に対して短時間に何百回も連打しないでください。ブロックされますし、IP がしばらくフラグ付きのままになることもあります。DIY の場合は、リクエスト間を10〜20秒空け、ランダムな揺らぎも入れましょう。ツールや API はこの部分を代わりに処理してくれます。

データ量に合う方法を選ぶ

簡単な目安は次のとおりです。

  • 週10件未満 → Thunderbit の無料枠、または SerpApi の無料枠
  • 週10〜1,000件 → SERP API の有料プラン、または
  • 週1,000件超 → SERP API のエンタープライズプラン、または Thunderbit Open API

データを整形・検証する

価格には通貨記号、地域ごとの表記差(1.299,00 € と $1,299.00 のような違い)、ときどき不要な文字が含まれます。Thunderbit の Field AI Prompts で取得時に正規化するか、あとで pandas で整えましょう。

1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)

自然検索とスポンサード掲載の間で重複があるか確認してください。かなりの頻度で重なります。(title, price, seller) の組で重複排除するとよいです。

法的な位置づけを理解する

公開されている商品データのスクレイピングは一般に合法と考えられていますが、法的環境は急速に変化しています。最近の重要な動きとして、 。DMCA §1201 に基づき、Google の「SearchGuard」対スクレイピングシステムを回避したとして争っています。これは、hiQ v. LinkedIn や Van Buren v. United States のような過去の判例で築かれた防御とは別の、新しい執行ルートです。

実務上の目安:

  • 公開されているデータだけを取得する — 制限されたコンテンツを見るためにログインしない
  • 個人情報(レビュー投稿者名、アカウント詳細)を抽出しない
  • Google の利用規約では自動アクセスが禁止されている点を理解する — SERP API やブラウザー拡張を使うと法的グレーゾーンは減らせるが、ゼロにはならない
  • EU で運用する場合は GDPR も意識する。ただし商品一覧はほぼ確実に非個人の商業データです
  • 取得したデータを使って商用製品を作るなら、弁護士への相談を検討する

については、別記事で詳しく扱っています。

Google Shopping データのスクレイピングにはどの方法を使うべきか?

同じ商品カテゴリに対して3つの方法を試した結果、私の結論はこうです。

非技術系で、すぐにデータが必要な人 — Thunderbit を使ってください。Google Shopping を開いて2回クリックするだけで、きれいなスプレッドシートが5分以内に手に入ります。 で気軽に試せるうえ、サブページスクレイピング機能により、多くの Python スクリプトより豊富なデータが取れます。

繰り返し使えるプログラムからのアクセスが必要な開発者 — SERP API を使ってください。信頼性は1クエリごとの料金に見合っていますし、ボット対策の面倒もすべて避けられます。ドキュメントの分かりやすさでは SerpApi が優秀で、無料枠の太さでは ScraperAPI が有利です。

最大限の制御が必要で、独自パイプラインを作っている人 — Playwright は使えますが、覚悟して進めてください。プロキシ管理、セレクタ保守、CAPTCHA 対応にかなりの時間を割く必要があります。2025〜2026年時点で、最低限成立する回避構成は curl_cffi による Chrome 偽装 + 住宅用プロキシ + 10〜20秒の間隔です。単純な requests スクリプトに user-agent ローテーションを足しただけでは、もう通用しません。

最良の方法は、あなたの週を食い潰さずに正確なデータを取れる方法です。多くの人にとって、それは60行の Python スクリプトではなく、2回のクリックです。

大量処理が必要なら を確認してください。実際の流れを見たい方は、 のチュートリアルもおすすめです。

Google Shopping のスクレイピングに Thunderbit を試す

FAQ

Google Shopping データをスクレイピングするのは合法ですか?

公開されている商品データのスクレイピングは、hiQ v. LinkedIn や Van Buren v. United States などの判例に照らして、一般的には合法と考えられています。ただし、Google の利用規約では自動アクセスが禁止されており、Google が 2025年12月に SerpApi を提訴したことで、DMCA §1201 に基づく新しい回避禁止の論点も加わりました。信頼できるツールや API を使うことでリスクは下がります。商用利用なら弁護士に相談してください。

ブロックされずに Google Shopping をスクレイピングできますか?

はい、ただし方法次第です。SERP API はボット対策を自動で処理します。Thunderbit の Cloud Scraping は分散インフラでブロックを回避し、Browser Scraping モードは自分の Chrome セッションを使うため通常の閲覧に近い見え方になります。DIY の Python スクリプトでは、住宅用プロキシ、人間らしい遅延、TLS フィンガープリント管理が必要で、それでもブロックされることは珍しくありません。

Google Shopping データを取得する最も簡単な方法は?

Thunderbit の Chrome 拡張です。Google Shopping に移動し、「AI Suggest Fields」を押して、「Scrape」を押し、Google Sheets か Excel にエクスポートします。コーディングも API キーもプロキシ設定も不要で、全体で約2分です。

価格監視のために Google Shopping をどのくらいの頻度でスクレイピングできますか?

Thunderbit の Scheduled Scraper なら、自然な文章で日次・週次・任意間隔の監視を設定できます。SERP API の場合は、プランのクレジット上限によります。多くの提供元は、数百SKU程度の毎日監視には十分な枠があります。DIY スクリプトはインフラが許す限り高頻度で回せますが、頻度を上げるほどボット対策の面倒も増えます。

Google Shopping データを Google Sheets や Excel に出力できますか?

はい。Thunderbit は Google Sheets、Excel、Airtable、Notion に直接無料で出力できます。Python スクリプトは CSV や JSON に書き出せるので、その後どの表計算ツールにも取り込めます。継続的な監視には、Thunderbit の Google Sheets への定期エクスポートが、常に更新されるライブデータセットとして便利です。

  • さらに詳しく
Topics
PythonでGoogle ShoppingをスクレイピングPython Google Shopping スクレイパーPythonでGoogle Shoppingデータを抽出PythonでGoogle Shoppingから商品価格をスクレイピング
目次

Thunderbitを試す

リードや各種データをわずか2クリックで取得。AI搭載。

Thunderbitを入手 無料です
AIでデータを抽出
Google Sheets、Airtable、Notionへ簡単にデータ転送
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week