Google 每年支付 6,000 萬美元授權 Reddit 資料,OpenAI 的協議據說更高達 7,000 萬美元。這足以說明那些留言串裡到底藏了多少寶藏。如果你曾經嘗試手動蒐集 Reddit 上的討論串、留言或情緒資料,你一定懂那種痛苦:無止盡的滑動、複製貼上,以及分頁開到爆炸。
我在上一季花了不少時間,協助 Thunderbit 團隊研究 2025 年大家到底是怎麼擷取 Reddit 資料的。自從 Reddit 於 2023 年調整 API 計價後,整個環境已經大幅改變,而網路上的大多數教學不是已經過時,就是只講單一做法。所以我把目前真正還能用的方法整理成一篇完整指南——共四種路線,從完整 Python 腳本到完全免寫程式的擷取方式都有,方便你依照自己的技術背景與使用情境挑選。無論你是要建立 NLP 資料集、監測某個 subreddit 的品牌聲量,還是單純想把熱門貼文整理成試算表,這篇都能派上用場。
什麼是 Reddit 擷取?為什麼這麼重要?
Reddit 擷取,是指透過程式化方式,從 Reddit 頁面或 API 中提取貼文、留言、使用者資料與中繼資料。你不需要一篇篇手動瀏覽討論串再複製文字,而是用腳本或工具大規模收集結構化資料。
為什麼值得做?Reddit 擁有超過 ,每天大約產生 。這裡聚集了人們對產品、服務、競品與趨勢最直接、最真實的看法——這種原始聲音,在修飾過的評論網站或企業部落格上幾乎找不到。Google 每年大約支付 取得 Reddit 內容授權,而 OpenAI 的協議據說高達 。如果地表上最大的 AI 公司都願意花九位數買這些資料,那就很值得你自己學會如何取得。
為什麼 2025 年還要用 Python 抓 Reddit?
Python 幾乎是 Reddit 擷取的標準語言——PRAW、requests、BeautifulSoup 和 pandas 可以串起從 API 呼叫到資料匯出的每一個步驟。但「為什麼要用」不只是工具問題。
以下是我在商務與研究團隊最常看到的用途:
| 用途 | 受益對象 | 範例 |
|---|---|---|
| 市場研究與驗證 | 產品經理、創辦人 | 從 r/SaaS 或 r/Entrepreneur 挖掘反覆出現的痛點 |
| 情緒分析 | 行銷團隊、品牌團隊 | 追蹤大家如何談論你的產品與競品 |
| 開發潛在客戶 | 業務團隊 | 在利基 subreddit 中找出「正在找能做 X 的工具」的貼文 |
| 內容靈感發想 | 內容行銷人員 | 在 r/marketing 或 r/SEO 發現正在升溫的問題與主題 |
| 學術 / NLP 研究 | 研究人員、資料科學家 | 從留言串建立帶標記資料集,用於情緒分類 |
| 競爭情資 | 策略、營運團隊 | 監測競品 subreddit 中反覆出現的抱怨 |
Reddit 的每月活躍用戶在 2025 年估計已達 ,每週活躍獨立訪客達 ,年增率達 24%。而在 Google 2024 年 8 月核心更新之後,Reddit 內容在自然搜尋結果中的能見度大約提升了 。
換句話說,你從 Reddit 擷取到的資料,往往也正是 Google 會顯示給搜尋者看的內容。
該用哪種方法抓 Reddit?快速比較
在 Reddit 擷取論壇裡,最常被問到的問題就是:「我到底該用哪一種方法?」所以我做了這張表,直接照你的需求選。
| 比較項目 | PRAW | .json 端點 | BeautifulSoup(HTML) | 免寫程式(Thunderbit) |
|---|---|---|---|---|
| 設定難度 | 中等(需 API app + pip 安裝) | 幾乎沒有(只要一個 URL) | 中等(需 pip + DOM 檢視) | 很低(Chrome 擴充功能) |
| 需要 API Key 嗎? | 需要 | 不需要 | 不需要 | 不需要 |
| 留言擷取 | 深度完整(巢狀樹狀) | 有限(僅頂層) | 需手動解析 | AI 結構化 |
| 分頁處理 | 內建 | 手動(after 參數) | 手動 | 自動 |
| 速率限制 | 100 次/分鐘(由 PRAW 管理) | 約 10 次/分鐘(未驗證) | 有 IP 封鎖風險 | 工具自動處理 |
| 最適合 | 功能完整的專案、研究用途 | 快速單次抓取 | 學習 / 自訂需求 | 不寫程式、快速匯出 |
| 匯出選項 | CSV、JSON(需手動程式) | JSON(原始資料) | 自訂(需手動程式) | Excel、Google Sheets、Airtable、Notion |
如果你想做完整的 Python 專案,而且需要深度留言擷取,先從方法 1(PRAW)開始。如果你只想在 10 分鐘內快速抓一批資料,而且不想做任何設定,就試試方法 2(.json 技巧)。如果你想學 HTML 擷取,或需要自訂欄位,那就用方法 3(BeautifulSoup)。如果你乾脆不想碰 Python,只想直接拿到資料,就跳到方法 4()。
2023–2024 Reddit API 計價更新發生了什麼?還有哪些方法仍可免費使用?
幾乎沒有任何擷取教學會提到這件事,但這其實是今天要抓 Reddit 時最重要的背景。
2023 年 6 月,Reddit 首次自 2008 年以來針對 API 存取推出付費方案。後續影響非常大:
- Pushshift 對公開使用失效。 Reddit 在 2023 年 5 月撤回了 Pushshift 的 API 存取權。依賴它的研究者(有超過 引用 Pushshift)一夕之間失去主要資料來源。歷史資料的替代方案是 ,但沒有公開的即時 API 替代品。
- 第三方 App 紛紛關閉。 Apollo、Reddit is Fun、Sync、BaconReader 等都在 2023 年 6 月 30 日前後停用,原因是 Reddit 對 Apollo 開發者開出每年 的 API 費用。
- 超過 8,500 個 subreddit 進入黑屏抗議。 包括 r/funny(4,000 萬訂閱者)、r/gaming 和 r/science 等社群都曾停擺抗議()。
2025 年仍可免費使用的部分:
仍可用於非商業、個人與學術用途——每個 OAuth client ID 每分鐘 100 次查詢。PRAW 在這個額度下可穩定運作,適合中等規模的擷取。未驗證存取(包含 .json 端點)則大約限制在每分鐘 10 次請求。
**實務結論:**對小到中型的擷取任務,免費方案其實綽綽有餘。若是大規模或商業用途,你就需要聯絡 Reddit 取得企業級存取、改用不需 API key 的 .json 端點或 BeautifulSoup,或直接使用像 Thunderbit 這種完全不依賴 Reddit API 的工具。
開始之前
- 難度: 初學者到中階(依方法而異)
- 所需時間: 方法 1–3 約 15–30 分鐘;方法 4 約 5 分鐘
- 你需要準備:
- 已安裝 Python 3.8+(方法 1–3)
- 一個 Reddit 帳號(方法 1)
- Chrome 瀏覽器(方法 4)
- (方法 4)
方法 1:使用 PRAW 透過 Python 抓取 Reddit(逐步教學)
PRAW(Python Reddit API Wrapper)是目前最受歡迎、文件也最完整的 Python Reddit 擷取方式。它會幫你處理驗證、速率限制與分頁,而且持續維護中——最新穩定版是 PRAW 7.8.1(2024 年 10 月),支援 Python 3.8 到 3.13。
第 1 步:建立 Reddit App 並取得 API 憑證
前往 並滑到最下方,點擊 「are you a developer? create an app...」
填寫表單:
- Name: 任意有辨識度的名稱(例如「my-reddit-scraper」)
- App type: 選擇 script
- Redirect URI: 輸入
http://localhost:8080(script app 需要,但其實不會用到) - Description: 可選
點擊 Create app 後,你會看到以下憑證:
- client_id — 位於 app 名稱正下方的 14 位字串(標示為「personal use script」)
- client_secret — 標示為「secret」的欄位
在建立 app 之前,你還需要接受 Reddit 的 與 。
提醒一下:自 2024 年底起,新開發者可能需要先提交存取申請並等待審核。這是第一次使用 PRAW 時最大的門檻,目前沒有繞過方式。
第 2 步:安裝 PRAW 並建立 Reddit 實例
打開終端機並執行:
1pip install praw pandas
接著建立一個唯讀的 Reddit 實例:
1import praw
2reddit = praw.Reddit(
3 client_id="YOUR_CLIENT_ID",
4 client_secret="YOUR_CLIENT_SECRET",
5 user_agent="python:reddit-scraper:v1.0 (by u/yourname)",
6)
7# 對沒有密碼的 script app,reddit.read_only 預設為 True
user_agent 的格式很重要。Reddit 會主動限流像 python-requests/2.x 這種太泛用的字串。請使用 Reddit 建議的格式:platform:app_id:version (by u/username)。
第 3 步:從 subreddit 擷取貼文
以下示範如何抓取 r/python 過去一個月的熱門貼文,並存成 pandas DataFrame:
1import pandas as pd
2subreddit = reddit.subreddit("python")
3rows = []
4for post in subreddit.top(time_filter="month", limit=500):
5 rows.append({
6 "id": post.id,
7 "title": post.title,
8 "selftext": post.selftext,
9 "score": post.score,
10 "upvote_ratio": post.upvote_ratio,
11 "num_comments": post.num_comments,
12 "author": str(post.author) if post.author else "[deleted]",
13 "created_utc": post.created_utc,
14 "url": post.url,
15 "permalink": f"https://reddit.com{post.permalink}",
16 })
17df = pd.DataFrame(rows)
18print(df.head())
你可以把 .top() 換成 .hot()、.new() 或 .controversial(),而 time_filter 可接受 "all"、"day"、"hour"、"month"、"week" 或 "year"。
要注意的是:無論你把 limit 設多高,Reddit 對任何列表回傳都大約只會給你 1,000 筆。這是 Reddit 端的限制,不是 PRAW 的問題。
第 4 步:將 Reddit 資料匯出成 CSV 或 Excel
1df.to_csv("reddit_python_top.csv", index=False)
2df.to_json("reddit_python_top.json", orient="records", lines=True)
PRAW 會自動處理速率限制——它會讀取每次回應中的 X-Ratelimit-Remaining 與 X-Ratelimit-Reset 標頭,並在必要時自動暫停。對中等規模的擷取來說,通常不需要額外手動加延遲。
如何用 Python 抓取 Reddit 留言(深度巢狀討論串)
留言擷取,往往才是最多人卡關的地方。
Reddit 的留言是樹狀結構:每則留言都可能有子留言,而有些分支會被折疊在「load more comments」連結後面。在 PRAW 的世界裡,這些隱藏分支會以 MoreComments 物件呈現。
先建立一個腦中的模型:
1Submission (t3_abc123)
2├── Comment A (top-level)
3│ ├── Reply A1
4│ │ └── Reply A1a
5│ └── Reply A2
6├── Comment B (top-level)
7│ └── MoreComments (hidden — "load more comments")
8└── MoreComments (hidden — "continue this thread")
使用 replace_more() 取得所有隱藏留言
replace_more() 方法會走訪整個留言樹,把每個 MoreComments 佔位符替換成它實際指向的留言:
1submission = reddit.submission(id="abcdef")
2submission.comments.replace_more(limit=10) # 大型討論串的實務上限
3all_comments = submission.comments.list() # 以廣度優先攤平
如果設成 limit=None,就會把所有 MoreComments 節點全部替換掉——但如果討論串有 5,000 則以上留言,這可能要花好幾分鐘,因為每次替換都是一次 API 請求,而且每次最多只會回傳大約 100 則留言。對大型討論串來說,我建議先從 limit=10 或 limit=20 開始,真的需要完整性時再提高。
把巢狀留言攤平成表格
1rows = []
2for c in all_comments:
3 rows.append({
4 "comment_id": c.id,
5 "parent_id": c.parent_id, # t1_xxx = 父留言,t3_xxx = submission
6 "depth": c.depth,
7 "author": str(c.author) if c.author else "[deleted]",
8 "body": c.body,
9 "score": c.score,
10 "created_utc": c.created_utc,
11 "is_submitter": c.is_submitter,
12 })
13comments_df = pd.DataFrame(rows)
頂層留言的 parent_id 會以 t3_ 開頭(也就是 submission 的 fullname)。depth 欄位可用來判斷每則留言的巢狀層級,對篩選或視覺化都很有幫助。要注意的一點是:len(all_comments) 通常不會等於 submission.num_comments,因為被刪除、移除或被垃圾過濾器擋掉的留言不會出現在樹狀結構中。
方法 2:.json 端點技巧——不靠 API Key 也能抓 Reddit
在任何 Reddit URL 後面加上 .json 就行。就是這麼簡單。你會直接拿到結構化 JSON,無需驗證、無需註冊 app、也不用安裝 pip 套件。
例如:https://www.reddit.com/r/python/hot.json
這個技巧很多論壇使用者都知道,但幾乎沒有教學完整介紹。
可直接執行的 Python 程式碼
1import requests
2headers = {"User-Agent": "python:reddit-scraper:v1.0 (by /u/yourname)"}
3r = requests.get(
4 "https://www.reddit.com/r/python/hot.json",
5 headers=headers,
6 params={"limit": 100},
7)
8data = r.json()
9for post in data["data"]["children"]:
10 p = post["data"]
11 print(p["title"], p["score"], p["num_comments"], p["author"])
User-Agent 標頭非常關鍵。Reddit 會封鎖或限流像 python-requests/2.31.0 這類泛用字串——正如 :「這種限流是依據 user-agent 來判斷的。」請使用和 PRAW 相同的描述式格式。
如何使用 after 參數處理分頁
.json 端點預設會回傳大約 25 筆結果(每次最多 100 筆)。如果要更多,可以使用回應中的 after 游標:
1import requests, time
2headers = {"User-Agent": "python:reddit-scraper:v1.0 (by /u/yourname)"}
3after = None
4all_posts = []
5for _ in range(10): # 最多約 1000 筆貼文
6 r = requests.get(
7 "https://www.reddit.com/r/python/hot.json",
8 headers=headers,
9 params={"limit": 100, "after": after},
10 )
11 data = r.json()
12 all_posts.extend(data["data"]["children"])
13 after = data["data"].get("after")
14 if not after:
15 break
16 time.sleep(6) # 約 10 QPM = 每 6 秒一次請求
after 的值是一個游標 token(格式:t3_xxxxxx)。跟 PRAW 一樣,跨多頁請求後的總上限大約是 1,000 筆。
.json 方法的限制
- 無法深入取得留言樹——只能拿到頂層留言與一層「more」殘留,不會像 PRAW 的
replace_more()那樣自動展開 - 唯讀——不能投票、發文或執行版務操作
- 未驗證流量每分鐘約 10 次請求——大量迴圈容易觸發 429 錯誤
- 同樣有 1,000 筆清單上限——和已驗證 API 一樣
這個方法最適合快速單次抓取、原型驗證,或是不想建立 API app 的情境。
方法 3:使用 BeautifulSoup 抓取 Reddit(HTML 解析)
如果你以前做過網頁擷取,大概對 BeautifulSoup 不陌生。針對 Reddit 的關鍵技巧是:使用 old.reddit.com,不要用新的 React 前端。舊版介面是伺服器端渲染、頁面較輕量,也更容易解析——都證實它至今仍在線,而且相當適合爬取。
安裝 Requests 與 BeautifulSoup
1pip install requests beautifulsoup4
1import requests
2from bs4 import BeautifulSoup
3headers = {"User-Agent": "python:reddit-scraper:v1.0 (by /u/yourname)"}
4r = requests.get("https://old.reddit.com/r/python/", headers=headers)
5soup = BeautifulSoup(r.text, "html.parser")
從 DOM 擷取貼文資料
在 old.reddit.com 上,每則貼文都位於 class 為 thing 的 <div> 中。最穩定的選擇器是 data-* 屬性:
1for thing in soup.select("div#siteTable > div.thing"):
2 title_el = thing.select_one("a.title")
3 print({
4 "title": title_el.get_text(strip=True) if title_el else None,
5 "author": thing.get("data-author"),
6 "score": thing.get("data-score"),
7 "comments": thing.get("data-comments-count"),
8 "domain": thing.get("data-domain"),
9 "url": title_el.get("href") if title_el else None,
10 })
建議優先使用 data-* 屬性,而不是巢狀 class 選擇器——Reddit 多年來一直在調整 class 名稱,但這些資料屬性通常是由模板產生,變動不大。
在 old.reddit.com 上處理分頁
1import time
2url = "https://old.reddit.com/r/python/"
3all_rows = []
4while url:
5 r = requests.get(url, headers=headers)
6 soup = BeautifulSoup(r.text, "html.parser")
7 for thing in soup.select("div#siteTable > div.thing"):
8 title_el = thing.select_one("a.title")
9 all_rows.append({
10 "title": title_el.get_text(strip=True) if title_el else None,
11 "author": thing.get("data-author"),
12 "score": thing.get("data-score"),
13 "comments": thing.get("data-comments-count"),
14 "url": title_el.get("href") if title_el else None,
15 })
16 nxt = soup.select_one("span.next-button a")
17 url = nxt["href"] if nxt else None
18 time.sleep(2) # 禮貌性延遲
什麼時候該用 BeautifulSoup,什麼時候該用 PRAW?
如果你想學 DOM 擷取、不想註冊 OAuth app,或需要 PRAW 沒有提供的自訂欄位,BeautifulSoup 會是很好的選擇。但它也比較脆弱——HTML 結構可能無預警變動,2025 年的 IP 封鎖比以前更嚴格,而且分頁與錯誤處理都得自己寫。若重視穩定性與資料深度,PRAW 更勝一籌。
方法 4:不用寫程式,直接用 Thunderbit 抓 Reddit
老實說,很多搜尋「how to scrape Reddit with Python」的人,其實不是真的想寫 Python。他們想要的是資料。如果你也是這樣,那這一段就是你的捷徑。
是我們團隊特別為這類需求打造的 AI Chrome 擴充功能——不用寫程式,就能從網頁中擷取結構化資料。
第 1 步:安裝 Thunderbit 並打開 Reddit 頁面
先安裝 ,然後開啟任一 Reddit subreddit 或貼文頁面(例如 reddit.com/r/python)。
不需要 API key、不需要 Python 環境,也不用打任何終端機指令。
第 2 步:點擊「AI Suggest Fields」,讓 AI 自動讀頁面
點擊瀏覽器工具列上的 Thunderbit 圖示,然後按下 「AI Suggest Fields」。Thunderbit 的 AI 會掃描頁面,並自動建議欄位,例如貼文標題、使用者名稱、讚數、留言數、發文日期、貼文描述、社群名稱與貼文 URL。
你可以依需求新增、刪除或重新命名欄位。例如你只在乎標題和分數,那就把其他欄位刪掉即可。
第 3 步:點擊「Scrape」並匯出資料
按下 「Scrape」 後,Thunderbit 會自動擷取資料並處理分頁。表格填滿後,你可以直接匯出到 Excel、Google Sheets、Airtable 或 Notion,不需要寫任何 CSV 程式碼。
如果你需要更深入的資料,Thunderbit 的子頁面擷取可以讓你點進單篇討論串,自動把留言資料補進你的表格。概念上這和 PRAW 的 replace_more() 很像——但你完全不用寫程式。
加碼:定時擷取,持續監控 Reddit
如果你需要每天追蹤某個 subreddit——例如監控 r/SaaS 的品牌提及,或是某個利基社群中的競品討論——Thunderbit 的排程爬蟲就能重複執行。你只要用自然語言描述間隔(例如「每週一到五上午 9 點」),工具就會自動完成,並把最新資料送到你連結好的試算表或資料庫。
你可以在 進一步了解 Thunderbit 的 Reddit 擷取功能。
使用 Python 抓 Reddit 的技巧與最佳實踐
以下大多是我踩過坑後學到的,不管你前面選哪一種方法都適用。
尊重 Reddit 的服務條款與速率限制
Reddit 的 明確禁止未經書面批准的商業擷取——而且這條規範適用於所有存取方式,不只 API。若是個人、學術或內部研究用途,免費 OAuth 方案與 Thunderbit 的工作流程都在合理使用範圍內。
速率限制速查表:
| 情境 | 限制 | 結果 |
|---|---|---|
| 已驗證(OAuth) | 60–100 次/分鐘 | PRAW 會自動管理 |
| 未驗證(.json、HTML) | 約 10–30 次/分鐘 | 429 Too Many Requests |
| 泛用 User-Agent | 會被嚴重限流 | 403 Forbidden 或無聲封鎖 |
務必設定具描述性的 User-Agent 字串。這通常是新手第一次抓資料時最常碰到 429 或 403 錯誤的原因。
請妥善儲存與整理資料
- 使用 pandas DataFrame 並明確指定欄位順序,讓 CSV/Excel 匯出更可預測
- 將
created_utc轉為可讀時間:pd.to_datetime(df["created_utc"], unit="s") - 若跨不同排序方式抓取(hot、new、top 常會重疊),請用
id去重 - 處理被刪除的作者:
str(post.author) if post.author else "[deleted]"
常見錯誤要優雅處理
| 錯誤 | 原因 | 解法 |
|---|---|---|
| 429 Too Many Requests | 超過速率限制(OAuth 每分鐘 60–100 次) | 實作指數退避;檢查 X-Ratelimit-Reset 標頭 |
| 403 Forbidden | User-Agent 不佳或 IP 被封 | 使用獨特且具描述性的 UA 字串;確認 OAuth app 已啟用 |
None 作者 | 帳號被刪除或停權 | 用 if post.author else "[deleted]" 包裝 |
prawcore.TooManyRequests | 觸發 PRAW 層級的限流緩衝 | 提高 ratelimit_seconds 或平均分配請求 |
| 大型樹狀結構出現 5xx 或 413 | Reddit 後端在深層討論串過載 | 將 replace_more() 包進重試邏輯;限制遞迴深度 |
Reddit 擷取的應用場景:資料抓來之後能做什麼?
擷取只是第一步,真正有影響力的是後面怎麼用:
- 業務團隊: 監看 r/SaaS、r/smallbusiness 或 r/Entrepreneur 等 subreddit 中「正在找能做 X 的工具」的貼文,將符合條件的內容送進潛在客戶名單或 CRM 工作流程。你也可以用 Thunderbit 的定時爬蟲做每日監控。
- 行銷與內容團隊: 追蹤品牌提及、分析情緒趨勢,並從熱門問題中挖掘內容靈感。把 Reddit 匯出資料和 Google Sheets 結合,方便團隊協作。
- 電商與營運團隊: 監控競品產品討論中反覆出現的抱怨。像 r/BuyItForLife 這類 subreddit 和各垂直領域社群,都是蒐集產品回饋的金礦。
- 研究人員與分析師: 建立 NLP 資料集——2024 年的學術論文就使用了 到 不等的資料集,用於情緒與情感分類。PRAW 產出的語料在同行審查中也具備可引用性。
如果你想更深入了解如何用有效工具 或 ,Thunderbit 部落格裡都有完整教學。
總結
2025 年的 Reddit 擷取,和兩年前已經完全不同。2023 年的 API 變動終結了 Pushshift、關閉了許多人喜愛的第三方 App,也引入了付費方案。
但免費方案對個人與學術用途依然可用,而且現在取得資料的方法比以往更多。
以下是一句話版本的各方法總結:

不管你是 Python 老手,還是希望午餐前就把資料整理成試算表的人,這四種方法裡總有一種適合你。如果你想完全跳過寫程式,可以 ,看看它如何用幾次點擊就把 Reddit 資料抓下來。如果你想繼續磨練 Python 擷取技巧,也可以先把這篇收藏起來——隨著 Reddit 生態持續變化,我也會持續更新。
想了解更多網頁擷取方式,歡迎參考我們的指南:、與。
常見問題
用 Python 抓 Reddit 合法嗎?
Reddit 的 禁止未經書面批准的商業擷取。免費 OAuth 方案可供個人、非商業與學術用途使用。這項法律規範不會因為你用 API、.json 端點或 HTML 擷取而改變。若要大規模擷取,務必先查看 Reddit 當前條款。
Reddit 在 2023 年 API 改版後,PRAW 還能用嗎?
可以。PRAW 7.8.1(2024 年 10 月)仍在積極維護中,而且會自動在 內運作。2023 年的收費變動主要影響的是高流量與商業 API 使用,不太影響一般的 PRAW 擷取模式。
沒有 API key 也能抓 Reddit 嗎?
可以——.json 端點與 BeautifulSoup 的 HTML 解析都不需要 API key。 也不需要 API key。不過,這三種方法在商業使用上仍然要遵守 Reddit 的服務條款。
我要怎麼抓 Reddit 留言,而不只是貼文?
使用 PRAW 時,先執行 submission.comments.replace_more(limit=10),再呼叫 submission.comments.list(),就能把巢狀留言樹攤平成清單。若用 Thunderbit,則可以透過子頁面擷取,自動將每篇討論串的留言資料補充到貼文清單中。
不寫程式的話,最快抓 Reddit 的方法是什麼?
讓你只要點兩下,就能抓取 Reddit 貼文與留言,並直接匯出到 Excel、Google Sheets、Airtable 或 Notion——不需要 Python、不需要 API key,也不用額外設定。
深入了解
