Google membayar $60 juta per tahun untuk melisensikan data Reddit. Laporan yang beredar menyebut OpenAI meneken kesepakatan senilai $70 juta. Itu sudah cukup memberi gambaran tentang betapa berharganya isi thread komentar di sana. Kalau Anda pernah mencoba mengumpulkan thread diskusi, komentar, atau data sentimen dari Reddit secara manual, Anda pasti paham betapa nyebelinnya: scroll tanpa henti, copy-paste berulang, dan tab yang numpuk di mana-mana.
Saya menghabiskan sebagian besar kuartal lalu untuk membantu tim di Thunderbit meneliti bagaimana orang benar-benar mengekstrak data Reddit pada 2025. Lanskapnya berubah drastis sejak Reddit mengubah harga API pada 2023, dan kebanyakan panduan yang ada di internet sudah kedaluwarsa atau cuma membahas satu metode saja. Jadi, saya rangkum semua pendekatan yang masih benar-benar berfungsi saat ini β empat metode berbeda, dari scripting Python penuh sampai ekstraksi tanpa kode β supaya Anda bisa pilih yang paling pas dengan kemampuan dan kebutuhan Anda. Entah Anda sedang membangun dataset NLP, memantau subreddit untuk penyebutan brand, atau sekadar ingin spreadsheet berisi postingan yang lagi tren, panduan ini bakal membantu.
Apa Itu Scraping Reddit (dan Kenapa Penting)?
Scraping Reddit adalah proses mengekstrak postingan, komentar, data pengguna, dan metadata dari halaman atau API Reddit secara terprogram. Alih-alih membuka thread satu per satu lalu menyalin teks secara manual, Anda memakai script atau tool untuk mengumpulkan data terstruktur dalam skala besar.
Kenapa perlu repot? Reddit punya lebih dari dan diperkirakan menghasilkan . Di sinilah orang-orang membagikan opini mentah soal produk, layanan, kompetitor, dan tren β jenis sinyal autentik yang hampir mustahil ditemukan di situs ulasan yang sudah dipoles atau blog perusahaan. Google membayar sekitar untuk lisensi konten Reddit, dan kesepakatan OpenAI kabarnya bernilai . Kalau perusahaan AI terbesar di dunia saja rela bayar mahal untuk data ini, jelas ada alasan kuat untuk belajar cara mengaksesnya sendiri.
Kenapa Scrape Reddit dengan Python di 2025?
Python adalah bahasa default untuk scraping Reddit β PRAW, requests, BeautifulSoup, dan pandas sudah mencakup semua langkah, dari pemanggilan API sampai ekspor data. Tapi alasannya bukan cuma soal tools.
Berikut use case yang paling sering saya lihat di tim bisnis dan riset:
| Use Case | Siapa yang Diuntungkan | Contoh |
|---|---|---|
| Riset & validasi pasar | Product manager, founder | Menggali r/SaaS atau r/Entrepreneur untuk menemukan pain point yang berulang |
| Analisis sentimen | Tim marketing, tim brand | Melacak bagaimana orang membicarakan produk Anda dibanding kompetitor |
| Lead generation | Tim sales | Menemukan postingan "sedang mencari tool yang bisa X" di subreddit niche |
| Ideasi konten | Content marketer | Menemukan pertanyaan dan topik yang sedang tren di r/marketing atau r/SEO |
| Riset akademik / NLP | Peneliti, data scientist | Membangun dataset berlabel dari thread komentar untuk klasifikasi emosi |
| Competitive intelligence | Tim strategy, operations | Memantau subreddit kompetitor untuk keluhan yang berulang |
Basis pengguna Reddit diperkirakan mencapai , dengan β naik 24% dari tahun ke tahun. Dan setelah core update Google pada Agustus 2024, konten Reddit jadi sekitar di hasil pencarian organik.
Artinya: data yang Anda scrape dari Reddit makin sering adalah data yang sama dengan yang Google tampilkan ke pencari.
Metode Mana yang Sebaiknya Dipakai untuk Scrape Reddit? (Perbandingan Singkat)
Pertanyaan paling umum di forum scraping Reddit memang, "Metode mana yang harus saya pakai?" Jadi saya buat tabel ini. Pilih baris yang paling cocok, lalu lanjut.
This paragraph contains content that cannot be parsed and has been skipped.
Kalau Anda ingin proyek Python yang lengkap dengan ekstraksi komentar mendalam, mulai dari Metode 1 (PRAW). Butuh ambil data cepat dalam 10 menit tanpa setup? Coba Metode 2 (trik .json). Ingin belajar scraping HTML atau butuh field kustom? Pakai Metode 3 (BeautifulSoup). Dan kalau Anda lebih mau skip Python sepenuhnya lalu langsung dapat datanya, lompat ke Metode 4 ().
Apa yang Berubah: Pembaruan Harga API Reddit 2023β2024 (dan Apa yang Masih Gratis)
Hampir tidak ada panduan scraping yang membahas ini β padahal ini adalah konteks paling penting untuk siapa pun yang scraping Reddit hari ini.
Pada Juni 2023, Reddit untuk pertama kalinya sejak 2008 memperkenalkan tier berbayar untuk akses API. Dampaknya besar:
- Pushshift berhenti untuk penggunaan publik. Reddit mencabut akses API Pushshift pada Mei 2023. Peneliti yang bergantung pada layanan ini (lebih dari mengutip Pushshift) kehilangan sumber data utama mereka dalam semalam. Pengganti untuk data historis adalah , tetapi belum ada pengganti API live publik.
- Aplikasi pihak ketiga ditutup. Apollo, Reddit is Fun, Sync, BaconReader, dan lainnya tutup pada 30 Juni 2023 setelah Reddit mengutip biaya API untuk developer Apollo sebesar .
- Lebih dari 8.500 subreddit sempat gelap sebagai bentuk protes, termasuk r/funny (40 juta subscriber), r/gaming, dan r/science ().
Apa yang masih gratis pada 2025:
masih tersedia untuk penggunaan non-komersial, personal, dan akademik β 100 query per menit per OAuth client ID. PRAW bekerja sangat baik di tier ini untuk scraping skala sedang. Akses tanpa autentikasi (termasuk endpoint .json) dibatasi sekitar 10 request per menit.
Inti praktisnya: Untuk tugas scraping kecil hingga menengah, tier gratis ini lebih dari cukup. Untuk penggunaan besar-besaran atau komersial, Anda perlu menghubungi Reddit untuk akses enterprise, memakai endpoint .json atau BeautifulSoup (yang tidak butuh API key), atau memakai tool seperti Thunderbit yang sama sekali tidak bergantung pada API Reddit.
Sebelum Memulai
- Tingkat kesulitan: Pemula hingga menengah (tergantung metode)
- Waktu yang dibutuhkan: ~15β30 menit untuk Metode 1β3; ~5 menit untuk Metode 4
- Yang Anda perlukan:
- Python 3.8+ terpasang (untuk Metode 1β3)
- Akun Reddit (untuk Metode 1)
- Browser Chrome (untuk Metode 4)
- (untuk Metode 4)
Metode 1: Cara Scrape Reddit dengan Python Menggunakan PRAW (Langkah demi Langkah)
PRAW (Python Reddit API Wrapper) adalah cara paling populer dan paling terdokumentasi untuk scrape Reddit dengan Python. Tool ini menangani autentikasi, rate limiting, dan pagination untuk Anda, serta masih aktif dikembangkan β rilis stabil terbaru adalah PRAW 7.8.1 (Oktober 2024), yang mendukung Python 3.8 hingga 3.13.
Langkah 1: Buat Reddit App dan Dapatkan Kredensial API
Buka lalu scroll ke bagian bawah. Klik "are you a developer? create an app..."
Isi formulirnya:
- Name: apa saja yang deskriptif (misalnya, "my-reddit-scraper")
- App type: pilih script
- Redirect URI: isi
http://localhost:8080(wajib, tetapi tidak dipakai untuk script app) - Description: opsional
Klik Create app. Anda akan melihat kredensial:
- client_id β string 14 karakter tepat di bawah nama app (berlabel "personal use script")
- client_secret β field berlabel "secret"
Anda juga perlu menyetujui dan Reddit sebelum proses pembuatan app selesai.
Satu hal penting: sejak akhir 2024, developer baru mungkin perlu mengajukan permintaan akses dan menunggu persetujuan. Ini adalah hambatan terbesar bagi pengguna PRAW pemula, dan memang tidak ada jalan pintas untuk itu.
Langkah 2: Install PRAW dan Buat Instance Reddit
Buka terminal Anda dan jalankan:
1pip install praw pandas
Lalu buat instance Reddit read-only:
1import praw
2reddit = praw.Reddit(
3 client_id="YOUR_CLIENT_ID",
4 client_secret="YOUR_CLIENT_SECRET",
5 user_agent="python:reddit-scraper:v1.0 (by u/yourname)",
6)
7# reddit.read_only bernilai True secara default untuk script app tanpa password
Format user_agent itu penting. Reddit aktif membatasi string generik seperti python-requests/2.x. Gunakan format yang direkomendasikan Reddit: platform:app_id:version (by u/username).
Langkah 3: Scrape Postingan dari Sebuah Subreddit
Berikut cara mengambil top post dari r/python untuk satu bulan terakhir dan menyimpannya ke pandas DataFrame:
1import pandas as pd
2subreddit = reddit.subreddit("python")
3rows = []
4> This paragraph contains content that cannot be parsed and has been skipped.
5df = pd.DataFrame(rows)
6print(df.head())
Anda bisa mengganti .top() dengan .hot(), .new(), atau .controversial(), dan time_filter menerima nilai "all", "day", "hour", "month", "week", atau "year".
Perlu diingat: Reddit membatasi listing apa pun sekitar 1.000 item, berapa pun limit yang Anda set. Itu batas dari sisi Reddit, bukan keterbatasan PRAW.
Langkah 4: Ekspor Data Reddit ke CSV atau Excel
1df.to_csv("reddit_python_top.csv", index=False)
2df.to_json("reddit_python_top.json", orient="records", lines=True)
PRAW menangani rate limiting secara otomatis β tool ini membaca header X-Ratelimit-Remaining dan X-Ratelimit-Reset di setiap respons lalu tidur di antara request sesuai kebutuhan. Untuk scraping skala sedang, Anda jarang perlu menambahkan delay manual.
Cara Scrape Komentar Reddit dengan Python (Thread Nested yang Dalam)
Scraping komentar adalah bagian yang paling sering bikin orang mentok.
Reddit menyimpan komentar sebagai tree: setiap komentar bisa punya child comment, dan sebagian cabang disembunyikan di balik tautan "load more comments". Dalam PRAW, cabang tersembunyi ini direpresentasikan sebagai objek MoreComments.
Begini gambaran sederhananya:
1Submission (t3_abc123)
2βββ Comment A (top-level)
3β βββ Reply A1
4β β βββ Reply A1a
5β βββ Reply A2
6βββ Comment B (top-level)
7β βββ MoreComments (hidden β "load more comments")
8βββ MoreComments (hidden β "continue this thread")
Menggunakan replace_more() untuk Mengambil Semua Komentar Tersembunyi
Metode replace_more() menelusuri tree komentar dan mengganti setiap placeholder MoreComments dengan komentar asli yang dirujuknya:
1submission = reddit.submission(id="abcdef")
2submission.comments.replace_more(limit=10) # batas praktis untuk thread besar
3all_comments = submission.comments.list() # diratakan dengan breadth-first
Mengatur limit=None akan mengganti semua node MoreComments β tetapi pada thread dengan 5.000+ komentar, ini bisa makan waktu beberapa menit karena setiap penggantian adalah satu request API yang hanya mengembalikan maksimal sekitar 100 komentar. Untuk thread besar, saya sarankan mulai dari limit=10 atau limit=20, lalu naikkan hanya kalau Anda memang butuh kelengkapan penuh.
Meratakan Komentar Nested Menjadi Tabel
1rows = []
2for c in all_comments:
3 rows.append({
4 "comment_id": c.id,
5 "parent_id": c.parent_id, # t1_xxx = parent comment, t3_xxx = submission
6 "depth": c.depth,
7 "author": str(c.author) if c.author else "[deleted]",
8 "body": c.body,
9 "score": c.score,
10 "created_utc": c.created_utc,
11 "is_submitter": c.is_submitter,
12 })
13comments_df = pd.DataFrame(rows)
Komentar level teratas memiliki parent_id yang diawali t3_ (fullname submission). Kolom depth menunjukkan seberapa dalam komentar itu berada di struktur nested β berguna untuk filtering atau visualisasi. Satu hal yang sering bikin bingung: len(all_comments) biasanya tidak akan sama dengan submission.num_comments karena komentar yang dihapus, dihapus moderator, atau difilter spam tidak ikut masuk ke tree.
Metode 2: Trik Endpoint .json β Scrape Reddit Tanpa API Key
Tambahkan .json ke URL Reddit apa pun. Selesai. Anda akan mendapatkan JSON terstruktur β tanpa autentikasi, tanpa registrasi app, tanpa install pip.
Contoh: https://www.reddit.com/r/python/hot.json
Trik ini sering dibahas di forum, tetapi hampir tidak ada tutorial yang menjelaskannya secara lengkap.
Contoh Kode Python yang Berfungsi
1import requests
2> This paragraph contains content that cannot be parsed and has been skipped.
3for post in data["data"]["children"]:
4 p = post["data"]
5 print(p["title"], p["score"], p["num_comments"], p["author"])
Header User-Agent sangat penting. Reddit memblokir atau membatasi user agent generik seperti python-requests/2.31.0 β seperti yang , "rate limiting ini didasarkan pada user-agent." Gunakan format deskriptif yang sama seperti pada PRAW.
Cara Menangani Pagination dengan Parameter after
Endpoint .json secara default mengembalikan sekitar 25 hasil (maksimal 100 per request). Untuk mengambil lebih banyak, gunakan cursor after dari respons:
1import requests, time
2> This paragraph contains content that cannot be parsed and has been skipped.
3> This paragraph contains content that cannot be parsed and has been skipped.
4Nilai `after` adalah token cursor (format: `t3_xxxxxx`). Sama seperti PRAW, batas keras totalnya sekitar 1.000 item untuk request yang dipaginasi.
5### Keterbatasan Metode .json
6- **Tidak bisa mengakses comment tree yang dalam** β Anda hanya mendapat komentar level teratas plus satu lapis stub "more", tanpa auto-expansion seperti `replace_more()` di PRAW
7- **Read-only** β tidak bisa voting, posting, atau moderasi
8- **~10 request per menit** untuk trafik tanpa autentikasi β loop agresif akan memicu error 429
9- **Batas listing 1.000 item** yang sama seperti API terautentikasi
10Metode ini paling cocok untuk ambil data cepat sekali jalan, prototyping, atau situasi ketika Anda tidak ingin mendaftarkan app API.
11## Metode 3: Cara Scrape Reddit dengan BeautifulSoup (Parsing HTML)
12Kalau Anda pernah melakukan web scraping sebelumnya, Anda mungkin sudah kenal BeautifulSoup. Insight penting untuk Reddit: gunakan `old.reddit.com` alih-alih frontend baru berbasis React. Antarmuka lama ini dirender di server, lebih ringan, dan jauh lebih mudah diparse β [beberapa panduan 2025β2026](https://dev.to/luminousmen/how-to-scrape-reddit-in-2026-a-complete-guide-5b1p) mengonfirmasi bahwa situs ini masih online dan ramah terhadap scraper.
13### Menyiapkan Requests dan BeautifulSoup
14```bash
15pip install requests beautifulsoup4
1import requests
2from bs4 import BeautifulSoup
3> This paragraph contains content that cannot be parsed and has been skipped.
4### Mengekstrak Data Postingan dari DOM
5Di old.reddit.com, setiap postingan berada di dalam `<div>` dengan class `thing`. Selector yang paling stabil adalah atribut `data-*`:
6```python
7for thing in soup.select("div#siteTable > div.thing"):
8 title_el = thing.select_one("a.title")
9 print({
10 "title": title_el.get_text(strip=True) if title_el else None,
11 "author": thing.get("data-author"),
12 "score": thing.get("data-score"),
13 "comments": thing.get("data-comments-count"),
14 "domain": thing.get("data-domain"),
15 "url": title_el.get("href") if title_el else None,
16 })
Lebih baik pakai atribut data-* daripada selector class bersarang β class name Reddit sudah beberapa kali berubah, sedangkan atribut data biasanya mengikuti template dan jarang berubah.
Menangani Pagination di old.reddit.com
1import time
2url = "https://old.reddit.com/r/python/"
3all_rows = []
4> This paragraph contains content that cannot be parsed and has been skipped.
5### Kapan Memilih BeautifulSoup vs. PRAW
6BeautifulSoup cocok kalau Anda ingin belajar scraping DOM, tidak mau mendaftarkan app OAuth, atau butuh field kustom yang tidak diekspos PRAW. Tapi metode ini lebih rapuh β struktur HTML bisa berubah tanpa peringatan, pemblokiran IP pada 2025 lebih agresif dibanding dulu, dan Anda harus menulis sendiri semua kode pagination dan error handling. Untuk reliabilitas dan kedalaman data, PRAW lebih unggul.
7## Metode 4: Cara Scrape Reddit Tanpa Kode Menggunakan Thunderbit
8Pengakuan jujur: banyak orang yang mencari "how to scrape Reddit with Python" sebenarnya tidak ingin menulis Python. Mereka cuma ingin *datanya*. Kalau itu Anda, bagian ini adalah jalan keluar yang paling praktis.
9[Thunderbit](https://thunderbit.com/) adalah ekstensi Chrome berbasis AI yang tim kami bangun khusus untuk use case seperti ini β mengekstrak data terstruktur dari halaman web tanpa menulis kode.
10### Langkah 1: Install Thunderbit dan Buka Halaman Reddit
11Install [Thunderbit Chrome Extension](https://chromewebstore.google.com/detail/thunderbit-ai-web-scraper/hbkblmodhbmcakopmmfbaopfckopccgp), lalu buka halaman subreddit atau postingan Reddit apa pun (misalnya, `reddit.com/r/python`).
12Tanpa API key, tanpa environment Python, tanpa perintah terminal.
13### Langkah 2: Klik "AI Suggest Fields" dan Biarkan AI Membaca Halaman
14Klik ikon Thunderbit di toolbar browser, lalu tekan **"AI Suggest Fields."** AI Thunderbit akan memindai halaman dan otomatis menyarankan kolom seperti Post Title, User Name, Upvotes, Comments Count, Date Posted, Post Description, Community Name, dan Post URL.
15Anda bisa menambah, menghapus, atau mengganti nama kolom sesuai kebutuhan. Misalnya, kalau Anda cuma peduli pada judul postingan dan skor, hapus saja field lain.
16### Langkah 3: Klik "Scrape" dan Ekspor Data Anda
17Tekan **"Scrape"** dan Thunderbit akan mengekstrak data sambil menangani pagination secara otomatis. Setelah tabel terisi, ekspor langsung ke Excel, Google Sheets, Airtable, atau Notion β tanpa perlu menulis kode CSV.
18Untuk data yang lebih dalam, fitur **subpage scraping** Thunderbit memungkinkan Anda membuka thread satu per satu dan memperkaya tabel dengan data komentar secara otomatis. Secara konsep, ini mirip dengan `replace_more()` di PRAW β tetapi tanpa menulis satu baris kode pun.
19### Bonus: Scheduled Scraping untuk Monitoring Reddit Berkelanjutan
20Kalau Anda perlu memantau subreddit setiap hari β misalnya memonitor penyebutan brand di r/SaaS atau diskusi kompetitor di komunitas niche β scheduled scraper Thunderbit bisa menjalankan pengambilan data berulang. Anda tinggal menjelaskan intervalnya dengan bahasa biasa (misalnya, "setiap hari kerja jam 9 pagi") dan tool akan mengurus sisanya, lalu mengirim data terbaru ke spreadsheet atau database yang terhubung.
21Anda bisa mempelajari lebih lanjut kemampuan scraping Reddit Thunderbit di [Thunderbit YouTube Channel](https://www.youtube.com/@thunderbit-ai).
22## Tips dan Praktik Terbaik untuk Scraping Reddit dengan Python
23Sebagian besar ini saya pelajari dengan cara yang tidak mudah β dan semuanya berlaku apa pun metode yang Anda pilih di atas.
24### Patuhi Ketentuan Layanan dan Rate Limit Reddit
25[Data API Terms](https://www.redditinc.com/policies/data-api-terms) Reddit secara eksplisit melarang scraping komersial tanpa persetujuan tertulis β dan itu berlaku untuk semua metode akses, bukan cuma API. Untuk penggunaan personal, akademik, dan riset internal, tier OAuth gratis dan workflow Thunderbit masih berada dalam batas penggunaan yang wajar.
26Ringkasan rate limit:
27<Table content={`| **Skenario** | **Batas** | **Yang Terjadi** |
28|---|---|---|
29| Terautentikasi (OAuth) | 60β100 req/menit | PRAW mengelolanya otomatis |
30| Tanpa autentikasi (.json, HTML) | ~10β30 req/menit | 429 Too Many Requests |
31| User-Agent generik | Sangat dibatasi | 403 Forbidden atau blok diam-diam |`} />
32Selalu gunakan string `User-Agent` yang deskriptif. Ini adalah penyebab paling umum mengapa scraper pemula kena error 429 atau 403.
33### Simpan dan Strukturkan Data dengan Rapi
34- Gunakan pandas DataFrame dengan urutan kolom yang jelas agar ekspor CSV/Excel lebih konsisten
35- Ubah `created_utc` menjadi timestamp yang mudah dibaca: `pd.to_datetime(df["created_utc"], unit="s")`
36- Hilangkan duplikasi berdasarkan `id` saat scraping dari beberapa sortingan (hot, new, dan top sering saling tumpang tindih)
37- Tangani author yang terhapus: `str(post.author) if post.author else "[deleted]"`
38### Tangani Error Umum dengan Elegan
39> This paragraph contains content that cannot be parsed and has been skipped.
40## Use Case Scraping Reddit: Apa yang Bisa Dilakukan dengan Datanya?
41Scraping hanyalah langkah pertama. Yang benar-benar memberi dampak adalah apa yang Anda lakukan setelahnya:
42- **Tim sales:** Pantau subreddit seperti r/SaaS, r/smallbusiness, atau r/Entrepreneur untuk postingan yang berisi "sedang mencari tool yang bisa X". Kirim hasil yang cocok ke lead list atau workflow CRM. Gunakan scheduled scraper Thunderbit untuk pemantauan harian.
43- **Tim marketing dan konten:** Lacak penyebutan brand, analisis tren sentimen, dan gali pertanyaan yang sedang naik daun untuk ide konten. Gabungkan ekspor Reddit dengan Google Sheets untuk kolaborasi tim.
44- **Ecommerce dan operations:** Pantau diskusi produk kompetitor untuk keluhan yang berulang. Subreddit seperti r/BuyItForLife dan komunitas niche lainnya adalah tambang emas untuk umpan balik produk.
45- **Peneliti dan analis:** Bangun dataset NLP β paper akademik pada 2024 menggunakan dataset dari [37 ribu komentar](https://dl.acm.org/doi/10.1145/3632366.3632383) hingga [54 ribu komentar](https://www.mdpi.com/2076-3417/14/1/123) untuk klasifikasi sentimen dan emosi. Koleksi korpus dengan PRAW juga layak disitasi dalam peer review.
46<iframe width="560" height="315" src="https://www.youtube.com/embed/Se3GEUY3AGI" title="Scrape Reddit like a PRO with Python" frameBorder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowFullScreen></iframe>
47Kalau Anda ingin mendalami [scrape data media sosial dengan tool yang efektif](https://thunderbit.com/blog/scrape-social-media-data-effective-tools) atau [ekstrak data dari website ke Excel](https://thunderbit.com/blog/extract-data-from-website-to-excel), kami sudah membahas workflow tersebut secara detail di blog Thunderbit.
48## Penutup
49Scraping Reddit pada 2025 sudah sangat berbeda dibanding dua tahun lalu. Perubahan API pada 2023 mematikan Pushshift, menutup aplikasi pihak ketiga favorit banyak orang, dan memperkenalkan tier berbayar.
50Tetapi tier gratis masih hidup dan bagus untuk penggunaan personal dan akademik, dan sekarang ada lebih banyak cara untuk mendapatkan data daripada sebelumnya.
51Berikut ringkasan satu kalimat untuk tiap metode:
52
53Baik Anda veteran Python atau orang yang ingin rapi-rapi spreadsheet sebelum makan siang, salah satu dari empat metode ini akan membawa Anda sampai tujuan. Kalau Anda ingin langsung tanpa kode, Anda bisa [coba Thunderbit gratis](https://thunderbit.com/) dan lihat bagaimana tool ini menangani Reddit hanya dengan beberapa klik. Dan kalau Anda ingin terus mengasah skill scraping Python, simpan panduan ini β saya akan terus memperbaruinya seiring lanskap Reddit berkembang.
54Untuk pendekatan web scraping lainnya, lihat panduan kami tentang [cara web scrape dengan Python](https://thunderbit.com/blog/how-to-web-scrape-with-python), [tool web scraping Python terbaik](https://thunderbit.com/blog/best-python-web-scraping-tools), dan [praktik terbaik web scraping](https://thunderbit.com/blog/learn-web-scraping-best-practices).
55## FAQ
56### Apakah legal melakukan scraping Reddit dengan Python?
57[Data API Terms](https://www.redditinc.com/policies/data-api-terms) Reddit melarang scraping komersial tanpa persetujuan tertulis. Tier OAuth gratis tersedia untuk penggunaan personal, non-komersial, dan akademik. Kerangka hukum ini tidak tergantung pada jalur teknis β berlaku baik Anda memakai API, endpoint .json, maupun scraping HTML. Selalu periksa ketentuan Reddit yang berlaku sebelum melakukan scraping dalam skala besar.
58### Apakah PRAW masih berfungsi setelah perubahan API Reddit 2023?
59Ya. PRAW 7.8.1 (Oktober 2024) masih aktif dikembangkan dan berjalan otomatis dalam [tier OAuth gratis 100 query per menit](https://support.reddithelp.com/hc/en-us/articles/16160228947852-Reddit-Data-API-Wiki). Perubahan harga pada 2023 terutama berdampak pada penggunaan API bervolume tinggi dan komersial, bukan pola scraping PRAW biasa.
60### Bisakah saya scrape Reddit tanpa API key?
61Bisa β endpoint .json dan parsing HTML dengan BeautifulSoup sama-sama bisa dipakai tanpa API key. [Thunderbit](https://thunderbit.com/) juga tidak memerlukan API key. Ketiga metode ini tetap tunduk pada Ketentuan Layanan Reddit untuk penggunaan komersial.
62### Bagaimana cara scrape komentar Reddit, bukan hanya postingan?
63Dengan PRAW, gunakan `submission.comments.replace_more(limit=10)` lalu `submission.comments.list()` untuk meratakan nested comment tree menjadi daftar. Dengan Thunderbit, gunakan subpage scraping untuk memperkaya hasil scraping daftar postingan secara otomatis dengan data komentar dari setiap thread.
64### Apa cara tercepat untuk scrape Reddit tanpa coding?
65[Thunderbit Chrome Extension](https://chromewebstore.google.com/detail/thunderbit-ai-web-scraper/hbkblmodhbmcakopmmfbaopfckopccgp) memungkinkan Anda scrape postingan dan komentar Reddit hanya dengan dua klik lalu mengekspornya langsung ke Excel, Google Sheets, Airtable, atau Notion β tanpa Python, tanpa API key, tanpa setup.
66**Pelajari Lebih Lanjut**
67- [Best Automated Web Scraping Tools](https://thunderbit.com/blog/best-automated-web-scraping-tools)
68- [How To Web Scrape With Python](https://thunderbit.com/blog/how-to-web-scrape-with-python)
69- [Scrape Data From Website Into Excel](https://thunderbit.com/blog/scrape-data-from-website-into-excel)
70- [Scrape Linkedin With Python](https://thunderbit.com/blog/scrape-linkedin-with-python)
71- [Best Python Web Scraping Tools](https://thunderbit.com/blog/best-python-web-scraping-tools)