Google Shopping มีการประมวลผลการค้นหาสินค้ามากกว่า ตัวเลขนี้สะท้อนถึงข้อมูลด้านราคา เทรนด์สินค้า และข้อมูลผู้ขายจำนวนมหาศาล — ทั้งหมดถูกรวมมาไว้ตรงหน้าในเบราว์เซอร์ของคุณ จากร้านค้าหลายพันเจ้า
แล้วจะดึงข้อมูลนั้นออกจาก Google Shopping ไปใส่ในสเปรดชีตได้ยังไง? ตรงนี้แหละที่เริ่มไม่ง่าย ผมใช้เวลาพอสมควรในการลองหลายวิธี — ตั้งแต่ส่วนขยายเบราว์เซอร์แบบไม่ต้องเขียนโค้ด ไปจนถึงสคริปต์ Python เต็มรูปแบบ — และผลลัพธ์ก็มีตั้งแต่แบบ “ว้าว ง่ายกว่าที่คิด” ไปจนถึง “แก้ CAPTCHA มา 3 วันแล้ว พอเถอะ” คู่มือส่วนใหญ่ในหัวข้อนี้มักสมมติว่าคุณเป็นนักพัฒนา Python แต่จากประสบการณ์ของผม คนจำนวนมากที่ต้องใช้ข้อมูล Google Shopping จริง ๆ คือผู้ประกอบการอีคอมเมิร์ซ นักวิเคราะห์ราคา และนักการตลาด ที่แค่อยากได้ตัวเลขไปใช้ต่อโดยไม่ต้องเขียนโค้ด ดังนั้นคู่มือนี้จึงแบ่งเป็น 3 วิธี เรียงจากง่ายที่สุดไปจนถึงเทคนิคที่สุด เพื่อให้คุณเลือกทางที่เหมาะกับทักษะและเวลาของตัวเองได้
ข้อมูล Google Shopping คืออะไร?
Google Shopping คือเสิร์ชเอนจินสำหรับค้นหาสินค้า พิมพ์คำว่า "wireless noise-cancelling headphones" แล้ว Google จะแสดงรายการสินค้าจากร้านค้าออนไลน์หลายสิบแห่ง — ชื่อสินค้า ราคา ผู้ขาย คะแนนรีวิว รูปภาพ และลิงก์ต่าง ๆ มันเหมือนแคตตาล็อกสดที่อัปเดตตลอดเวลาของสินค้าที่มีขายอยู่ทั่วอินเทอร์เน็ต
ทำไมต้องดึงข้อมูล Google Shopping?
ดูข้อมูลจากสินค้าชิ้นเดียว แทบจะบอกอะไรไม่ได้ แต่ถ้ามีข้อมูลหลายร้อยรายการแล้วจัดโครงสร้างลงในสเปรดชีต คุณจะเริ่มเห็นแพตเทิร์นและแนวโน้มชัดขึ้น

นี่คือกรณีใช้งานที่พบบ่อยที่สุดที่ผมเจอ:
| กรณีใช้งาน | ใครได้ประโยชน์ | กำลังมองหาอะไร |
|---|---|---|
| วิเคราะห์ราคาคู่แข่ง | ทีมอีคอมเมิร์ซ, นักวิเคราะห์ราคา | ราคาคู่แข่ง, รูปแบบโปรโมชัน, การเปลี่ยนแปลงราคาตามเวลา |
| ค้นหาเทรนด์สินค้า | ทีมการตลาด, ผู้จัดการผลิตภัณฑ์ | สินค้าใหม่, หมวดหมู่ที่เติบโต, ความถี่ของรีวิว |
| วิเคราะห์โฆษณา | ผู้จัดการ PPC, ทีม Growth | รายการที่เป็นสปอนเซอร์, ผู้ขายที่กำลังประมูลโฆษณา, ความถี่ของโฆษณา |
| วิจัยผู้ขาย/ลีด | ทีมขาย, B2B | ร้านค้าที่ active, ผู้ขายใหม่ที่เข้ามาในหมวดนี้ |
| ติดตาม MAP | ผู้จัดการแบรนด์ | ร้านค้าที่ฝ่าฝืนเงื่อนไขราคาขายขั้นต่ำที่โฆษณาได้ |
| ติดตามสต็อกและสินค้าหลากหลาย | ผู้จัดการหมวดสินค้า | สถานะสินค้าในสต็อก, ช่องว่างของไลน์สินค้า |
ใช้เครื่องมือกำหนดราคาแบบ AI แล้ว บริษัทที่ลงทุนในระบบวิเคราะห์ราคาคู่แข่งรายงานผลตอบแทนสูงถึง 29 เท่า Amazon ปรับราคาประมาณทุก 10 นาที ถ้าคุณยังเช็กราคาคู่แข่งด้วยมืออยู่ คณิตศาสตร์มันไม่เข้าข้างคุณเลย
Thunderbit คือ AI Web Scraper แบบส่วนขยาย Chrome ที่ช่วยให้ผู้ใช้ฝั่งธุรกิจดึงข้อมูลจากเว็บไซต์ได้ด้วย AI เหมาะเป็นพิเศษสำหรับผู้ประกอบการอีคอมเมิร์ซ นักวิเคราะห์ราคา และนักการตลาด ที่อยากได้ข้อมูล Google Shopping ในรูปแบบเป็นโครงสร้างโดยไม่ต้องเขียนโค้ด
จริง ๆ แล้วดึงอะไรจาก Google Shopping ได้บ้าง?
ก่อนจะเลือกเครื่องมือหรือเขียนโค้ดสักบรรทัด ควรรู้ก่อนว่ามีฟิลด์อะไรให้เก็บได้บ้าง — และฟิลด์ไหนต้องใช้ความพยายามเพิ่ม
ฟิลด์จากหน้าผลการค้นหา Google Shopping
เมื่อคุณค้นหาใน Google Shopping การ์ดสินค้าทุกใบในหน้าผลลัพธ์จะมีข้อมูล เช่น:
| ฟิลด์ | ประเภท | ตัวอย่าง | หมายเหตุ |
|---|---|---|---|
| ชื่อสินค้า | ข้อความ | "Sony WH-1000XM5 Wireless Headphones" | มีอยู่เสมอ |
| ราคา | ตัวเลข | $278.00 | อาจแสดงราคาลด + ราคาเดิม |
| ผู้ขาย/ร้านค้า | ข้อความ | "Best Buy" | 1 สินค้าอาจมีหลายผู้ขาย |
| คะแนนรีวิว | ตัวเลข | 4.7 | เต็ม 5 ดาว ไม่ได้แสดงเสมอไป |
| จำนวนรีวิว | ตัวเลข | 12,453 | บางครั้งไม่มีในสินค้าที่เพิ่งออกใหม่ |
| URL รูปภาพสินค้า | URL | https://... | ตอนโหลดครั้งแรกอาจเป็น placeholder แบบ base64 |
| ลิงก์สินค้า | URL | https://... | อาจไปยังหน้าสินค้าของ Google หรือหน้าร้านโดยตรง |
| ข้อมูลการจัดส่ง | ข้อความ | "Free shipping" | ไม่ได้มีเสมอไป |
| ป้าย Sponsored | Boolean | Yes/No | บอกว่าเป็นตำแหน่งโฆษณา — มีประโยชน์ต่อการวิเคราะห์โฆษณา |
ฟิลด์จากหน้ารายละเอียดสินค้า (ข้อมูลจากซับเพจ)
ถ้าคุณคลิกเข้าไปที่หน้ารายละเอียดของสินค้าแต่ละชิ้นใน Google Shopping จะเข้าถึงข้อมูลที่ลึกขึ้นได้:
| ฟิลด์ | ประเภท | หมายเหตุ |
|---|---|---|
| รายละเอียดแบบเต็ม | ข้อความ | ต้องเข้าไปที่หน้าสินค้า |
| ราคาจากผู้ขายทั้งหมด | ตัวเลข (หลายค่า) | เปรียบเทียบราคาจากหลายร้านแบบข้างต่อข้าง |
| สเปกสินค้า | ข้อความ | แตกต่างตามหมวดหมู่สินค้า (ขนาด, น้ำหนัก ฯลฯ) |
| ข้อความรีวิวแต่ละรายการ | ข้อความ | เนื้อหารีวิวเต็มจากผู้ซื้อ |
| สรุปข้อดี/ข้อเสีย | ข้อความ | บางครั้ง Google จะสร้างให้อัตโนมัติ |
การเข้าถึงฟิลด์เหล่านี้หมายความว่าคุณต้องเข้าไปยังซับเพจของสินค้าแต่ละรายการหลังจากดึงผลการค้นหาแล้ว เครื่องมือที่รองรับ จะจัดการขั้นตอนนี้ให้โดยอัตโนมัติ — ผมจะอธิบายเวิร์กโฟลว์ด้านล่าง
3 วิธีดึงข้อมูล Google Shopping (เลือกเส้นทางที่เหมาะกับคุณ)

มี 3 วิธี เรียงจากง่ายที่สุดไปยังเทคนิคมากที่สุด เลือกแถวที่ตรงกับสถานการณ์ของคุณแล้วข้ามไปอ่านได้เลย:
| วิธี | ระดับทักษะ | เวลาเซ็ตอัป | รับมือ Anti-Bot | เหมาะสำหรับ |
|---|---|---|---|---|
| ไม่ต้องเขียนโค้ด (Thunderbit Chrome Extension) | มือใหม่ | ~2 นาที | จัดการให้อัตโนมัติ | งานอีคอมเมิร์ซ, นักการตลาด, งานวิจัยครั้งเดียว |
| Python + SERP API | ระดับกลาง | ~30 นาที | API จัดการให้ | นักพัฒนาที่ต้องการเข้าถึงแบบเป็นโปรแกรมและทำซ้ำได้ |
| Python + Playwright (อัตโนมัติผ่านเบราว์เซอร์) | ขั้นสูง | ~1 ชั่วโมงขึ้นไป | คุณต้องจัดการเอง | พายป์ไลน์แบบกำหนดเอง, เคสพิเศษ |
วิธีที่ 1: ดึงข้อมูล Google Shopping แบบไม่ต้องเขียนโค้ด (ใช้ Thunderbit)
- ความยาก: มือใหม่
- เวลา: ~2–5 นาที
- สิ่งที่ต้องมี: Chrome browser, (ใช้แพ็กเกจฟรีได้), คำค้น Google Shopping
นี่คือเส้นทางที่เร็วที่สุดจาก “ฉันต้องการข้อมูล Google Shopping” ไปสู่ “นี่คือสเปรดชีตของคุณ” ไม่ต้องเขียนโค้ด ไม่ต้องมี API key ไม่ต้องตั้งค่า proxy ผมเคยพาเพื่อนร่วมทีมที่ไม่ถนัดเทคนิคทำเวิร์กโฟลว์นี้มาหลายสิบครั้ง — ไม่มีใครติดขัด
ขั้นตอนที่ 1: ติดตั้ง Thunderbit และเปิด Google Shopping
ติดตั้ง จาก Chrome Web Store แล้วสมัครบัญชีฟรี
จากนั้นเข้าไปที่ Google Shopping คุณจะไปที่ shopping.google.com โดยตรง หรือใช้แท็บ Shopping ใน Google Search ปกติก็ได้ ค้นหาสินค้าหรือหมวดที่สนใจ — เช่น "wireless noise-cancelling headphones"
คุณควรจะเห็นตารางแสดงสินค้าพร้อมราคา ผู้ขาย และคะแนนรีวิว
ขั้นตอนที่ 2: คลิก "AI Suggest Fields" เพื่อให้ระบบเดาคอลัมน์อัตโนมัติ
คลิกไอคอนส่วนขยาย Thunderbit เพื่อเปิดแถบด้านข้าง แล้วกด "AI Suggest Fields" AI จะสแกนหน้า Google Shopping และเสนอคอลัมน์ เช่น Product Title, Price, Seller, Rating, Review Count, Image URL, Product Link
ตรวจสอบฟิลด์ที่ระบบแนะนำ คุณสามารถเปลี่ยนชื่อคอลัมน์ เอาคอลัมน์ที่ไม่ต้องการออก หรือเพิ่มฟิลด์แบบกำหนดเองได้ ถ้าต้องการเจาะจงมากขึ้น เช่น “ดึงเฉพาะตัวเลขราคาโดยไม่เอาสัญลักษณ์สกุลเงิน” คุณสามารถเพิ่ม Field AI Prompt ให้คอลัมน์นั้นได้
คุณจะเห็นตัวอย่างโครงสร้างคอลัมน์ในแผงของ Thunderbit
ขั้นตอนที่ 3: คลิก "Scrape" แล้วตรวจผลลัพธ์
กดปุ่มสีน้ำเงิน "Scrape" แล้ว Thunderbit จะดึงรายการสินค้าที่มองเห็นทั้งหมดลงมาเป็นตารางที่มีโครงสร้าง
มีหลายหน้า? Thunderbit จัดการ pagination ให้อัตโนมัติ — จะคลิกข้ามหน้า หรือเลื่อนเพื่อโหลดผลลัพธ์เพิ่มเติมตามรูปแบบของหน้า ถ้าผลลัพธ์เยอะ คุณเลือกได้ระหว่าง Cloud Scraping (เร็วกว่า รองรับได้ถึง 50 หน้าต่อครั้ง ทำงานบนโครงสร้างพื้นฐานแบบกระจายของ Thunderbit) หรือ Browser Scraping (ใช้ Chrome session ของคุณเอง — เหมาะเมื่อ Google แสดงผลตามภูมิภาคหรือจำเป็นต้องล็อกอิน)
จากการทดสอบของผม ดึงสินค้าจำนวน 50 รายการใช้เวลาประมาณ 30 วินาที งานเดียวกันถ้าทำมือ — เปิดทีละรายการ คัดลอกชื่อ ราคา ผู้ขาย และคะแนน — คงใช้เวลาเกิน 20 นาที
ขั้นตอนที่ 4: เพิ่มข้อมูลจากซับเพจด้วย Subpage Scraping
หลังจากดึงข้อมูลรอบแรกแล้ว ให้คลิก "Scrape Subpages" ในแผงของ Thunderbit AI จะเข้าไปที่หน้ารายละเอียดของสินค้าแต่ละรายการ แล้วเติมฟิลด์เพิ่มเติม — รายละเอียดเต็ม ราคาจากผู้ขายทั้งหมด สเปก และรีวิว — ลงในตารางเดิม
ไม่ต้องตั้งค่าอะไรเพิ่ม AI จะอ่านโครงสร้างของแต่ละหน้าและดึงข้อมูลที่เกี่ยวข้องให้อัตโนมัติ ผมเคยสร้างตารางวิเคราะห์ราคาคู่แข่งแบบครบชุด (สินค้า + ราคาจากผู้ขายทุกราย + สเปก) สำหรับ 40 สินค้าได้ภายในไม่ถึง 5 นาทีด้วยวิธีนี้
ขั้นตอนที่ 5: ส่งออกไปยัง Google Sheets, Excel, Airtable หรือ Notion
คลิก "Export" แล้วเลือกปลายทาง — , Excel, Airtable หรือ Notion ฟรีทั้งหมด ยังมี CSV และ JSON ให้ดาวน์โหลดด้วย
คลิกสองครั้งเพื่อดึงข้อมูล และอีกหนึ่งคลิกเพื่อส่งออก ถ้าเป็นสคริปต์ Python แบบเดียวกัน? ประมาณ 60 บรรทัด พร้อมการตั้งค่า proxy การรับมือ CAPTCHA และการดูแลรักษาต่อเนื่อง
วิธีที่ 2: ดึงข้อมูล Google Shopping ด้วย Python + SERP API
- ความยาก: ระดับกลาง
- เวลา: ~30 นาที
- สิ่งที่ต้องมี: Python 3.10+, ไลบรารี
requestsและpandas, SERP API key (เช่น ScraperAPI, SerpApi หรือคล้ายกัน)
ถ้าคุณต้องการเข้าถึงข้อมูล Google Shopping แบบทำซ้ำได้และสั่งงานด้วยโปรแกรม SERP API คือแนวทางที่เชื่อถือได้ที่สุดบน Python ระบบ anti-bot, การเรนเดอร์ JavaScript และการหมุน proxy — ทั้งหมดถูกจัดการอยู่เบื้องหลัง คุณส่ง HTTP request แล้วรับ JSON ที่เป็นโครงสร้างกลับมา
ขั้นตอนที่ 1: ตั้งค่าสภาพแวดล้อม Python
ติดตั้ง Python 3.12 (ซึ่งเป็นตัวเลือกเริ่มต้นที่ปลอดภัยที่สุดสำหรับงานจริงในปี 2025–2026) และแพ็กเกจที่จำเป็น:
1pip install requests pandas
สมัครใช้งานกับผู้ให้บริการ SERP API มี 100 searches ฟรี/เดือน; ให้เครดิตฟรี 5,000 หน่วย ดึง API key จากแดชบอร์ดของคุณ
ขั้นตอนที่ 2: ตั้งค่าการเรียก API
นี่คือตัวอย่างขั้นต่ำที่ใช้ Google Shopping endpoint ของ ScraperAPI:
1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5resp = requests.get(
6 "https://api.scraperapi.com/structured/google/shopping",
7 params={"api_key": API_KEY, "query": query, "country_code": "us"}
8)
9data = resp.json()
API จะส่งกลับ JSON ที่มีฟิลด์อย่าง title, price, link, thumbnail, source (ผู้ขาย), และ rating
ขั้นตอนที่ 3: แยกข้อมูลจาก JSON และดึงฟิลด์ที่ต้องการ
1products = data.get("shopping_results", [])
2rows = []
3for p in products:
4 rows.append({
5 "title": p.get("title"),
6 "price": p.get("price"),
7 "seller": p.get("source"),
8 "rating": p.get("rating"),
9 "reviews": p.get("reviews"),
10 "link": p.get("link"),
11 "thumbnail": p.get("thumbnail"),
12 })
13df = pd.DataFrame(rows)
ขั้นตอนที่ 4: ส่งออกเป็น CSV หรือ JSON
1df.to_csv("google_shopping_results.csv", index=False)
เหมาะกับงานแบบ batch: วนลูป 50 คีย์เวิร์ดแล้วสร้างชุดข้อมูลครบได้ในสคริปต์รันเดียว ข้อแลกเปลี่ยนคือค่าใช้จ่าย — SERP API คิดเงินตามจำนวน query และถ้าวิ่งวันละหลายพัน query ค่าใช้จ่ายจะสูงขึ้นเรื่อย ๆ รายละเอียดเรื่องราคาจะมีอธิบายต่อไป
วิธีที่ 3: ดึงข้อมูล Google Shopping ด้วย Python + Playwright (อัตโนมัติผ่านเบราว์เซอร์)
- ความยาก: ขั้นสูง
- เวลา: ~1 ชั่วโมงขึ้นไป (และต้องดูแลต่อเนื่อง)
- สิ่งที่ต้องมี: Python 3.10+, Playwright, residential proxies, ความอดทน
นี่คือแนวทางแบบ “คุมได้ทั้งหมด” คุณเปิดเบราว์เซอร์จริง เข้าไปที่ Google Shopping แล้วดึงข้อมูลจากหน้าเว็บที่เรนเดอร์เสร็จแล้ว ยืดหยุ่นที่สุด แต่ก็เปราะบางที่สุด — ระบบ anti-bot ของ Google เข้มมาก และโครงสร้างหน้ามีการเปลี่ยนหลายครั้งต่อปี
ขอเตือนไว้ก่อน: ผมเคยคุยกับผู้ใช้ที่ใช้เวลาหลายสัปดาห์สู้กับ CAPTCHA และ IP block ด้วยวิธีนี้ มันใช้ได้ แต่ต้องเตรียมใจว่าจะต้องดูแลต่อเนื่อง
ขั้นตอนที่ 1: ตั้งค่า Playwright และ Proxy
1pip install playwright
2playwright install chromium
คุณจะต้องใช้ residential proxies เพราะ IP จากดาต้าเซ็นเตอร์มักถูกบล็อกแทบจะทันที — มีผู้ใช้ในฟอรัมคนหนึ่งพูดตรง ๆ ว่า “IP ของ AWS ทุกตัวจะโดนบล็อกหรือเจอ CAPTCHA หลังผลลัพธ์ 1/2 หน้า” บริการอย่าง Bright Data, Oxylabs หรือ Decodo มี residential proxy pool เริ่มราว $1–5/GB
ตั้งค่า Playwright ด้วย user-agent ที่สมจริงและ proxy ของคุณ:
1from playwright.sync_api import sync_playwright
2with sync_playwright() as p:
3 browser = p.chromium.launch(
4 headless=True,
5 proxy={"server": "http://your-proxy:port", "username": "user", "password": "pass"}
6 )
7 context = browser.new_context(
8 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ..."
9 )
10 page = context.new_page()
ขั้นตอนที่ 2: เข้า Google Shopping และจัดการมาตรการ Anti-Bot
สร้าง URL ของ Google Shopping แล้วเข้าไป:
1query = "wireless noise cancelling headphones"
2url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
3page.goto(url, wait_until="networkidle")
หากมีป๊อปอัปยินยอมคุกกี้ของ EU ให้กดปิด:
1try:
2 page.click("button#L2AGLb", timeout=3000)
3except:
4 pass
เพิ่มดีเลย์แบบเหมือนคนใช้งานจริงระหว่างแต่ละขั้นตอน — รอแบบสุ่ม 2–5 วินาทีระหว่างการโหลดหน้า ระบบตรวจจับของ Google จะมองรูปแบบ request ที่เร็วและสม่ำเสมอเกินไปเป็นพฤติกรรมของบอท
ขั้นตอนที่ 3: เลื่อนหน้า แบ่งหน้า และดึงข้อมูลสินค้า
Google Shopping โหลดผลลัพธ์แบบไดนามิก เลื่อนหน้าเพื่อกระตุ้น lazy loading แล้วดึงการ์ดสินค้า:
1import time, random
2# เลื่อนเพื่อโหลดผลลัพธ์ทั้งหมด
3for _ in range(3):
4 page.evaluate("window.scrollBy(0, 1000)")
5 time.sleep(random.uniform(1.5, 3.0))
6# ดึงการ์ดสินค้า
7cards = page.query_selector_all("[jsname='ZvZkAe']")
8results = []
9for card in cards:
10 title = card.query_selector("h3")
11 price = card.query_selector("span.a8Pemb")
12 # ... ดึงฟิลด์อื่น ๆ
13 results.append({
14 "title": title.inner_text() if title else None,
15 "price": price.inner_text() if price else None,
16 })
ข้อสำคัญ: CSS selector ด้านบนเป็นเพียงค่าประมาณ และ จะเปลี่ยนแน่นอน Google หมุนชื่อคลาสบ่อยมาก ในช่วงปี 2024–2026 เพียงอย่างเดียวก็มีการบันทึก selector หลายชุดแล้ว ควรยึดแอตทริบิวต์ที่เสถียรกว่า เช่น jsname, data-cid, แท็ก <h3>, และ img[alt] แทนการยึด class name
ขั้นตอนที่ 4: บันทึกเป็น CSV หรือ JSON
1import json
2from datetime import datetime
3filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
4with open(filename, "w") as f:
5 json.dump(results, f, indent=2)
คุณต้องดูแลสคริปต์นี้เป็นระยะ เพราะเมื่อ Google เปลี่ยนโครงสร้างหน้า — ซึ่งเกิดขึ้นหลายครั้งต่อปี — selector ของคุณก็จะพัง แล้วต้องกลับไปไล่แก้กันใหม่
ปัญหาใหญ่ที่สุด: CAPTCHA และการบล็อกจาก Anti-Bot
อ่านตามฟอรัมหลายแห่ง คุณจะเจอเรื่องเดิมซ้ำ ๆ: “ผมเสียเวลาไปหลายสัปดาห์แต่สุดท้ายก็สู้ระบบ anti-bot ของ Google ไม่ไหว” CAPTCHA และ IP block คือสาเหตุหลักที่ทำให้คนเลิกทำ Google Shopping scraper เอง
Google บล็อก Scraper อย่างไร และควรรับมือแบบไหน
| ความท้าทาย Anti-Bot | Google ทำอะไร | วิธีรับมือ |
|---|---|---|
| การระบุ IP fingerprint | บล็อก IP จากดาต้าเซ็นเตอร์หลังไม่กี่ request | ใช้ residential proxies หรือ scraping ผ่านเบราว์เซอร์ |
| CAPTCHA | ถูกกระตุ้นจาก request ที่เร็วหรือเป็นแพตเทิร์นอัตโนมัติ | จำกัดอัตรา request (เว้น 10–20 วินาที), หน่วงเวลาแบบเหมือนคน, ใช้บริการแก้ CAPTCHA |
| การเรนเดอร์ JavaScript | ผลลัพธ์ Shopping โหลดผ่าน JS แบบไดนามิก | ใช้ headless browser (Playwright) หรือ API ที่เรนเดอร์ JS |
| การตรวจ user-agent | บล็อก user-agent ของบอทที่พบบ่อย | สลับใช้ user-agent ที่สมจริงและเป็นปัจจุบัน |
| TLS fingerprinting | ตรวจลักษณะ TLS ที่ไม่เหมือนเบราว์เซอร์ | ใช้ curl_cffi ที่เลียนแบบเบราว์เซอร์ หรือใช้เบราว์เซอร์จริง |
| การบล็อก AWS/คลาวด์ IP | บล็อกช่วง IP ของผู้ให้บริการคลาวด์ที่รู้จักกันดี | หลีกเลี่ยงดาต้าเซ็นเตอร์ IP ไปเลย |
ในเดือนมกราคม 2025 Google บังคับให้ต้องใช้ JavaScript สำหรับผลการค้นหาแบบ SERP และ Shopping ส่งผลให้ — รวมถึงพายป์ไลน์ที่ SemRush และ SimilarWeb ใช้ด้วย ต่อมาในเดือนกันยายน 2025 Google ยกเลิก URL หน้า product detail แบบเก่า และเปลี่ยนไปยัง surface ใหม่ชื่อ "Immersive Product" ที่โหลดผ่าน AJAX แบบ async คู่มือใดก็ตามที่เขียนก่อนปลายปี 2025 จึงล้าสมัยไปมากแล้ว
แต่ละวิธีรับมือปัญหาเหล่านี้อย่างไร
SERP API จัดการทุกอย่างไว้เบื้องหลัง — proxy, การเรนเดอร์, และการแก้ CAPTCHA คุณแทบไม่ต้องคิดถึงมัน
Thunderbit Cloud Scraping ใช้โครงสร้างพื้นฐานคลาวด์แบบกระจายในสหรัฐฯ สหภาพยุโรป และเอเชีย เพื่อรับมือกับการเรนเดอร์ JS และมาตรการ anti-bot โดยอัตโนมัติ โหมด Browser Scraping ใช้ Chrome session ที่คุณล็อกอินอยู่เอง ซึ่งช่วยเลี่ยงการตรวจจับได้ดี เพราะมันดูเหมือนคนใช้เบราว์เซอร์ปกติ
DIY Playwright คือคุณรับภาระทั้งหมดเอง — การจัดการ proxy การจูนความหน่วง การแก้ CAPTCHA การดูแล selector และการเฝ้าดูความเสียหายของสคริปต์ตลอดเวลา
ต้นทุนจริงในการดึงข้อมูล Google Shopping: เปรียบเทียบแบบตรงไปตรงมา
“$50 สำหรับประมาณ 20k requests… แพงไปหน่อยสำหรับโปรเจกต์งานอดิเรก” ข้อบ่นแบบนี้เจอบ่อยมากในฟอรัม แต่สิ่งที่คนมักมองข้ามคือค่าใช้จ่ายที่ใหญ่ที่สุด
ตารางเปรียบเทียบต้นทุน
| แนวทาง | ต้นทุนเริ่มต้น | ต้นทุนต่อ query (โดยประมาณ) | ภาระในการดูแล | ต้นทุนแฝง |
|---|---|---|---|---|
| เขียน Python เอง (ไม่ใช้ proxy) | ฟรี | $0 | สูงมาก (พังง่าย, CAPTCHA) | เวลาที่ใช้ไล่แก้บั๊ก |
| เขียน Python เอง + residential proxies | โค้ดฟรี | ~$1–5/GB | ปานกลาง-สูง | ค่าบริการผู้ให้ proxy |
| SERP API (SerpApi, ScraperAPI) | มีแพ็กเกจฟรีจำกัด | ~$0.50–5.00/1K queries | ต่ำ | ต้นทุนเพิ่มเร็วเมื่อใช้งานมาก |
| Thunderbit Chrome Extension | ฟรีระดับเริ่มต้น (6 หน้า) | ใช้เครดิต, ~1 เครดิต/แถว | ต่ำมาก | ต้องมีแพ็กเกจเสียเงินเมื่อใช้งานเยอะ |
| Thunderbit Open API (Extract) | ใช้เครดิต | ~20 เครดิต/หน้า | ต่ำ | จ่ายตามการดึงข้อมูล |
ต้นทุนแฝงที่ทุกคนมักไม่คิด: เวลา
โซลูชัน DIY ที่ดูเหมือนฟรี แต่กินเวลาแก้ปัญหา 40 ชั่วโมง ไม่ได้ฟรีจริง ถ้าคิดที่ชั่วโมงละ $50 นั่นคือค่าแรง $2,000 — เพื่อ scraper ที่อาจพังอีกในเดือนหน้าเมื่อ Google เปลี่ยน DOM

รายงาน Technology Outlook ของ McKinsey ระบุว่า ต่ำกว่านั้น การสร้างใช้เองภายในมักจะ “กินงบโดยไม่สร้าง ROI” สำหรับทีมอีคอมเมิร์ซส่วนใหญ่ที่ดึงข้อมูลเพียงไม่กี่ร้อยถึงไม่กี่พันครั้งต่อสัปดาห์ เครื่องมือแบบไม่ต้องเขียนโค้ดหรือ SERP API จะคุ้มค่ากว่าอย่างชัดเจน
วิธีตั้งค่าการมอนิเตอร์ราคา Google Shopping แบบอัตโนมัติ
คู่มือส่วนใหญ่มองการ scrape เป็นงานครั้งเดียว แต่กรณีใช้งานจริงของทีมอีคอมเมิร์ซคือการเฝ้าติดตามแบบ ต่อเนื่องและอัตโนมัติ คุณไม่ได้ต้องการแค่ราคาวันนี้ — แต่ต้องการของเมื่อวาน เมื่อสัปดาห์ก่อน และราคาที่เปลี่ยนในอนาคตด้วย
ตั้งค่า Scheduled Scraping ด้วย Thunderbit
Scheduled Scraper ของ Thunderbit ให้คุณอธิบายช่วงเวลาเป็นภาษาธรรมดาได้เลย — “ทุกวันตอน 9 โมงเช้า” หรือ “ทุกวันจันทร์และพฤหัสตอนเที่ยง” — แล้ว AI จะแปลงเป็นตารางงานที่ทำซ้ำอัตโนมัติ ใส่ URL ของ Google Shopping แล้วกด "Schedule" ก็เสร็จ
แต่ละรอบจะส่งออกข้อมูลไปยัง Google Sheets, Airtable หรือ Notion อัตโนมัติ ผลลัพธ์สุดท้ายคือสเปรดชีตที่เติมข้อมูลราคาคู่แข่งให้ทุกวัน พร้อมใช้ทำ pivot table หรือแจ้งเตือนต่อได้ทันที
ไม่ต้องตั้ง cron job ไม่ต้องดูแลเซิร์ฟเวอร์ ไม่ต้องปวดหัวกับ Lambda function (ผมเคยเห็นโพสต์ในฟอรัมจากนักพัฒนาที่ใช้เวลาหลายวันพยายามให้ Selenium รันบน AWS Lambda — ตัว scheduler ของ Thunderbit ตัดขั้นตอนพวกนั้นทิ้งไปหมด)
ถ้าต้องการอ่านเพิ่มเกี่ยวกับการสร้าง เรามีบทความเจาะลึกแยกไว้แล้ว
ตั้งเวลาฝั่ง Python (สำหรับนักพัฒนา)
ถ้าคุณใช้แนวทาง SERP API ก็สามารถตั้งเวลาให้รันด้วย cron job (Linux/Mac), Windows Task Scheduler หรือ cloud scheduler อย่าง AWS Lambda หรือ Google Cloud Functions ได้เช่นกัน ไลบรารี Python อย่าง APScheduler ก็ใช้ได้
ข้อแลกเปลี่ยนคือ ตอนนี้คุณต้องรับผิดชอบการเฝ้าดูสุขภาพสคริปต์ การจัดการความล้มเหลว การหมุน proxy ตามรอบเวลา และการอัปเดต selector เมื่อ Google เปลี่ยนหน้าเว็บ สำหรับทีมส่วนใหญ่ เวลาวิศวกรรมที่ใช้ดูแล scraper แบบตั้งเวลามักมากกว่าค่าใช้จ่ายของเครื่องมือเฉพาะทาง
เคล็ดลับและแนวปฏิบัติที่ดีในการดึงข้อมูล Google Shopping
ไม่ว่าคุณจะใช้วิธีไหน มีบางเรื่องที่ช่วยลดปัญหาได้มาก
เคารพ Rate Limit
อย่ายิง request ใส่ Google รัว ๆ นับร้อยครั้ง คุณจะโดนบล็อก และ IP ของคุณอาจถูกติดธงอยู่พักใหญ่ วิธี DIY ควรเว้นระยะ 10–20 วินาทีพร้อมสุ่ม jitter เครื่องมือและ API จะจัดการสิ่งนี้ให้เอง
เลือกวิธีให้ตรงกับปริมาณงาน
แนวทางตัดสินใจแบบเร็ว:
- < 10 queries/สัปดาห์ → Thunderbit แพ็กเกจฟรี หรือ SerpApi แพ็กเกจฟรี
- 10–1,000 queries/สัปดาห์ → SERP API แบบเสียเงิน หรือ
- 1,000+ queries/สัปดาห์ → SERP API ระดับองค์กร หรือ Thunderbit Open API
ทำความสะอาดและตรวจสอบข้อมูล
ราคามักมาพร้อมสัญลักษณ์สกุลเงิน รูปแบบตามโลแคล (1.299,00 € เทียบกับ $1,299.00) และบางครั้งมีตัวอักษรเพี้ยน ๆ ปนมา ใช้ Field AI Prompts ของ Thunderbit เพื่อปรับให้อยู่ในรูปแบบมาตรฐานตั้งแต่ตอนดึงข้อมูล หรือค่อยทำความสะอาดภายหลังด้วย pandas:
1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)
ตรวจดูข้อมูลซ้ำระหว่างรายการแบบออร์แกนิกกับรายการสปอนเซอร์ เพราะมักซ้อนกันได้ ใช้ tuple ของ (title, price, seller) เพื่อ deduplicate
เข้าใจประเด็นทางกฎหมาย
การดึงข้อมูลสินค้าที่เปิดเผยต่อสาธารณะโดยทั่วไปถือว่าทำได้ตามกฎหมาย แต่ภูมิทัศน์ทางกฎหมายกำลังเปลี่ยนเร็ว สิ่งที่สำคัญมากในช่วงหลังคือ: ภายใต้ DMCA § 1201 โดยอ้างว่ามีการหลบเลี่ยงระบบ anti-scraping "SearchGuard" ของ Google นี่เป็นแนวการบังคับใช้ใหม่ที่เลี่ยงข้อโต้แย้งที่เคยใช้ในคดีอย่าง hiQ v. LinkedIn และ Van Buren v. United States
แนวปฏิบัติที่ควรยึด:
- ดึงเฉพาะข้อมูลที่เปิดเผยต่อสาธารณะ — อย่าใช้การล็อกอินเพื่อเข้าถึงเนื้อหาที่จำกัด
- อย่าดึงข้อมูลส่วนบุคคล (เช่น ชื่อผู้รีวิวหรือรายละเอียดบัญชี)
- จำไว้ว่า Terms of Service ของ Google ห้ามการเข้าถึงแบบอัตโนมัติ — การใช้ SERP API หรือส่วนขยายเบราว์เซอร์ช่วยลดความเสี่ยงด้านกฎหมายลงได้ แต่ไม่ทำให้หายไปทั้งหมด
- สำหรับการใช้งานใน EU ควรคำนึงถึง GDPR แม้ว่ารายการสินค้าส่วนใหญ่จะเป็นข้อมูลเชิงพาณิชย์ที่ไม่ใช่ข้อมูลส่วนบุคคล
- หากคุณกำลังสร้างผลิตภัณฑ์เชิงพาณิชย์บนข้อมูลที่ดึงมา ควรปรึกษาผู้เชี่ยวชาญด้านกฎหมาย
หากต้องการอ่านเพิ่มเติมเกี่ยวกับ เรามีบทความแยกไว้แล้ว
ควรใช้วิธีไหนในการดึงข้อมูล Google Shopping?
หลังจากลองทั้ง 3 วิธีในหมวดสินค้าชุดเดียวกัน ผมสรุปได้แบบนี้:
ถ้าคุณเป็นผู้ใช้ที่ไม่ถนัดเทคนิคและต้องการข้อมูลเร็วที่สุด — ใช้ Thunderbit เปิด Google Shopping คลิกสองครั้ง แล้วส่งออก คุณจะได้สเปรดชีตที่สะอาดภายในไม่ถึง 5 นาที ให้คุณลองได้โดยไม่ต้องผูกมัด และฟีเจอร์ subpage scraping ยังให้ข้อมูลลึกกว่าสคริปต์ Python ส่วนใหญ่ด้วย
ถ้าคุณเป็นนักพัฒนาที่ต้องการเข้าถึงแบบสั่งงานซ้ำได้ — ใช้ SERP API ความเสถียรคุ้มกับต้นทุนต่อ query และคุณจะไม่ต้องปวดหัวกับ anti-bot เลย SerpApi มีเอกสารดีที่สุด ส่วน ScraperAPI มีแพ็กเกจฟรีที่ใจกว้างที่สุด
ถ้าคุณต้องการควบคุมทุกอย่างและกำลังสร้างพายป์ไลน์แบบเฉพาะทาง — Playwright ใช้ได้ แต่ต้องเข้าไปด้วยความเข้าใจชัดเจนว่า คุณจะต้องกันเวลาให้การจัดการ proxy การดูแล selector และการแก้ CAPTCHA อย่างจริงจัง ในปี 2025–2026 สแต็กขั้นต่ำที่พอใช้งานได้คือ curl_cffi ร่วมกับการเลียนแบบ Chrome + residential proxies + การเว้นจังหวะ 10–20 วินาที สคริปต์ requests ธรรมดาที่สลับ user-agent ไปมาใช้ไม่ได้แล้ว
วิธีที่ดีที่สุดคือวิธีที่ให้ข้อมูลแม่นยำโดยไม่กินเวลาทั้งสัปดาห์ สำหรับคนส่วนใหญ่ นั่นไม่ใช่สคริปต์ Python 60 บรรทัด — แต่มันคือการคลิกสองครั้ง
ดู หากคุณต้องการใช้งานในปริมาณมาก หรือดูวิดีโอสอนของเราบน เพื่อดูเวิร์กโฟลว์จริง
คำถามที่พบบ่อย
การดึงข้อมูล Google Shopping ถือว่าถูกกฎหมายไหม?
โดยทั่วไปการดึงข้อมูลสินค้าที่เปิดเผยต่อสาธารณะถือว่าถูกกฎหมาย ตามบรรทัดฐานอย่าง hiQ v. LinkedIn และ Van Buren v. United States อย่างไรก็ตาม Terms of Service ของ Google ห้ามการเข้าถึงแบบอัตโนมัติ และคดีที่ Google ฟ้อง SerpApi ในเดือนธันวาคม 2025 ได้เพิ่มแนวทางใหม่ภายใต้ DMCA § 1201 เรื่องการหลบเลี่ยงระบบป้องกัน การใช้เครื่องมือและ API ที่มีชื่อเสียงช่วยลดความเสี่ยงลงได้ แต่สำหรับงานเชิงพาณิชย์ ควรปรึกษาทนายความ
จะดึงข้อมูล Google Shopping โดยไม่โดนบล็อกได้ไหม?
ได้ แต่ต้องเลือกวิธีให้เหมาะ SERP API จะจัดการมาตรการ anti-bot ให้อัตโนมัติ Thunderbit's Cloud Scraping ใช้โครงสร้างพื้นฐานแบบกระจายเพื่อหลีกเลี่ยงการบล็อก ขณะที่ Browser Scraping ใช้ Chrome session ของคุณเอง (ซึ่งดูเหมือนการใช้งานปกติ) สคริปต์ Python แบบ DIY ต้องพึ่ง residential proxies หน่วงเวลาแบบเหมือนมนุษย์ และการจัดการ TLS fingerprint — และถึงอย่างนั้นก็ยังมีโอกาสโดนบล็อกสูง
วิธีที่ง่ายที่สุดในการดึงข้อมูล Google Shopping คืออะไร?
Thunderbit Chrome Extension แค่เข้า Google Shopping คลิก "AI Suggest Fields" คลิก "Scrape" แล้วส่งออกไปยัง Google Sheets หรือ Excel ไม่ต้องเขียนโค้ด ไม่ต้องใช้ API key ไม่ต้องตั้งค่า proxy ทั้งหมดใช้เวลาประมาณ 2 นาที
สามารถตั้งให้ดึงข้อมูล Google Shopping สำหรับติดตามราคาได้บ่อยแค่ไหน?
ด้วย Thunderbit's Scheduled Scraper คุณตั้งการติดตามแบบรายวัน รายสัปดาห์ หรือช่วงเวลาที่กำหนดเองได้ด้วยภาษาธรรมดา ถ้าใช้ SERP API ความถี่จะขึ้นอยู่กับโควต้าคะแนนของแพ็กเกจ — ผู้ให้บริการส่วนใหญ่เพียงพอสำหรับการติดตามสินค้าหลายร้อย SKU ทุกวัน สคริปต์ DIY จะรันบ่อยเท่าไหร่ก็ได้ตามโครงสร้างพื้นฐาน แต่ยิ่งรันถี่ก็ยิ่งเจอปัญหา anti-bot มากขึ้น
ส่งออกข้อมูล Google Shopping ไป Google Sheets หรือ Excel ได้ไหม?
ได้ Thunderbit ส่งออกตรงไปยัง Google Sheets, Excel, Airtable และ Notion ได้ฟรี ส่วนสคริปต์ Python สามารถส่งออกเป็น CSV หรือ JSON ซึ่งนำเข้าไปยังเครื่องมือสเปรดชีตใดก็ได้ สำหรับการติดตามต่อเนื่อง Thunderbit ที่ตั้งเวลา export ไปยัง Google Sheets จะสร้างชุดข้อมูลแบบสดที่อัปเดตอัตโนมัติ