Google Shopping מעבדת יותר מ-. זה ים של מידע על מחירים, מגמות מוצרים ונתוני מוכרים — וכל זה כבר יושב שם, ממש בתוך הדפדפן שלכם, נאסף מאלפי קמעונאים.
להוציא את המידע הזה מ-Google Shopping ולהעביר אותו לגיליון אלקטרוני? כאן העסק מתחיל להסתבך. השקעתי לא מעט זמן בבדיקת גישות שונות — מהרחבות דפדפן בלי קוד ועד סקריפטים מלאים ב-Python — והחוויה נעה בין "וואו, זה היה פשוט" לבין "אני כבר שלושה ימים מדבג CAPTCHA ומוכן לפרוש". רוב המדריכים בנושא מניחים שאתם מפתחים ב-Python, אבל מניסיוני, חלק עצום מהאנשים שצריכים נתוני Google Shopping הם מפעילי ecommerce, אנליסטים של תמחור ומשווקים שרק רוצים את המספרים בלי להיכנס לקוד. לכן המדריך הזה מציג שלוש שיטות, מהקלה ביותר ועד הטכנית ביותר, כדי שתוכלו לבחור את המסלול שמתאים לרמת היכולת ולזמן שלכם.
מה זה בכלל נתוני Google Shopping?
Google Shopping הוא מנוע חיפוש למוצרים. מקלידים למשל "אוזניות אלחוטיות עם ביטול רעשים" ו-Google מציגה רשימות ממאות חנויות מקוונות — שמות מוצרים, מחירים, מוכרים, דירוגים, תמונות וקישורים. זה בעצם קטלוג חי שמתעדכן כל הזמן של מה שמוצע למכירה ברחבי האינטרנט.
למה בכלל לגרד נתוני Google Shopping?
עמוד מוצר אחד לא אומר כמעט כלום. אבל כשיש מאות מוצרים, ומסדרים הכול בגיליון — פתאום מתחילים להופיע דפוסים.

אלה מקרי השימוש הנפוצים ביותר שראיתי:
| מקרה שימוש | מי מרוויח מזה | מה מחפשים |
|---|---|---|
| ניתוח תמחור מתחרים | צוותי ecommerce, אנליסטים של תמחור | מחירי מתחרים, דפוסי הנחות, שינויי מחירים לאורך זמן |
| זיהוי מגמות מוצרים | צוותי שיווק, מנהלי מוצר | מוצרים חדשים, קטגוריות צומחות, קצב ביקורות |
| מודיעין פרסומי | מנהלי PPC, צוותי צמיחה | מודעות ממומנות, אילו מוכרים משקיעים, תדירות הופעה |
| מחקר מוכרים/לידים | צוותי מכירות, B2B | חנויות פעילות, מוכרים חדשים שנכנסים לקטגוריה |
| ניטור MAP | מנהלי מותג | קמעונאים שמפרים מדיניות מחיר מינימלי מפורסם |
| מעקב מלאי ומבחר | מנהלי קטגוריה | זמינות מלאי, פערים במבחר המוצרים |
כבר משתמשים בכלי תמחור מבוססי AI. חברות שהשקיעו במודיעין תמחור תחרותי דיווחו על החזר השקעה של עד פי 29. Amazon מעדכנת מחירים בערך כל 10 דקות. אם אתם עדיין בודקים מחירי מתחרים ידנית, החישוב פשוט לא עובד לטובתכם.
Thunderbit הוא AI Web Scraper בתור תוסף Chrome, שמסייע למשתמשים עסקיים לגרד נתונים מאתרים בעזרת AI. הוא שימושי במיוחד למפעילי ecommerce, אנליסטים של תמחור ומשווקים שרוצים נתונים מובנים מ-Google Shopping בלי לכתוב קוד.
אילו נתונים באמת אפשר לגרד מ-Google Shopping?
לפני שבוחרים כלי או כותבים שורת קוד אחת, כדאי להבין אילו שדות זמינים בדיוק — ואילו שדות דורשים קצת יותר עבודה.
שדות מתוצאות החיפוש ב-Google Shopping
כשמבצעים חיפוש ב-Google Shopping, כל כרטיס מוצר בעמוד התוצאות כולל:
| שדה | סוג | דוגמה | הערות |
|---|---|---|---|
| שם המוצר | טקסט | "Sony WH-1000XM5 Wireless Headphones" | תמיד מופיע |
| מחיר | מספר | $278.00 | יכול להופיע כמחיר מבצע + מחיר מקורי |
| מוכר/חנות | טקסט | "Best Buy" | ייתכנו כמה מוכרים לאותו מוצר |
| דירוג | מספר | 4.7 | מתוך 5 כוכבים; לא תמיד מוצג |
| מספר ביקורות | מספר | 12,453 | לפעמים חסר במוצרים חדשים |
| כתובת תמונת המוצר | URL | https://... | בשלב הטעינה הראשוני ייתכן שיתקבל placeholder ב-base64 |
| קישור למוצר | URL | https://... | מוביל לעמוד המוצר של Google או לחנות ישירה |
| מידע על משלוח | טקסט | "Free shipping" | לא תמיד מופיע |
| תג ממומן | בוליאני | Yes/No | מציין מיקום בתשלום — שימושי לניתוח מודעות |
שדות מעמודי מוצר מפורטים (נתוני תת-עמוד)
אם נכנסים לעמוד הפרטים של מוצר מסוים ב-Google Shopping, אפשר לקבל נתונים עשירים יותר:
| שדה | סוג | הערות |
|---|---|---|
| תיאור מלא | טקסט | דורש כניסה לעמוד המוצר |
| כל מחירי המוכרים | מספר (מרובה) | השוואת מחירים בין קמעונאים זה לצד זה |
| מפרטים טכניים | טקסט | משתנה לפי קטגוריית המוצר (מידות, משקל וכו') |
| טקסט ביקורות בודדות | טקסט | תוכן מלא של ביקורות מהקונים |
| סיכומי יתרונות/חסרונות | טקסט | לפעמים Google מייצרת אותם אוטומטית |
כדי להגיע לשדות האלה צריך לבקר בכל עמוד מוצר אחרי גרידת תוצאות החיפוש. כלים עם יכולת של מטפלים בזה אוטומטית — בהמשך אראה איך זה עובד.
שלוש דרכים לגרד נתוני Google Shopping (בחרו את המסלול שלכם)

שלוש שיטות, מסודרות מהקלה ביותר לטכנית ביותר. בחרו את השורה שמתאימה לכם ודלגו קדימה:
| שיטה | רמת קושי | זמן התקנה | טיפול נגד בוטים | מתאים במיוחד ל |
|---|---|---|---|---|
| בלי קוד (Thunderbit Chrome Extension) | מתחילים | ~2 דקות | מטופל אוטומטית | צוותי ecommerce, משווקים, מחקר חד-פעמי |
| Python + SERP API | ביניים | ~30 דקות | מטופל ע״י ה-API | מפתחים שצריכים גישה פרוגרמטית וחוזרת |
| Python + Playwright (אוטומציה של דפדפן) | מתקדם | ~שעה+ | אתם מנהלים זאת בעצמכם | תהליכים מותאמים אישית, טיפול במקרי קצה |
שיטה 1: לגרד נתוני Google Shopping בלי קוד (באמצעות Thunderbit)
- רמת קושי: מתחילים
- זמן נדרש: ~2–5 דקות
- מה צריך: דפדפן Chrome, (הגרסה החינמית מספיקה), שאילתת חיפוש ב-Google Shopping
זה המסלול הכי מהיר מ"אני צריך נתוני Google Shopping" ל"הנה הגיליון שלי". בלי קוד, בלי מפתחות API, בלי קונפיגורציה של פרוקסי. ליוויתי עשרות פעמים חברי צוות לא-טכניים דרך הזרימה הזו — ואף אחד לא נתקע.
שלב 1: מתקינים את Thunderbit ופותחים את Google Shopping
התקינו את מחנות ה-Chrome Web Store וצרו חשבון חינמי.
אחר כך עברו ל-Google Shopping. אפשר להיכנס ישירות ל-shopping.google.com או להשתמש בלשונית Shopping בחיפוש רגיל ב-Google. חפשו את המוצר או הקטגוריה שמעניינים אתכם — למשל, "wireless noise-cancelling headphones."
אמורה להופיע רשת של רשימות מוצרים עם מחירים, מוכרים ודירוגים.
שלב 2: לוחצים על "AI Suggest Fields" כדי לזהות עמודות אוטומטית
לחצו על סמל ההרחבה של Thunderbit כדי לפתוח את הסרגל הצדדי, ואז לחצו על "AI Suggest Fields." ה-AI סורק את עמוד Google Shopping ומציע עמודות: Product Title, Price, Seller, Rating, Review Count, Image URL, Product Link.
בדקו את השדות המוצעים. אפשר לשנות שמות של עמודות, להסיר עמודות שלא צריך, או להוסיף שדות מותאמים אישית. אם רוצים לדייק — למשל, "לחלץ רק את המחיר המספרי בלי סימן המטבע" — אפשר להוסיף Field AI Prompt לאותה עמודה.
אמורה להופיע תצוגה מקדימה של מבנה העמודות בפאנל של Thunderbit.
שלב 3: לוחצים על "Scrape" ובודקים את התוצאות
לחצו על כפתור "Scrape" הכחול. Thunderbit מושך את כל רשומות המוצרים הנראות לעין אל תוך טבלה מובנית.
יש כמה עמודים? Thunderbit מטפל גם בזה אוטומטית — כולל מעבר בין עמודים או גלילה לטעינת תוצאות נוספות, בהתאם למבנה העמוד. אם יש הרבה תוצאות, אפשר לבחור בין Cloud Scraping (מהיר יותר, תומך עד 50 עמודים בכל פעם, ורץ מהתשתית המופצת של Thunderbit) לבין Browser Scraping (משתמש בסשן Chrome שלכם — שימושי אם Google מציגה תוצאות לפי אזור או דורשת התחברות).
בבדיקות שלי, גרידת 50 רשומות מוצרים לקחה בערך 30 שניות. אותה פעולה ידנית — לפתוח כל רשומה, להעתיק כותרת, מחיר, מוכר, דירוג — הייתה לוקחת לי יותר מ-20 דקות.
שלב 4: מעשירים את הנתונים עם גרידת תתי-עמודים
אחרי הגרידה הראשונית, לחצו על "Scrape Subpages" בפאנל של Thunderbit. ה-AI מבקר בכל עמוד פרטי מוצר ומצרף לשורה המקורית שדות נוספים — תיאורים מלאים, כל מחירי המוכרים, מפרטים וביקורות.
אין צורך בהגדרה נוספת — ה-AI מבין לבד את המבנה של כל עמוד פרטים ושולף את הנתונים הרלוונטיים. כך בניתי טבלת תמחור תחרותית מלאה (מוצר + כל מחירי המוכרים + מפרטים) ל-40 מוצרים בפחות מ-5 דקות.
שלב 5: מייצאים ל-Google Sheets, Excel, Airtable או Notion
לחצו על "Export" ובחרו יעד — , Excel, Airtable או Notion. הכול בחינם. יש גם הורדות ב-CSV וב-JSON.
שתי לחיצות לגרידה, לחיצה אחת לייצוא. הסקריפט המקביל ב-Python? בערך 60 שורות קוד, קונפיגורציית פרוקסי, טיפול ב-CAPTCHA ותחזוקה שוטפת.
שיטה 2: לגרד נתוני Google Shopping עם Python + SERP API
- רמת קושי: ביניים
- זמן נדרש: ~30 דקות
- מה צריך: Python 3.10+, ספריות
requestsו-pandas, מפתח ל-SERP API (כמו ScraperAPI, SerpApi או דומה)
אם אתם צריכים גישה פרוגרמטית וחוזרת לנתוני Google Shopping, SERP API היא הגישה הכי אמינה מבוססת Python. מנגנוני אנטי-בוט, רינדור JavaScript, רוטציית פרוקסי — הכול מטופל מאחורי הקלעים. אתם שולחים בקשת HTTP ומקבלים JSON מובנה בחזרה.
שלב 1: מגדירים את סביבת ה-Python
התקינו Python 3.12 (ברירת המחדל הבטוחה ביותר לסביבות ייצור ב-2025–2026) ואת החבילות הנדרשות:
1pip install requests pandas
צרו חשבון אצל ספק SERP API. מציעה 100 חיפושים חינם בחודש; נותנת 5,000 קרדיטים חינמיים. קחו את מפתח ה-API מהדשבורד.
שלב 2: מגדירים את בקשת ה-API
הנה דוגמה מינימלית שמשתמשת בנקודת הקצה של Google Shopping ב-ScraperAPI:
1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5resp = requests.get(
6 "https://api.scraperapi.com/structured/google/shopping",
7 params={"api_key": API_KEY, "query": query, "country_code": "us"}
8)
9data = resp.json()
ה-API מחזיר JSON מובנה עם שדות כמו title, price, link, thumbnail, source (המוכר), ו-rating.
שלב 3: מנתחים את תגובת ה-JSON ומחלצים שדות
1products = data.get("shopping_results", [])
2rows = []
3for p in products:
4 rows.append({
5 "title": p.get("title"),
6 "price": p.get("price"),
7 "seller": p.get("source"),
8 "rating": p.get("rating"),
9 "reviews": p.get("reviews"),
10 "link": p.get("link"),
11 "thumbnail": p.get("thumbnail"),
12 })
13df = pd.DataFrame(rows)
שלב 4: מייצאים ל-CSV או JSON
1df.to_csv("google_shopping_results.csv", index=False)
מתאים לעבודה באצווה: אפשר לעבור בלולאה על 50 מילות מפתח ולבנות מערך נתונים מלא בהרצה אחת של הסקריפט. החיסרון הוא העלות — SERP APIs גובות לפי שאילתה, וכשזה מגיע לאלפי שאילתות ביום, החשבון מטפס. עוד על תמחור בהמשך.
שיטה 3: לגרד נתוני Google Shopping עם Python + Playwright (אוטומציה של דפדפן)
- רמת קושי: מתקדמת
- זמן נדרש: ~שעה+ (ועוד תחזוקה שוטפת)
- מה צריך: Python 3.10+, Playwright, פרוקסי residential, סבלנות
זוהי גישת ה"שליטה המלאה". אתם מפעילים דפדפן אמיתי, נכנסים ל-Google Shopping, ושולפים נתונים מהעמוד אחרי שהוא נרנדר. הכי גמיש, אבל גם הכי שביר — מנגנוני האנטי-בוט של Google אגרסיביים, ומבנה העמוד משתנה כמה פעמים בשנה.
אזהרה הוגנת: דיברתי עם משתמשים שבילו שבועות במאבק מול CAPTCHAs וחסימות IP בגישה הזו. זה עובד, אבל צריך לצפות לתחזוקה מתמשכת.
שלב 1: מתקינים את Playwright ומגדירים פרוקסי
1pip install playwright
2playwright install chromium
תצטרכו פרוקסי residential. כתובות IP של דאטה-סנטר נחסמות כמעט מיד — משתמש בפורום ניסח את זה בחדות: "כל כתובות ה-IP של AWS ייחסמו או ייתקלו ב-CAPTCHA אחרי 1/2 מהתוצאות." שירותים כמו Bright Data, Oxylabs או Decodo מציעים מאגרי פרוקסי residential החל בערך מ-$1–5 לכל GB.
הגדירו את Playwright עם user-agent מציאותי ועם הפרוקסי שלכם:
1from playwright.sync_api import sync_playwright
2with sync_playwright() as p:
3 browser = p.chromium.launch(
4 headless=True,
5 proxy={"server": "http://your-proxy:port", "username": "user", "password": "pass"}
6 )
7 context = browser.new_context(
8 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ..."
9 )
10 page = context.new_page()
שלב 2: נכנסים ל-Google Shopping ומטפלים במנגנוני אנטי-בוט
בנו את כתובת Google Shopping וגלשו אליה:
1query = "wireless noise cancelling headphones"
2url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
3page.goto(url, wait_until="networkidle")
אם מופיע חלון consent של עוגיות באיחוד האירופי, טפלו בו:
1try:
2 page.click("button#L2AGLb", timeout=3000)
3except:
4 pass
הוסיפו השהיות דמויות-אדם בין פעולות — המתנה אקראית של 2–5 שניות בין טעינות עמודים. מערכות הזיהוי של Google מסמנות דפוסי בקשות מהירים ואחידים.
שלב 3: גוללים, עוברים בין עמודים ומחלצים נתוני מוצרים
Google Shopping טוענת תוצאות באופן דינמי. גללו כדי להפעיל טעינה עצלה, ואז חילצו כרטיסי מוצר:
1import time, random
2# Scroll to load all results
3for _ in range(3):
4 page.evaluate("window.scrollBy(0, 1000)")
5 time.sleep(random.uniform(1.5, 3.0))
6# Extract product cards
7cards = page.query_selector_all("[jsname='ZvZkAe']")
8results = []
9for card in cards:
10 title = card.query_selector("h3")
11 price = card.query_selector("span.a8Pemb")
12 # ... extract other fields
13 results.append({
14 "title": title.inner_text() if title else None,
15 "price": price.inner_text() if price else None,
16 })
הערה חשובה: ה-selectors של CSS שלמעלה הם מקורבים וישתנו. Google מחליפה שמות class לעיתים קרובות. רק ב-2024–2026 תועדו שלוש קבוצות שונות של selectors. עדיף להישען על מאפיינים יציבים יותר כמו jsname, data-cid, תגיות <h3> ו-img[alt] במקום שמות class.
שלב 4: שומרים ל-CSV או JSON
1import json
2from datetime import datetime
3filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
4with open(filename, "w") as f:
5 json.dump(results, f, indent=2)
תצטרכו לתחזק את הסקריפט הזה באופן קבוע. כש-Google משנה את מבנה העמוד — וזה קורה כמה פעמים בשנה — ה-selectors נשברים ואתם חוזרים לדיבוג.
כאב הראש הכי גדול: CAPTCHAs וחסימות אנטי-בוט
בפורום אחרי פורום חוזר אותו סיפור: "השקעתי כמה שבועות אבל ויתרתי מול שיטות האנטי-בוט של Google." CAPTCHAs וחסימות IP הם הסיבה מספר אחת לכך שאנשים נוטשים סקרייפרים ל-Google Shopping שבנו בעצמם.
איך Google חוסמת סקרייפרים ומה אפשר לעשות
| אתגר אנטי-בוט | מה Google עושה | פתרון |
|---|---|---|---|
| זיהוי טביעת אצבע של IP | חוסמת IP של דאטה-סנטר אחרי כמה בקשות | פרוקסי residential או גרידה מבוססת דפדפן |
| CAPTCHAs | מופעלים בעקבות דפוסי בקשה מהירים או אוטומטיים | הגבלת קצב (10–20 שניות בין בקשות), השהיות דמויות-אדם, שירותי פתרון CAPTCHA |
| רינדור JavaScript | תוצאות Shopping נטענות דינמית דרך JS | דפדפן headless (Playwright) או API שמרנדר JS |
| זיהוי user-agent | חוסם user-agent נפוצים של בוטים | סבב בין מחרוזות user-agent ריאליסטיות ועדכניות |
| טביעת TLS | מזהה חתימות TLS שאינן של דפדפן | שימוש ב-curl_cffi עם התחזות לדפדפן או בדפדפן אמיתי |
| חסימת IP של AWS/ענן | חוסם טווחי IP מוכרים של ספקי ענן | להימנע לחלוטין מ-IP של דאטה-סנטר |
בינואר 2025, Google הפכה את ביצוע JavaScript לחובה עבור תוצאות SERP ו-Shopping, — כולל צינורות עבודה ששימשו את SemRush ואת SimilarWeb. ואז בספטמבר 2025, Google הוציאה משימוש את כתובות ה-URL הישנות של דפי המוצר, והפנתה אותן למשטח חדש בשם "Immersive Product" שטוען נתונים באמצעות AJAX אסינכרוני. כל מדריך שנכתב לפני סוף 2025 כבר ברובו לא רלוונטי.
איך כל שיטה מתמודדת עם האתגרים האלה
SERP APIs מטפלות בכל מאחורי הקלעים — פרוקסי, רינדור, פתרון CAPTCHAs. אתם לא צריכים לחשוב על זה.
Thunderbit Cloud Scraping משתמש בתשתית ענן מבוזרת ברחבי ארה"ב, אירופה ואסיה כדי לטפל אוטומטית ברינדור JS ובאמצעי האנטי-בוט. מצב Browser Scraping משתמש בסשן Chrome המאומת שלכם, וכך עוקף זיהוי כי זה נראה כמו משתמש רגיל שמדפדף.
DIY Playwright מעביר אליכם את כל הנטל — ניהול פרוקסי, כיוונון השהיות, פתרון CAPTCHAs, תחזוקת selectors וניטור מתמיד לתקלות.
כמה באמת עולה לגרד נתוני Google Shopping: השוואה כנה
"$50 בשביל בערך 20 אלף בקשות… קצת יקר לפרויקט התחביב שלי." את התלונה הזו רואים שוב ושוב בפורומים. אבל בדרך כלל הדיון מתעלם מהעלות הגדולה באמת.
טבלת השוואת עלויות
| גישה | עלות התחלתית | עלות לכל שאילתה (מוערכת) | עומס תחזוקה | עלויות נסתרות |
|---|---|---|---|---|
| Python עצמאי (בלי פרוקסי) | חינם | $0 | גבוהה מאוד (תקלות, CAPTCHAs) | הזמן שלכם בדיבוג |
| Python עצמאי + פרוקסי residential | קוד חינמי | ~$1–5/GB | בינונית-גבוהה | עמלות לספק הפרוקסי |
| SERP API (SerpApi, ScraperAPI) | שכבת חינם מוגבלת | ~$0.50–5.00/1K שאילתות | נמוכה | מתייקר מהר בנפחים גדולים |
| Thunderbit Chrome Extension | גרסה חינמית (6 עמודים) | מבוסס קרדיטים, ~1 קרדיט/שורה | נמוכה מאוד | תוכנית בתשלום לנפחים גדולים |
| Thunderbit Open API (Extract) | מבוסס קרדיטים | ~20 קרדיטים/עמוד | נמוכה | תשלום לפי חילוץ |
העלות הסמויה שכולם מתעלמים ממנה: הזמן שלכם
פתרון DIY שעולה $0 אבל שורף 40 שעות דיבוג הוא לא באמת חינם. במחיר של $50 לשעה, זה $2,000 עבודה — עבור סקרייפר שעלול להישבר שוב בחודש הבא כשה-DOM של Google משתנה.

מחקר Technology Outlook של McKinsey מצא שנקודת האיזון בין build ל-buy מגיעה רק מעבר ל-. מתחת לסף הזה, פיתוח פנימי "צורך תקציב בלי להחזיר ROI." עבור רוב צוותי ecommerce שעושים כמה מאות עד כמה אלפי בדיקות בשבוע, כלי בלי קוד או SERP API הם פתרון הרבה יותר משתלם מאשר לבנות הכול לבד.
איך להקים ניטור אוטומטי של מחירי Google Shopping
רוב המדריכים מתייחסים לגרידה כמשימה חד-פעמית. אבל השימוש האמיתי עבור צוותי ecommerce הוא ניטור שוטף ואוטומטי. לא צריך רק את המחירים של היום — צריך גם את של אתמול, של שבוע שעבר ושל מחר.
הגדרת גרידה מתוזמנת עם Thunderbit
ה-Scheduled Scraper של Thunderbit מאפשר לתאר את מרווח הזמן באנגלית פשוטה — "every day at 9 AM" או "every Monday and Thursday at noon" — וה-AI ממיר את זה ללוח זמנים חוזר. מזינים את כתובות ה-URL של Google Shopping, לוחצים על "Schedule," וזהו.
כל הרצה מייצאת אוטומטית ל-Google Sheets, Airtable או Notion. התוצאה הסופית: גיליון שמתמלא אוטומטית מדי יום במחירי מתחרים, מוכן לטבלאות ציר או להתראות.
בלי cron jobs. בלי ניהול שרתים. בלי כאבי ראש של Lambda function. (ראיתי פוסטים בפורומים ממפתחים שבילו ימים בלנסות לגרום ל-Selenium לרוץ ב-AWS Lambda — ה-scheduler של Thunderbit חוסך את כל זה.)
למידע נוסף על בניית , יש לנו מדריך מעמיק נפרד.
תזמון עם Python (למפתחים)
אם אתם עובדים עם גישת SERP API, אפשר לתזמן הרצות בעזרת cron jobs (Linux/Mac), Windows Task Scheduler או מתזמנים בענן כמו AWS Lambda או Google Cloud Functions. גם ספריות Python כמו APScheduler יעבדו.
החיסרון: עכשיו אתם אחראים על מעקב אחרי תקינות הסקריפט, טיפול בכשלים, רוטציית פרוקסי לפי לוח זמנים, ועדכון selectors כשהעמוד של Google משתנה. עבור רוב הצוותים, הזמן ההנדסי שמושקע בתחזוקת סקרייפר Python מתוזמן עולה על העלות של כלי ייעודי.
טיפים ושיטות מומלצות לגרידת נתוני Google Shopping
לא משנה באיזו שיטה תבחרו, כמה דברים יחסכו לכם הרבה כאב ראש.
כבדו את מגבלות הקצב
אל תעמיסו על Google מאות בקשות מהירות — תיחסמו, וייתכן שה-IP שלכם יישאר מסומן לזמן מה. בשיטות DIY: רווחו את הבקשות ב-10–20 שניות עם ג’יטר אקראי. כלים ו-API-ים מטפלים בזה בשבילכם.
התאימו את השיטה להיקף שלכם
מדריך החלטה מהיר:
- פחות מ-10 שאילתות בשבוע → Thunderbit בגרסה החינמית או SerpApi בגרסה החינמית
- 10–1,000 שאילתות בשבוע → תוכנית בתשלום של SERP API או
- יותר מ-1,000 שאילתות בשבוע → תוכנית enterprise של SERP API או Thunderbit Open API
נקו ותאמתו את הנתונים
מחירים מגיעים עם סימני מטבע, פורמטים מקומיים (1.299,00 € מול $1,299.00), ולפעמים גם תווים מיותרים. השתמשו ב-Field AI Prompts של Thunderbit כדי לנרמל כבר בזמן החילוץ, או נקו אחר כך עם pandas:
1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)
בדקו כפילויות בין רשומות אורגניות לממומנות — הן חופפות לעיתים קרובות. בצעו dedup לפי הצירוף (title, price, seller).
הכירו את המסגרת המשפטית
גרידה של נתוני מוצרים ציבוריים נחשבת בדרך כלל לחוקית, אבל התחום המשפטי משתנה במהירות. ההתפתחות המשמעותית ביותר לאחרונה: לפי סעיף DMCA § 1201, בטענה לעקיפת מערכת האנטי-גרידה "SearchGuard" של Google. זהו וקטור אכיפה חדש, שעוקף את ההגנות שנקבעו בפסיקות קודמות כמו hiQ v. LinkedIn ו-Van Buren v. United States.
הנחיות מעשיות:
- גרדו רק נתונים שזמינים לציבור — אל תתחברו כדי לגשת לתוכן מוגבל
- אל תחלצו מידע אישי (שמות סוקרים, פרטי חשבון)
- שימו לב שתנאי השימוש של Google אוסרים גישה אוטומטית — שימוש ב-SERP API או בהרחבת דפדפן מפחית (אבל לא מבטל) אזורים אפורים משפטיים
- עבור פעילות באיחוד האירופי, קחו בחשבון גם GDPR, אף שנתוני מוצרים הם ברובם נתונים מסחריים שאינם אישיים
- שקלו להתייעץ עם יועץ משפטי אם אתם בונים מוצר מסחרי על בסיס נתונים שנגרדו
להעמקה נוספת בנושא , סקרנו את הנושא בנפרד.
איזו שיטה כדאי לבחור כדי לגרד נתוני Google Shopping?
אחרי שבדקתי את כל שלוש הגישות על אותן קטגוריות מוצרים, זו המסקנה שלי:
אם אתם משתמשים לא-טכניים שצריכים נתונים מהר — השתמשו ב-Thunderbit. פתחו את Google Shopping, לחצו פעמיים, ייצאו. בתוך פחות מ-5 דקות יהיה לכם גיליון נקי. ה- מאפשרת לנסות בלי התחייבות, ויכולת גרידת תתי-העמודים מספקת נתונים עשירים יותר מרוב סקריפטי Python.
אם אתם מפתחים שצריכים גישה פרוגרמטית וחוזרת — השתמשו ב-SERP API. האמינות מצדיקה את העלות לכל שאילתה, וחוסכת את כל כאבי הראש של אנטי-בוט. ל-SerpApi יש את התיעוד הטוב ביותר; ל-ScraperAPI יש את שכבת החינם הנדיבה ביותר.
אם אתם צריכים שליטה מקסימלית ובונים צינור עבודה מותאם אישית — Playwright עובד, אבל צריך להיכנס לזה בעיניים פתוחות. תכננו זמן משמעותי לניהול פרוקסי, תחזוקת selectors וטיפול ב-CAPTCHA. ב-2025–2026, סטאק העקיפה המינימלי הראוי הוא curl_cffi עם התחזות ל-Chrome + פרוקסי residential + קצב של 10–20 שניות. סקריפט requests פשוט עם סבב user-agents כבר מת.
השיטה הטובה ביותר היא זו שמביאה לכם נתונים מדויקים בלי לשרוף לכם את השבוע. עבור רוב האנשים, זה לא סקריפט Python של 60 שורות — אלא שתי לחיצות.
בדקו את אם אתם צריכים נפח, או צפו במדריכים שלנו ב- כדי לראות את הזרימה בפעולה.
שאלות נפוצות
האם חוקי לגרד נתוני Google Shopping?
גרידה של נתוני מוצרים ציבוריים היא בדרך כלל חוקית לפי תקדימים כמו hiQ v. LinkedIn ו-Van Buren v. United States. עם זאת, תנאי השימוש של Google אוסרים גישה אוטומטית, ותביעת דצמבר 2025 של Google נגד SerpApi יצרה תיאוריה חדשה של עקיפה לפי DMCA § 1201. שימוש בכלים ו-API-ים מוכרים מפחית סיכון. לשימוש מסחרי, מומלץ להתייעץ עם יועץ משפטי.
האם אפשר לגרד Google Shopping בלי להיחסם?
כן, אבל השיטה קובעת. SERP APIs מטפלות באמצעי אנטי-בוט באופן אוטומטי. ה-Cloud Scraping של Thunderbit משתמש בתשתית מבוזרת כדי להימנע מחסימות, בעוד שמצב Browser Scraping משתמש בסשן Chrome שלכם (שנראה כמו גלישה רגילה). סקריפטי Python עצמאיים דורשים פרוקסי residential, השהיות דמויות-אדם וניהול TLS fingerprint — וגם אז חסימות עדיין נפוצות.
מהי הדרך הכי קלה לגרד נתוני Google Shopping?
תוסף Chrome של Thunderbit. נכנסים ל-Google Shopping, לוחצים על "AI Suggest Fields", לוחצים על "Scrape", ומייצאים ל-Google Sheets או Excel. בלי קידוד, בלי מפתחות API, בלי קונפיגורציית פרוקסי. כל התהליך לוקח בערך 2 דקות.
באיזו תדירות אפשר לגרד Google Shopping לצורך ניטור מחירים?
עם Scheduled Scraper של Thunderbit אפשר להגדיר ניטור יומי, שבועי או במרווח מותאם, באמצעות תיאור פשוט באנגלית. ב-SERP APIs, התדירות תלויה במגבלות הקרדיטים של התוכנית — רוב הספקים נותנים מספיק לניטור יומי של כמה מאות SKUs. סקריפטים עצמאיים יכולים לרוץ בתדירות שהאינפרה שלכם מאפשרת, אבל תדירות גבוהה יותר אומרת יותר כאבי ראש של אנטי-בוט.
האם אפשר לייצא נתוני Google Shopping ל-Google Sheets או Excel?
כן. Thunderbit מייצאת ישירות ל-Google Sheets, Excel, Airtable ו-Notion בחינם. סקריפטי Python יכולים לייצא ל-CSV או JSON, שאותם אפשר לייבא לכל כלי גיליונות. לניטור מתמשך, ייצוא מתוזמן של Thunderbit ל-Google Sheets יוצר מערך נתונים חי שמתעדכן אוטומטית.