Google Maps Scraper GitHub: מה עובד, מה נשבר ב־2026

עודכן לאחרונה ב-April 22, 2026

יש בערך ב־GitHub שתואמים ל־"google maps scraper". רובם שבורים.

זה אולי נשמע דרמטי, אבל אם כבר ביליתם זמן בשכפול מאגרים, בהתמודדות עם תלותים של Playwright, ובצפייה ב־scraper שלכם מחזיר קובצי CSV ריקים ב־2 בלילה, אתם כבר מכירים את התחושה. ל־Google Maps יש ברחבי העולם — זהו אחד ממאגרי העסקים המקומיים העשירים ביותר שיש. לכן, באופן טבעי, כולם, מנציגי מכירות ועד בעלי סוכנויות, רוצים לחלץ את הנתונים האלה. הבעיה היא ש־Google משנה את ממשק Maps שלה כל כמה שבועות עד חודשים, וכל שינוי כזה יכול לשבור בשקט את ה־scraper שבדיוק השקעתם שעה בהקמה שלו. כפי שכתב משתמש GitHub אחד ב־issue במרץ 2026: הכלי זו לא תקלה נקודתית ונישתית. זה כשל בזרימה המרכזית. עקבתי מקרוב אחרי המאגרים האלה השנה, והפער בין "נראה פעיל ב־GitHub" לבין "באמת מחזיר נתונים היום" גדול יותר ממה שרוב האנשים מצפים. המדריך הזה הוא הניסיון הכנה שלי להפריד בין האות לרעש — אילו מאגרים עובדים, אילו נשברים, מתי עדיף לדלג על GitHub לגמרי, ומה לעשות אחרי שגרדתם את הנתונים.

מהו Google Maps Scraper ב־GitHub (ולמה אנשים משתמשים בהם)?

Google Maps scraper ב־GitHub הוא בדרך כלל סקריפט ב־Python או ב־Go (ולפעמים עטוף ב־Docker) שפותח את Google Maps בדפדפן ללא ממשק, מריץ שאילתה כמו "dentists in Chicago", ומחלץ את נתוני הרשומות העסקיות שמופיעים — שמות, כתובות, מספרי טלפון, אתרים, דירוגים, מספר ביקורות, קטגוריות, שעות פעילות, ולפעמים גם קואורדינטות של קווי רוחב/אורך.

GitHub הוא הבית המועדף לכלים האלה כי הקוד חינמי, פתוח, ו(תיאורטית) ניתן להתאמה אישית. אפשר ליצור fork למאגר, לכוונן את פרמטרי החיפוש, להוסיף לוגיקת proxy משלכם, ולייצא לכל פורמט שנדרש לכם. Gemini_Generated_Image_i0rxr6i0rxr6i0rx_compressed.webp

שדות הנתונים הטיפוסיים שאנשים רוצים לחלץ נראים כך:

שדהעד כמה הוא נפוץ בין המאגרים
שם העסקכמעט אוניברסלי
כתובתכמעט אוניברסלי
מספר טלפוןכמעט אוניברסלי
כתובת URL של האתרכמעט אוניברסלי
דירוג כוכביםכמעט אוניברסלי
מספר ביקורותנפוץ מאוד
קטגוריה / סוגנפוץ
שעות פתיחהנפוץ
קו רוחב / אורךנפוץ במאגרים חזקים יותר
אימייל / קישורים לרשתות חברתיותרק כשה־scraper גם מבקר באתר העסק
טקסט מלא של ביקורותנפוץ ב־review scrapers ייעודיים, פחות אמין ב־scrapers בכמות גדולה

מי משתמש בזה? צוותי מכירות שבונים רשימות לידים לפניות יזומות. אנשי נדל"ן שממפים שווקים מקומיים. צוותי ecommerce שעושים ניתוח מתחרים. אנשי שיווק שמבצעים ביקורות SEO מקומיות. המכנה המשותף: כולם צריכים נתונים מקומיים מובנים, והם מעדיפים לא להעתיק ולהדביק אותם מהדפדפן רישום אחד בכל פעם.

למה צוותי מכירות ותפעול מחפשים מאגרי Google Maps Scraper ב־GitHub

Google Maps אטרקטיבי מסיבה פשוטה: שם באמת יושבים נתוני העסקים המקומיים. לא באיזה מדריך נישתי. לא מאחורי חומת תשלום. ממש בתוך תוצאות החיפוש.

הערך העסקי מתחלק לשלוש קטגוריות עיקריות.

יצירת לידים ו־Prospecting

זה העיקר. מייסד שבנה Google Maps scraper עבור פרילנסרים וסוכנויות בצורה חדה: למצוא לידים בערים ובנישות ספציפיות, לאסוף פרטי קשר לפניות קרות, ולייצר CSVים עם שם, כתובת, טלפון, אתר, דירוגים, מספר ביקורות, קטגוריה, שעות, אימיילים וידיות חברתיות. אחד המאגרים הפעילים ביותר (gosom/google-maps-scraper) ממש אומר למשתמשים שאפשר לבקש מהסוכן שלו זה לא מקרה שימוש של חובבנים — זו צנרת מכירות.

מחקר שוק וניתוח מתחרים

צוותי תפעול ואסטרטגיה משתמשים בנתונים שחולצו מ־Maps כדי לספור מתחרים לפי שכונה, לנתח סנטימנט של ביקורות, ולאתר פערים. מומחה SEO מקומי בתחום נישה אחת בלבד, באמצעות חילוץ נתונים ציבוריים מ־Google Maps. ניתוח כזה כמעט בלתי אפשרי לבצע ידנית בקנה מידה גדול.

ביקורות SEO מקומיות ובניית מדריכים

משווקים מגרדים את Google Maps כדי לבצע ביקורת נוכחות בחיפוש מקומי, לבדוק עקביות NAP ‏(Name, Address, Phone), ולבנות אתרי מדריכים. משתמש אחד ל־WordPress באמצעות WP All Import.

החישוב האנושי שהופך Scraping למפתה

איסוף ידני לא נהיה חינמי רק כי משתמשים בחלון דפדפן. Upwork מציגה לעוזרים וירטואליים להזנת נתונים מנהלתית עלות של . אם בן אדם משקיע דקה אחת לכל עסק כדי ללכוד את הבסיס, 1,000 עסקים צורכים בערך 16.7 שעות — כלומר בערך $200–$334 בעלות עבודה עוד לפני QA. בשתי דקות לכל עסק, אותה רשימה עולה $400–$668. זהו מדד הייחוס האמיתי שכל "free GitHub scraper" מתחרה מולו.

Google Places API מול מאגרי GitHub Scraper מול כלים ללא קוד: עץ החלטה ל־2026

עדיף לבחור את המסלול לפני שמשכפלים משהו. נפח, תקציב, מיומנות טכנית וסובלנות לתחזוקה — כל אלה חשובים כאן.

קריטריוןGoogle Places APIGitHub Scraperכלי ללא קוד (למשל, Thunderbit)
עלות ל־1,000 חיפושים$7–32 (קריאות Pro נפוצות)תוכנה חינמית + עלויות proxy + זמןשכבה חינמית, ואז מבוסס קרדיטים
שדות נתוניםמובנים, מוגבלים לסכמת ה־APIגמיש, תלוי במאגרמוגדר ב־AI לכל אתר
גישה לביקורותמקסימום 5 ביקורות לכל מקוםמלאות (אם ה־scraper תומך בכך)תלוי בכלי
הגבלות קצבמכסות חינמיות לכל SKU, ואז בתשלוםמנוהל עצמאית (תלוי proxies)מנוהל על ידי הספק
בהירות משפטיתרישוי מפורשאזור אפור (סיכון מול תנאי השימוש)הספק מטפל בתאימות תפעולית
תחזוקהמתוחזק על ידי Googleאתם מתחזקיםהספק מתחזק
מורכבות התקנהמפתח API + קודPython + תלותים + proxiesהתקנת תוסף, לחיצה על scrape

מתי Google Places API הגיוני

עבור חיפושים בנפח קטן עד בינוני, כשצריך רישוי רשמי וחיוב צפוי, ה־API הוא הבחירה הברורה. שינוי התמחור של Google ממרץ 2025 במכסי חינם לפי SKU: לרבים ממסלולי Essentials, ‏5,000 ל־Pro, ו־1,000 ל־Enterprise. לאחר מכן, Text Search Pro עולה , ו־Place Details Enterprise + Atmosphere עולה $5 לכל 1,000.

המגבלה הגדולה ביותר: ביקורות. ה־API מחזיר . אם אתם צריכים את כל מאגר הביקורות, ה־API לא יספיק.

מתי Google Maps Scraper מ־GitHub הגיוני

גילוי המוני לפי מילות מפתח + גיאוגרפיה, נתונים גלויים בדפדפן מעבר לשדות של ה־API, טקסט מלא של ביקורות, לוגיקת ניתוח מותאמת אישית — אם אתם צריכים אחד מאלה ויש לכם את מיומנויות Python/Docker לתחזק scraper, מאגרי GitHub הם הבחירה הנכונה. החיסרון הוא שה"חינמי" מעביר את החשבון לזמן, ל־proxies, לניסיונות חוזרים ולשבירות. עלות proxies לבדה יכולה להצטבר: , , ו־.

מתי כלי ללא קוד כמו Thunderbit הגיוני

לא מצוות טכני? העדיפות היא להכניס נתונים ל־Sheets, Airtable, Notion או CSV במהירות? כלי ללא קוד חוסך את כל ההקמה של Python/Docker/proxy. עם , מתקינים את תוסף Chrome, פותחים את Google Maps, לוחצים על "AI Suggest Fields", ואז על "Scrape" — ומייצאים ל־. מצב הגריפה בענן מטפל אוטומטית בהגנות נגד בוטים, בלי הגדרת proxy.

מסלול ההחלטה הפשוט: אם צריך פחות מ־500 עסקים ויש תקציב → API. אם צריך אלפים ויש מיומנות Python → מאגר GitHub. אם צריך נתונים מהר בלי הקמה טכנית → כלי ללא קוד.

בדיקת רעננות 2026: אילו מאגרי Google Maps Scraper ב־GitHub באמת עובדים היום?

זה החלק שהייתי רוצה שהיה קיים כשהתחלתי את המחקר. רוב המאמרים על "best Google Maps scraper" פשוט מציגים מאגרים עם תיאורים בני שורה אחת ומספרי כוכבים. אף אחד מהם לא אומר לכם אם הכלי באמת מחזיר נתונים החודש.

איך לדעת אם מאגר Google Maps Scraper ב־GitHub עדיין חי

לפני שאתם משכפלים משהו, עברו על הרשימה הזו:

  • דחיפת קוד עדכנית: חפשו commit אמיתי ב־3–6 החודשים האחרונים (לא רק תגובות ב־issue).
  • בריאות issues: קראו את 3 ה־issues העדכניים ביותר. האם הם עוסקים בכשלים בליבה (שדות ריקים, שגיאות selectors, קריסות דפדפן) או בבקשות תכונה?
  • איכות ה־README: האם הוא מתעד את סטאק הדפדפן הנוכחי, הגדרת Docker ותצורת proxies?
  • מילות אזהרה ב־issues: חפשו "search box," "reviews_count = 0," "driver," "Target page," "selector," "empty."
  • פעילות fork ו־PR: forks פעילים ו־PRs שמוזגו מרמזים על קהילה חיה.

אין פעילות קוד עדכנית, באגים לא פתורים בליבה, ואין הנחיות לגבי proxy או תחזוקת דפדפן? כנראה שהמאגר לא חי מספיק לשימוש עסקי — גם אם מספר הכוכבים נראה מרשים.

סקירת מאגרי Google Maps Scraper המובילים ב־GitHub

github-google-maps-scrapers-evaluation.webp

הערכתי את המאגרים עם מספר הכוכבים הגבוה ביותר לפי המתודולוגיה שלמעלה. הנה טבלת הסיכום, ואחריה הערות פרטניות.

מאגרכוכביםדחיפה אחרונהעובד ב־2026?מתמודד עם שינויים ב־UI?תמיכה ב־proxyסטאק
gosom/google-maps-scraper3.7k2026-04-19⚠️ החילוץ המרכזי חי; שדות ביקורות לא יציביםתחזוקה פעילהכן, מפורשGo + Playwright
omkarcloud/google-maps-scraper2.6k2026-04-10⚠️ אפליקציה פעילה, אבל יש בעיות קריסה/תמיכהמתוחזק על ידי הספקלא מתועד בבירוראפליקציית Desktop / בינארי
gaspa93/googlemaps-scraper4982026-03-26⚠️ נישת review-scraper צרהיש מעט ראיותאין סיפור proxy חזקPython
conor-is-my-name/google-maps-scraper2842026-04-14⚠️ זרימת Docker מבטיחה, אבל שבירת selectors במרץיש כמה ראיות לתיקוניםDockerized, proxy לא ברורPython + Docker
Zubdata/Google-Maps-Scraper1202025-01-19❌ יותר מדי בעיות ישנות/שדות ריקיםמעט ראיותלא מודגשPython GUI
patxijuaristi/google_maps_scraper1132025-02-24❌ אות חלש, issue ישן על Chrome-driverמעט ראיותאין ראיות חזקותPython

gosom/google-maps-scraper

כרגע זו האפשרות הכללית החזקה ביותר בקוד פתוח. ה־README בוגר בצורה יוצאת דופן: CLI, ממשק וובי, REST API, הוראות Docker, הגדרת proxy, מצב grid/bounding-box, חילוץ אימיילים, ומספר יעדי ייצוא. הוא טוען ל־ ומתעד במפורש proxies כי "for larger scraping jobs, proxies help avoid rate limiting."

החיסרון הוא לא נטישה — אלא סטייה של נכונות בשדות קצה. issues עדכניים מ־2026 מציגים , , ו־. לכן הוא אמין לחילוץ רשומות עסקיות, אבל פחות יציב כשמדובר בנתוני ביקורות ושעות עשירים — עד שיגיעו התיקונים.

omkarcloud/google-maps-scraper

בולט מאוד בזכות מספר הכוכבים והוותק, אבל הוא מרגיש פחות כמו OSS שקוף ויותר כמו מוצר extractor ארוז — ערוצי תמיכה, מתקיני Desktop, תוספי enrichment. משתמש אחד באפריל 2026 אמר שהאפליקציה עלתה ואז הציפה את הטרמינל בשגיאות עד שנתקעה. issue פתוח אחר מתלונן שהכלי הוא לא מת, אבל גם לא התשובה הנקייה ביותר לקוראים שרוצים OSS שניתן לבדוק ושאפשר לתקן בעצמם בביטחון.

gaspa93/googlemaps-scraper

זה לא scraper כללי ל־lead gen בחיפוש המוני. זהו ממוקד שמתחיל מ־URL ספציפי של ביקורות POI ב־Google Maps ומחזיר ביקורות עדכניות, עם אפשרויות לחילוץ מטא־דאטה ולמיון ביקורות. הטווח הצר הזה הוא דווקא יתרון עבור תהליכי עבודה מסוימים — אבל הוא לא פותר את בעיית גילוי השאילתה המרכזית שרוב משתמשי העסק מחפשים.

conor-is-my-name/google-maps-scraper

הכוונה נכונה לצוותי תפעול מודרניים: התקנה מבוססת Docker, API ב־JSON, שדות ידידותיים לעסק, ונראות קהילתית ב־. אבל issue ממרץ 2026 הוא דוגמה מושלמת לכך שהקטגוריה הזו שבירה: משתמש עדכן את הקונטיינר והפלט אמר שה־scraper זה כשל בזרימה המרכזית, לא תקלה קוסמטית.

Zubdata/Google-Maps-Scraper

על הנייר, סט השדות רחב: אימייל, ביקורות, דירוגים, כתובת, אתר, טלפון, קטגוריה, שעות. בפועל, משטח ה־issues הציבורי מספר סיפור אחר: משתמשים מדווחים על , , ו־. בשילוב עם היסטוריית דחיפות ישנה יותר, קשה להמליץ עליו לשימוש ב־2026.

patxijuaristi/google_maps_scraper

קל למצוא אותו בחיפוש GitHub, אבל האות הציבורי החזק ביותר הוא ולא תחזוקה פעילה. הוא נכנס למאמר בעיקר כדוגמה למה הכוונה ב"נראה חי בחיפוש אבל מסוכן בפועל".

צעד אחר צעד: איך להקים Google Maps Scraper מ־GitHub

החלטתם שמאגר GitHub הוא המסלול הנכון? כך בעצם נראית ההקמה. אני שומר את זה כללי ולא ספציפי למאגר — השלבים דומים מאוד בין האפשרויות הפעילות.

שלב 1: שכפלו את המאגר והתקינו תלויות

המסלול הנפוץ:

  1. git clone של המאגר
  2. יצירת סביבת Python וירטואלית (או משיכת image של Docker)
  3. התקנת תלויות באמצעות pip install -r requirements.txt או docker-compose up
  4. לפעמים התקנת runtime של דפדפן (Chromium ל־Playwright, ‏ChromeDriver ל־Selenium)

מאגרים שמבוססים קודם כול על Docker כמו ו־ מפחיתים כאבי תלויות אבל לא מבטלים אותם — עדיין תצטרכו Docker רץ ומספיק מקום בדיסק ל־browser images.

שלב 2: הגדירו את פרמטרי החיפוש

רוב ה־scrapers הכלליים רוצים:

  • מילת מפתח + מיקום (למשל, "plumbers in Austin TX")
  • מגבלת תוצאות (כמה רשומות לחלץ)
  • פורמט פלט (CSV, JSON, מסד נתונים)
  • לפעמים גם bounding boxes גיאוגרפיים או רדיוס לגילוי מבוסס רשת

המאגרים החזקים יותר חושפים את אלה כ־CLI flags או כגופי בקשת JSON. מאגרים ישנים יותר עשויים לדרוש עריכת קובץ Python ישירות.

שלב 3: הגדירו Proxies (אם צריך)

לכל דבר מעבר להרצת בדיקה קטנה? תרצו proxies. ומציג במפורש proxies כפתרון הסטנדרטי למשימות גדולות יותר. בלעדיהם, צפו ל־CAPTCHA או לחסימות IP אחרי כמה עשרות בקשות.

שלב 4: הריצו את ה־scraper וייצאו את הנתונים

הפעילו את הסקריפט, צפו בדפדפן שעובר על כרטיסי התוצאות, והמתינו לפלט CSV או JSON. המסלול המוצלח לוקח דקות. המסלול הבעייתי — שנפוץ יותר ממה שמישהו מודה — כולל:

  • הדפדפן נסגר במפתיע
  • חוסר התאמה בגרסת Chrome driver
  • כשל ב־selector / search box
  • מספרי ביקורות או שעות שחוזרים ריקים

כל ארבעת הדפוסים מופיעים ב־ .

שלב 5: טפלו בשגיאות ובשבירות

כאשר ה־scraper מחזיר תוצאות ריקות או שגיאות:

  1. בדקו ב־GitHub Issues של המאגר אם יש דיווחים דומים
  2. חפשו שינויים ב־UI של Google Maps (selectors חדשים, מבנה עמוד שונה)
  3. עדכנו את המאגר ל־commit האחרון
  4. אם המתחזק לא תיקן, בדקו forks לאיתור תיקונים קהילתיים
  5. שקלו האם הזמן שתשקיעו בדיבוג מצדיק זאת מול מעבר לכלי אחר

זמן הקמה ריאלי בפעם הראשונה: עבור מי שמרגיש בנוח עם טרמינל אבל עדיין לא מחזיק סטאפ עובד של Playwright/Docker/proxy, טווח ריאלי עד לגריפה מוצלחת ראשונה הוא 30–90 דקות. לא חמש דקות.

איך להימנע מחסימות וממגבלות קצב בעת גריפת Google Maps

אין threshold ציבורי של Google Maps שאומר "יחסמו אותך אחרי X בקשות". Google שומרת את זה מעורפל בכוונה. חלק מהמשתמשים מדווחים על CAPTCHA אחרי בערך בהתקנות Playwright מבוססות שרת. משתמש אחר טען ל־ עבור scraper ל־Maps שנבנה בחברה. הספים אינם גבוהים או נמוכים. הם לא יציבים ותלויי הקשר.

הנה טבלת אסטרטגיות מעשית:

אסטרטגיהקושייעילותעלות
השהיות אקראיות (2–5 שניות בין בקשות)קלבינוניתחינם
הורדת concurrency (פחות סשנים מקבילים)קלבינוניתחינם
סיבוב Residential proxiesבינוניגבוהה$1–6/GB
Datacenter proxies (ליעדים קלים)בינוניבינונית$0.02–0.6/GB
אקראיות של טביעת אצבע בדפדפן ללא ממשקקשהגבוההחינם
התמדה של הדפדפן / סשנים מחוממיםבינוניבינוניתחינם
גריפה מבוססת ענן (העברת הבעיה החוצה)קלגבוההמשתנה

הוסיפו השהיות אקראיות בין בקשות

מרווחים קבועים של שנייה אחת הם דגל אדום. השתמשו ב־jitter אקראי — 2 עד 5 שניות בין פעולות, עם השהיות ארוכות יותר מדי פעם. זה הדבר הכי פשוט שאפשר לעשות, והוא לא עולה כלום.

סובבו Proxies (Residential מול Datacenter)

Residential proxies יעילים יותר כי הם נראים כמו משתמשים אמיתיים, אבל הם יקרים יותר. מחירים עדכניים: , , . Datacenter proxies עובדים לגריפה קלה יותר, אבל מזוהים מהר יותר במוצרים של Google.

אקראו את טביעת האצבע של הדפדפן

עבור scrapers בדפדפן ללא ממשק: סובבו user agents, גדלי viewport, ואותות טביעת אצבע אחרים. הגדרות ברירת מחדל של Playwright/Puppeteer ניתנות לזיהוי בקלות. זה קשה יותר ליישום, אבל חינמי ויעיל מאוד.

השתמשו בגריפה מבוססת ענן כדי להוריד את הבעיה מכם

כלים כמו מטפלים אוטומטית בהגנות נגד בוטים, בסיבוב IP ובמגבלות קצב דרך תשתית גריפה בענן. Thunderbit במצב ענן — בלי צורך בהגדרת proxy או בתצורת השהיות. לצוותים שלא רוצים להפוך למהנדסי anti-bot במשרה חלקית, זה המסלול הפרקטי ביותר.

איך נראות בפועל מגבלות הקצב של Google

סימנים לכך שאתם תחת rate limiting:

  • CAPTCHA מופיע באמצע הגריפה
  • קבוצות תוצאות ריקות אחרי שאילתות שהצליחו קודם
  • חסימות IP זמניות (בדרך כלל 1–24 שעות)
  • טעינת עמודים ירודה (איטית יותר, תוכן חלקי)

ההתאוששות: להפסיק לגרוף, להחליף IP, להמתין 15–60 דקות, ואז להמשיך ב־concurrency נמוך יותר. אם אתם נתקלים במגבלות באופן קבוע, ההתקנה שלכם צריכה proxies או גישה שונה מהיסוד.

המוצא ללא קוד: מתי Google Maps Scraper מ־GitHub לא שווה את הזמן שלכם

כ־90% ממאמרי גריפת Google Maps מניחים שאתם יודעים Python. אבל לחלק גדול מהקהל — בעלי סוכנויות, נציגי מכירות, צוותי SEO מקומי, חוקרים — פשוט צריכים שורות בגיליון. לא פרויקט אוטומציית דפדפן. אם זה אתם, החלק הזה מדבר בכנות על הפשרות.

העלות האמיתית של GitHub scrapers "חינמיים"

| גורם | גישת מאגר GitHub | חלופה ללא קוד (למשל, Thunderbit) | |---|---|---|---| | זמן הקמה | 30–90 דק' (Python/Docker/proxies) | כ־2 דקות (תוסף דפדפן) | | תחזוקה | ידנית (אתם מתקנים שבירות) | אוטומטית (הספק מתחזק) | | התאמה אישית | גבוהה (גישה מלאה לקוד) | בינונית (שדות מוגדרי AI) | | עלות | תוכנה חינמית, אבל זמן + proxies | שכבה חינמית זמינה, ואז מבוסס קרדיטים | | קנה מידה | תלוי בתשתית שלכם | קנה מידה מבוסס ענן |

"חינם" ב־GitHub scrapers מעביר את החשבון לזמן. אם אתם מעריכים את הזמן שלכם ב־$50 לשעה ומבלים שעתיים בהקמה + שעה בדיבוג + חצי שעה בתצורת proxy, זה $175 לפני שגרדתם אפילו רישום אחד. הוסיפו עלויות proxy ותחזוקה מתמשכת כש־Google משנה את ה־UI שלה, והאפשרות ה"חינמית" מתחילה להיראות יקרה.

איך Thunderbit מפשט את גריפת Google Maps

כך נראית הזרימה בפועל עם :

  1. מתקינים את
  2. נכנסים ל־Google Maps ומבצעים את החיפוש
  3. לוחצים על "AI Suggest Fields" — ה־AI של Thunderbit קורא את העמוד ומציע עמודות (שם העסק, כתובת, טלפון, דירוג, אתר וכו')
  4. לוחצים על "Scrape" והנתונים מובנים אוטומטית
  5. משתמשים ב־subpage scraping כדי לבקר באתר של כל עסק מתוך ה־URLs שנגרדו ולחלץ מידע קשר נוסף (אימיילים, מספרי טלפון) — תוך אוטומציה של מה שמשתמשי GitHub repos עושים ידנית
  6. מייצאים ל־ — בלי חומת תשלום על הייצוא

בלי Python. בלי Docker. בלי proxies. בלי תחזוקה. עבור קהל המכירות והשיווק שעושה יצירת לידים, זה מבטל את כל עול ההקמה שמאגרי GitHub דורשים.

הקשר תמחור: Thunderbit משתמש במודל קרדיטים שבו . השכבה החינמית מכסה 6 עמודים בחודש, הניסיון החינמי מכסה 10 עמודים, ותוכנית הסטארטר היא .

אחרי ה־scrape: ניקוי והעשרה של נתוני Google Maps שלכם

רוב המדריכים עוצרים בחילוץ גולמי. נתונים גולמיים הם לא רשימת לידים. משתמשים בפורומים מדווחים לעיתים קרובות על ושואלים "How do you handle duplicates with this setup?" הנה מה שקורה אחרי הגריפה.

הסרת כפילויות מהתוצאות

כפילויות נכנסות דרך חפיפה בין עמודי pagination, חיפושים חוזרים באזורים חופפים, אסטרטגיות grid/bounding-box שמכסות את אותם עסקים, ועסקים עם כמה רשומות.

סדר מומלץ להסרת כפילויות:

  1. התאמה על בסיס place_id אם ה־scraper חושף אותו (הכי אמין)
  2. התאמה מדויקת על בסיס שם עסק מנורמל + כתובת
  3. התאמה מטושטשת על שם + כתובת, מאומתת באמצעות טלפון או אתר

נוסחאות פשוטות ב־Excel/Sheets (COUNTIF, Remove Duplicates) מטפלות ברוב המקרים. עבור מערכי נתונים גדולים יותר, סקריפט Python קצר להסרת כפילויות עם pandas עובד היטב.

נירמול של מספרי טלפון וכתובות

מספרי טלפון שחולצו מגיעים בכל פורמט אפשרי: (555) 123-4567, 555-123-4567, +15551234567, 5551234567. לצורך ייבוא ל־CRM, נירמלו הכול ל־פורמט E.164 — כלומר + קוד מדינה + מספר לאומי, למשל +15551234567.

בזמן הגריפה — עוד שלב ניקוי אחד פחות.

לכתובות, תקננו לפורמט עקבי: רחוב, עיר, מדינה, מיקוד. הסירו רווחים מיותרים, תקנו חוסר עקביות בקיצורים (St מול Street), ואמתו מול שירות geocoding אם הדיוק חשוב.

העשרה עם אימיילים, אתרים ופרופילים חברתיים

רשומות Google Maps כמעט תמיד כוללות כתובת URL של אתר. כמעט אף פעם לא כתובת אימייל ישירה. הדפוס המנצח:

  1. גריפה מ־Maps לגילוי העסק (שם, כתובת, טלפון, URL של אתר)
  2. ביקור באתר של כל עסק כדי לחלץ כתובות אימייל, קישורים חברתיים ופרטי קשר נוספים

כאן המאגרים הטובים ביותר ב־GitHub וכלי ללא קוד נפגשים:

  • באמצעות ביקור באתרי העסקים
  • יכולה לבקר באתר של כל עסק מתוך ה־URLs שנגרדו ולחלץ כתובות אימייל ומספרי טלפון — והכול מצורף לטבלה המקורית שלכם

עבור משתמשי GitHub repo בלי enrichment מובנה, זה אומר לכתוב scraper שני או לבקר ידנית בכל אתר. Thunderbit מאחד את שני השלבים לזרימת עבודה אחת.

ייצוא ל־CRM או לכלי workflow

יעדי הייצוא הפרקטיים ביותר:

  • Google Sheets לניקוי ולשיתוף שיתופיים
  • Airtable למסדי נתונים מובנים עם סינון ותצוגות
  • Notion למסדי נתונים תפעוליים קלים
  • CSV/JSON לייבוא ל־CRM או לאוטומציה המשכית

Thunderbit תומך ב־. רוב מאגרי GitHub מייצאים רק ל־CSV או JSON — תצטרכו לטפל באינטגרציה ל־CRM בנפרד. אם אתם מחפשים דרכים נוספות להכניס נתונים שנגרדו לגיליונות, עיינו במדריך שלנו על .

מאגרי Google Maps Scraper ב־GitHub: ההשוואה המלאה זה לצד זה

הנה טבלת הסיכום שנוח לשמור, המכסה את כל הגישות:

כלי / מאגרסוגמודל עלותזמן הקמהניהול proxyתחזוקהאפשרויות ייצואעובד ב־2026?
Google Places APIAPI רשמי$7–32 / 1K קריאות (Pro)נמוךלא נדרשנמוךJSON / אינטגרציית אפליקציה
gosom/google-maps-scraperGitHub OSSחינם + proxies + זמןבינוניכן, מתועדגבוהCSV, JSON, DB, API⚠️
omkarcloud/google-maps-scraperGitHub ארוזחינם-בערך, מוצריבינונילא ברורבינוני-גבוהפלט של אפליקציה⚠️
gaspa93/googlemaps-scraperGitHub review scraperחינם + זמןבינונימוגבלבינוני-גבוהCSV⚠️ (נישתי)
conor-is-my-name/google-maps-scraperGitHub Docker APIחינם + זמןבינוניאפשריגבוהJSON / שירות Docker⚠️
Zubdata/Google-Maps-Scraperאפליקציית GUI ב־GitHubחינם + זמןבינונימוגבלגבוהפלט של אפליקציה
Thunderbitתוסף ללא קודקרדיטים / שורותנמוךמופשט (ענן)נמוך-בינוניSheets, Excel, Airtable, Notion, CSV, JSON

להקשר נוסף על בחירה בין גישות גריפה, אולי תמצאו גם את הסקירה שלנו על , או את ההשוואה בין .

שיקולים משפטיים ותנאי שימוש

קטע קצר, אבל חשוב.

התנאים העדכניים של Google Maps Platform מפורשים: לקוחות אינם רשאים כולל העתקה ושמירה של שמות עסקים, כתובות או ביקורות משתמשים מחוץ לשימוש המותר בשירות. תנאי השימוש הספציפיים של השירותים של Google מאפשרים גם שמירה במטמון בהיקף מוגבל עבור חלק מה־APIs, בדרך כלל .

ההיררכיה המשפטית ברורה:

  • שימוש ב־API הוא עם הקרקע החוזית הברורה ביותר
  • scrapers מ־GitHub פועלים במרחב הרבה יותר מעורפל
  • כלים ללא קוד מפחיתים את העומס התפעולי, אבל לא מבטלים את חובות הציות שלכם

התייעצו עם היועץ המשפטי שלכם לגבי המקרה הספציפי שלכם. למבט עמוק יותר על הנוף המשפטי, כיסינו בנפרד את .

מסקנות מרכזיות: איך לבחור את הגישה הנכונה ל־Google Maps Scraper ב־2026

אחרי שחפרתי במאגרים, issues, פורומים ודפי תמחור, הנה איפה הדברים עומדים:

  1. בדקו תמיד את רעננות המאגר לפני שמשקיעים זמן בהקמה. מספר כוכבים הוא לא תחליף ל"עובד היום". קראו את שלושת ה־issues העדכניים ביותר. חפשו commits מה־3–6 החודשים האחרונים.

  2. האפשרות הטובה ביותר בקוד פתוח כיום היא gosom/google-maps-scraper — אבל גם היא כבר מציגה רגרסיות שדות טריות ב־2026. התייחסו אליה כמערכת חיה שדורשת ניטור, לא ככלי שמגדירים ושוכחים.

  3. Google Places API הוא התשובה הנכונה ליציבות ולבהירות משפטית — אבל הוא מוגבל (מקסימום 5 ביקורות, תמחור לפי קריאה) ולא פותר היטב גילוי המוני.

  4. לצוותים לא טכניים, כלים ללא קוד כמו הם האלטרנטיבה הפרקטית. הפער בין הקמה לנתונים ראשונים הוא דקות במקום שעות, ואתם לא מתחייבים להפוך למתחזקי scraper במשרה חלקית.

  5. נתונים גולמיים הם רק חצי מהעבודה. הקצו זמן להסרת כפילויות, נירמול מספרי טלפון, העשרת אימיילים וייצוא ל־CRM. הכלים שמטפלים בשלבים האלה אוטומטית (כמו subpage scraping של Thunderbit ונירמול E.164) חוסכים יותר זמן ממה שרוב האנשים חושבים.

  6. "Free scraper" עדיף להבין כתוכנה עם תחזוקה לא משולמת צמודה אליה. זה בסדר אם יש לכם את המיומנות ואתם נהנים מהעבודה. זו עסקה גרועה אם אתם נציגי מכירות שצריכים 500 לידים של רופאי שיניים בפיניקס עד יום שישי.

אם אתם רוצים לחקור אפשרויות נוספות לחילוץ נתוני עסקים, עיינו גם במדריכים שלנו על , , ו. אפשר גם לצפות במדריכים בערוץ ה־.

שאלות נפוצות

האם שימוש ב־Google Maps scraper מ־GitHub הוא חינמי?

התוכנה חינמית. העבודה לא. תשקיעו 30–90 דקות בהקמה, זמן שוטף בפתרון שבירות, ולעיתים קרובות $10–100+ לחודש בעלויות proxy לכל נפח רציני. אם לזמן שלכם יש ערך, "חינם" הוא כינוי מטעה.

האם צריך מיומנות Python כדי להשתמש ב־Google Maps scraper מ־GitHub?

רוב המאגרים הפופולריים דורשים ידע בסיסי ב־Python ובשורת הפקודה. מאגרים שמבוססים קודם כול על Docker מפחיתים את העומס אבל לא מבטלים אותו — עדיין צריך לדבג בעיות קונטיינר, להגדיר פרמטרי חיפוש, ולטפל בהגדרת proxy. למשתמשים לא טכניים, כלים ללא קוד כמו מציעים חלופה בלחיצה אחת-שתיים בלי צורך בקוד.

כל כמה זמן מאגרי Google Maps scraper ב־GitHub נשברים?

אין לוח זמנים קבוע, אבל היסטוריית ה־issues הנוכחית ב־GitHub מראה כשלים בליבה ורגרסיות בשדות שמופיעים במחזור של שבועות עד חודשים. Google מעדכנת את ממשק Maps שלה באופן קבוע, מה שיכול לשבור selectors ולוגיקת parsing בין לילה. מאגרים פעילים מתקנים את זה במהירות; מאגרים נטושים נשארים שבורים לצמיתות.

האם אפשר לגרוף ביקורות Google Maps עם scraper מ־GitHub?

חלק מהמאגרים תומכים בחילוץ ביקורות מלא (gaspa93/googlemaps-scraper תוכנן במיוחד לזה), בעוד שאחרים מושכים רק נתוני סיכום כמו דירוג ומספר ביקורות. ביקורות הן גם אחד מקבוצות השדות הראשונות שסוטות כש־Google משנה את התנהגות העמוד — לכן גם מאגרים שתומכים בביקורות עלולים להחזיר נתונים חלקיים אחרי עדכון UI.

מהי החלופה הטובה ביותר אם אני לא רוצה להשתמש ב־GitHub scraper?

שני מסלולים עיקריים: Google Places API לגישה רשמית ומובנית (עם מגבלות עלות ושדות), או כלי ללא קוד כמו לחילוץ מהיר, מבוסס AI, בלי צורך בקוד. ה־API הכי טוב למפתחים שצריכים ודאות תאימות. Thunderbit הכי טוב למשתמשים עסקיים שצריכים נתונים בגיליון במהירות.

למדו עוד

תוכן עניינים

נסה את Thunderbit

חלץ לידים ונתונים אחרים ב-2 קליקים בלבד. מופעל על ידי AI.

קבל את Thunderbit זה בחינם
חלץ נתונים באמצעות AI
העבר בקלות נתונים ל-Google Sheets, Airtable או Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week