يوجد ما يقارب على GitHub يطابق عبارة "google maps scraper". ومعظمها لا يعمل.
قد يبدو هذا توصيفًا مبالغًا فيه، لكن إذا قضيت وقتًا في استنساخ المستودعات، ومحاولة حل تبعيات Playwright، ومشاهدة أداة الاستخراج وهي تُرجع ملفات CSV فارغة عند الثانية صباحًا، فأنت تعرف هذا الشعور جيدًا. لدى Google Maps أكثر من حول العالم — وهي من أغنى قواعد بيانات الأعمال المحلية على الكوكب. ومن الطبيعي أن يرغب الجميع، من مندوبي المبيعات إلى أصحاب الوكالات، في استخراج هذه البيانات. المشكلة أن Google تغيّر واجهة Maps بوتيرة تتراوح بين أسابيع وأشهر، وأي تغيير قد يكسر بصمت الأداة التي أمضيت ساعة كاملة في إعدادها. كما قال أحد مستخدمي GitHub في قضية خلال مارس 2026: الأداة هذه ليست حالة حافة نادرة، بل فشل في المسار الأساسي نفسه. لقد كنت أتابع هذه المستودعات عن كثب هذا العام، والفجوة بين "يبدو نشطًا على GitHub" و"يُرجع بيانات فعلًا اليوم" أكبر مما يتوقعه معظم الناس. هذا الدليل هو محاولتي الصادقة لفرز الإشارة من الضجيج — مع تغطية المستودعات التي تعمل، والتي تتعطل، ومتى يجب تجاوز GitHub بالكامل، وما الذي تفعله بعد استخراج البيانات.
ما هو Google Maps Scraper على GitHub، ولماذا يستخدمه الناس؟
عادةً ما يكون Google Maps scraper على GitHub عبارة عن سكربت Python أو Go (وأحيانًا يكون ملفوفًا داخل Docker) يفتح Google Maps في متصفح بدون واجهة، ويشغّل استعلام بحث مثل "dentists in Chicago"، ثم يستخرج بيانات القائمة التجارية الظاهرة — الأسماء، العناوين، أرقام الهواتف، المواقع الإلكترونية، التقييمات، عدد المراجعات، الفئات، ساعات العمل، وأحيانًا إحداثيات خط العرض/الطول.
يُعد GitHub المكان الافتراضي لهذه الأدوات لأن الشيفرة مجانية ومفتوحة المصدر وقابلة للتخصيص نظريًا. يمكنك عمل fork لمستودع، تعديل معلمات البحث، إضافة منطق البروكسي الخاص بك، والتصدير إلى أي صيغة تحتاجها.

الحقول النموذجية التي يريد الناس سحبها تبدو كالتالي:
| الحقل | مدى شيوعه عبر المستودعات |
|---|---|
| اسم النشاط التجاري | شبه شامل |
| العنوان | شبه شامل |
| رقم الهاتف | شبه شامل |
| رابط الموقع الإلكتروني | شبه شامل |
| التقييم بالنجوم | شبه شامل |
| عدد المراجعات | شائع جدًا |
| الفئة / النوع | شائع |
| ساعات العمل | شائع |
| خط العرض / خط الطول | شائع في المستودعات الأقوى |
| البريد الإلكتروني / روابط التواصل الاجتماعي | فقط عندما تزور الأداة موقع النشاط التجاري أيضًا |
| النص الكامل للمراجعات | شائع في أدوات استخراج المراجعات المتخصصة، وأقل موثوقية في أدوات الاستخراج الجماعي |
من يستخدم هذه الأدوات؟ فرق المبيعات التي تبني قوائم عملاء محتملين للتواصل الخارجي، ومتخصصو العقارات الذين يرسمون خرائط للأسواق المحلية، وفرق التجارة الإلكترونية التي تجري تحليلًا للمنافسين، والمسوقون الذين يجرون تدقيقات SEO محلية. القاسم المشترك: جميعهم يحتاجون إلى بيانات أعمال محلية منظمة، ولا يريدون نسخها ولصقها من المتصفح قائمة بعد أخرى.
لماذا تبحث فرق المبيعات والعمليات عن مستودعات Google Maps Scraper على GitHub؟
Google Maps جذاب لسبب بسيط: لأنه المكان الذي تعيش فيه معلومات الأعمال المحلية فعلًا. ليست في دليل متخصص، وليست خلف جدار دفع، بل موجودة مباشرة في نتائج البحث.
تنقسم القيمة التجارية إلى ثلاث فئات رئيسية.
توليد العملاء المحتملين والاستكشاف البيعي
هذه هي الحالة الأهم. وصف مؤسس يبني Google Maps scraper للمستقلين والوكالات : ابحث عن العملاء المحتملين في مدن ومجالات محددة، واجمع بيانات الاتصال للتواصل البارد، وأنشئ ملفات CSV تحتوي على الاسم والعنوان والهاتف والموقع الإلكتروني والتقييمات وعدد المراجعات والفئة وساعات العمل والبريد الإلكتروني وحسابات التواصل. أحد أكثر المستودعات نشاطًا (gosom/google-maps-scraper) يخبر المستخدمين حرفيًا أنه يمكنهم أن يطلبوا من الوكيل الخاص به هذا ليس استخدامًا هاويًا، بل خط أنابيب مبيعات كامل.
أبحاث السوق والتحليل التنافسي
تستخدم فرق العمليات والاستراتيجية بيانات Maps المستخرجة لحصر المنافسين حسب الحي، وتحليل مشاعر المراجعات، واكتشاف الفجوات. ذكر أحد المختصين في SEO المحلي أنه في مجال واحد فقط عبر استخراج بيانات عامة من Google Maps. من شبه المستحيل تنفيذ هذا النوع من التحليل يدويًا وعلى نطاق واسع.
تدقيقات SEO المحلية وبناء الأدلة/الدلائل
يستخرج المسوقون بيانات Google Maps لتدقيق الظهور في البحث المحلي، والتحقق من اتساق NAP (الاسم، العنوان، الهاتف)، وبناء مواقع دلائل. وصف أحد المستخدمين إلى WordPress باستخدام WP All Import.
حسابات العمل التي تجعل الاستخراج مغريًا
جمع البيانات يدويًا ليس مجانيًا فقط لأنك تستخدم نافذة متصفح. يضع Upwork تكلفة المساعدين الافتراضيين لإدخال البيانات الإدارية عند . إذا قضى شخص دقيقة واحدة لكل نشاط تجاري لالتقاط الأساسيات، فإن 1000 نشاط تجاري تستهلك نحو 16.7 ساعة — أي قرابة 200–334 دولارًا في العمل قبل ضمان الجودة. وعند دقيقتين لكل نشاط، ترتفع الكلفة إلى 400–668 دولارًا. هذا هو المعيار الحقيقي الذي تنافسه كل أداة "GitHub مجانية".
Google Maps API مقابل مستودعات GitHub scraper مقابل الأدوات بدون كود: شجرة قرار 2026
اختر مسارك قبل أن تستنسخ أي شيء. فالحجم، والميزانية، والمهارات التقنية، والتحمل لمسؤولية الصيانة كلها مهمة هنا.
| المعيار | Google Places API | GitHub Scraper | أداة بدون كود (مثل Thunderbit) |
|---|---|---|---|
| التكلفة لكل 1000 عملية بحث | 7–32 دولارًا (الاستدعاءات الشائعة من Pro) | برمجية مجانية + تكلفة البروكسي + الوقت | خطة مجانية، ثم بنظام الرصيد |
| حقول البيانات | منظمة لكنها محدودة بمخطط API | مرنة، حسب المستودع | تهيئها الذكاء الاصطناعي بحسب الموقع |
| الوصول إلى المراجعات | بحد أقصى 5 مراجعات لكل مكان | كامل، إذا كانت الأداة تدعمه | يعتمد على الأداة |
| حدود المعدل | حدود مجانية لكل SKU ثم مدفوعة | تديرها بنفسك (وتعتمد على البروكسي) | يديرها المزوّد |
| الوضوح القانوني | ترخيص صريح | منطقة رمادية (مخاطر شروط الاستخدام) | المزوّد يتولى الامتثال تشغيليًا |
| الصيانة | تديرها Google | أنت تديرها | المزوّد يديرها |
| تعقيد الإعداد | مفتاح API + كود | Python + تبعيات + بروكسيات | ثبّت الإضافة ثم ابدأ الاستخراج |
متى يكون Google Places API هو الخيار المناسب
لعمليات البحث الصغيرة إلى المتوسطة الحجم، عندما تحتاج ترخيصًا رسميًا وفوترة متوقعة، يكون الـ API هو الخيار الواضح. استبدلت Google الرصيد الشهري الشامل بحدود مجانية لكل SKU: للعديد من حزم Essentials، و5000 لـ Pro، و1000 لـ Enterprise. بعد ذلك، يعمل Text Search Pro بسعر ، بينما يبلغ سعر Place Details Enterprise + Atmosphere 5 دولارات لكل 1000.
أكبر قيد هو المراجعات. يعيد الـ API . إذا كنت تحتاج السطح الكامل للمراجعات، فلن يكفيك الـ API.
متى يكون GitHub scraper هو الخيار المناسب
الاكتشاف الجماعي حسب الكلمة المفتاحية مع الموقع الجغرافي، والبيانات المرئية في المتصفح التي تتجاوز حقول الـ API، والنص الكامل للمراجعات، ومنطق التحليل المخصص — إذا كنت تحتاج أيًا من ذلك وتمتلك مهارات Python/Docker لصيانة أداة استخراج، فإن مستودعات GitHub هي الخيار الصحيح. المقابل هو أن كلمة "مجاني" تنقل الفاتورة إلى الوقت، والبروكسيات، ومحاولات الإعادة، والأعطال. تكلفة البروكسي وحدها قد تتراكم: تبدأ ، و، و.
متى تكون أداة بدون كود مثل Thunderbit مناسبة
هل فريقك غير تقني؟ وهل أولويتك إدخال البيانات إلى Sheets أو Airtable أو Notion أو CSV بسرعة؟ تتجاوز الأداة بدون كود كل إعدادات Python/Docker/proxy. مع ، تثبّت إضافة Chrome، وتفتح Google Maps، وتنقر "AI Suggest Fields" ثم "Scrape" — ثم . يتولى وضع الاستخراج السحابي الحماية من الروبوتات تلقائيًا، من دون إعداد بروكسي.
مسار القرار البسيط: إذا كنت تحتاج أقل من 500 نشاط تجاري ولديك ميزانية → API. إذا كنت تحتاج الآلاف وتملك مهارات Python → مستودع GitHub. إذا كنت تحتاج البيانات بسرعة من دون إعداد تقني → أداة بدون كود.
تدقيق الحداثة لعام 2026: أي مستودعات Google Maps Scraper على GitHub تعمل فعلًا اليوم؟
هذا هو القسم الذي كنت أتمنى لو كان موجودًا عندما بدأت البحث. معظم مقالات "أفضل Google Maps scraper" تسرد المستودعات مع وصف سطر واحد وعدد النجوم فقط. ولا واحدة منها تخبرك ما إذا كانت الأداة تُرجع بيانات هذا الشهر فعلًا.
كيف تعرف ما إذا كان مستودع Google Maps Scraper على GitHub لا يزال حيًا
قبل استنساخ أي شيء، راجع هذه القائمة:
- دفع كود حديث: ابحث عن commit حقيقي خلال آخر 3–6 أشهر، وليس مجرد تعليقات على القضايا.
- صحة القضايا: اقرأ آخر 3 قضايا تم تحديثها. هل تتعلق بأعطال أساسية (حقول فارغة، أخطاء selectors، انهيار المتصفح) أم بطلبات ميزات؟
- جودة README: هل يشرح بنية المتصفح الحالية، وإعداد Docker، وضبط البروكسي؟
- عبارات تحذيرية في القضايا: ابحث عن "search box" و"reviews_count = 0" و"driver" و"Target page" و"selector" و"empty".
- نشاط النسخ الفرعية وطلبات السحب: النسخ النشطة وطلبات السحب المدمجة تشير إلى مجتمع حي.
لا يوجد نشاط كود حديث، ولا أخطاء أساسية غير محلولة في الاستخراج، ولا إرشادات للبروكسي أو صيانة المتصفح؟ على الأرجح هذا المستودع غير حي بما يكفي للاستخدام التجاري — حتى لو بدا عدد النجوم مثيرًا للإعجاب.
أفضل مستودعات Google Maps Scraper على GitHub تمت مراجعتها

قيّمتُ المستودعات الأعلى نجومًا بناءً على المنهجية السابقة. إليك جدول الملخص، يليه ملاحظات فردية.
| المستودع | النجوم | آخر دفع | هل يعمل في 2026؟ | هل يتعامل مع تغييرات الواجهة؟ | دعم البروكسي | المكدس التقني |
|---|---|---|---|---|---|---|
| gosom/google-maps-scraper | 3.7k | 2026-04-19 | ⚠️ الاستخراج الأساسي ما يزال حيًا؛ حقول المراجعات غير مستقرة | صيانة نشطة | نعم، موثق بوضوح | Go + Playwright |
| omkarcloud/google-maps-scraper | 2.6k | 2026-04-10 | ⚠️ تطبيق نشط، لكن توجد مشكلات تعطل/دعم | تتم صيانته من المزوّد | غير موثق بوضوح | تطبيق سطح مكتب / ملف تنفيذي |
| gaspa93/googlemaps-scraper | 498 | 2026-03-26 | ⚠️ مجال ضيق لاستخراج المراجعات | دلائل محدودة | لا توجد قصة قوية للبروكسي | Python |
| conor-is-my-name/google-maps-scraper | 284 | 2026-04-14 | ⚠️ تدفق Docker واعد، لكن كسر selectors في مارس | بعض دلائل الإصلاحات | مهيأ لـ Docker، والبروكسي غير واضح | Python + Docker |
| Zubdata/Google-Maps-Scraper | 120 | 2025-01-19 | ❌ كثير من مشكلات البيانات القديمة/الفارغة | دلائل قليلة | غير مُبرز | واجهة Python رسومية |
| patxijuaristi/google_maps_scraper | 113 | 2025-02-24 | ❌ إشارة ضعيفة، ومشكلة قديمة في Chrome driver | دلائل قليلة | لا توجد دلائل قوية | Python |
gosom/google-maps-scraper
حاليًا، هو أقوى خيار مفتوح المصدر عام في هذه الفئة. README ناضج على نحو غير معتاد: سطر أوامر، وواجهة ويب، وREST API، وتعليمات Docker، وضبط البروكسي، ووضع الشبكة/المربع المحيط، واستخراج البريد الإلكتروني، وعدة وجهات للتصدير. يدّعي وجود ويوثّق البروكسيات صراحةً لأن "في مهام الاستخراج الأكبر، تساعد البروكسيات على تجنب تحديد المعدل".
الجانب السلبي ليس التوقف عن التطوير، بل انحراف الدقة في الحقول الطرفية. تُظهر قضايا 2026 الأخيرة أن ، وأن ، وأن . لذلك فهو موثوق لاستخراج القوائم التجارية، لكنه أضعف في بيانات المراجعات الغنية وساعات العمل إلى أن تصل الإصلاحات.
omkarcloud/google-maps-scraper
يحظى بظهور كبير بفضل عدد نجومه ووجوده الطويل، لكنه يبدو أقرب إلى منتج استخراج مُعبأ منه إلى OSS شفاف — قنوات دعم، ومثبّتات لسطح المكتب، وبيع إضافات إثرائية. قال أحد المستخدمين في أبريل 2026 إن التطبيق فتح ثم أغرق الطرفية بأخطاء حتى علِق. وهناك قضية مفتوحة أخرى تشتكي من أن الأداة ليست ميتة، لكنها ليست أنظف إجابة للقراء الذين يريدون OSS قابلًا للفحص ويمكنهم ترقيعه بثقة بأنفسهم.
gaspa93/googlemaps-scraper
ليست أداة عامة لاستخراج العملاء المحتملين من البحث الجماعي. إنها مركزة تبدأ من رابط مراجعات POI محدد في Google Maps وتسترجع المراجعات الحديثة، مع خيارات لاستخراج البيانات الوصفية وفرز المراجعات. هذا النطاق الأضيق يمثل في الواقع نقطة قوة لبعض سير العمل — لكنه لا يحل مشكلة اكتشاف الاستعلامات التي يفكر بها معظم مستخدمي الأعمال.
conor-is-my-name/google-maps-scraper
منهجية مناسبة لفرق العمليات الحديثة: تثبيت أولًا على Docker، وواجهة JSON API، وحقول صديقة للأعمال، وظهور مجتمعي في . لكن قضية مارس 2026 مثال ممتاز على هشاشة هذه الفئة: حدّث أحد المستخدمين الحاوية، وأظهر الإخراج أن الأداة هذا فشل في المسار الأساسي، لا مجرد حالة شكلية.
Zubdata/Google-Maps-Scraper
على الورق، مجموعة الحقول واسعة: البريد الإلكتروني، والمراجعات، والتقييمات، والعنوان، والموقع الإلكتروني، والهاتف، والفئة، وساعات العمل. لكن في الواقع، تُظهر مساحة القضايا العامة قصة مختلفة: يبلّغ المستخدمون عن ، و، و. ومع سجل الدفع الأقدم، من الصعب التوصية بها لاستخدام 2026.
patxijuaristi/google_maps_scraper
يسهل العثور عليها في بحث GitHub، لكن أقوى إشارة عامة هي بدلًا من صيانة نشطة. ترد هنا أساسًا كمثال على معنى "يبدو حيًا في البحث لكنه محفوف بالمخاطر عمليًا".
خطوة بخطوة: إعداد Google Maps Scraper من GitHub
قررت أن مستودع GitHub هو المسار الصحيح؟ إليك ما يبدو عليه الإعداد فعلًا. سأبقيه هنا عامًا بدلًا من أن يكون خاصًا بمستودع معيّن — فالخطوات متشابهة على نحو مدهش بين الخيارات النشطة.
الخطوة 1: استنسخ المستودع وثبّت التبعيات
المسار الشائع:
git cloneللمستودع- أنشئ بيئة افتراضية Python (أو اسحب صورة Docker)
- ثبّت التبعيات عبر
pip install -r requirements.txtأوdocker-compose up - أحيانًا ثبّت بيئة تشغيل للمتصفح (Chromium لـ Playwright أو ChromeDriver لـ Selenium)
المستودعات التي تعتمد Docker أولًا مثل و تقلل صداع التبعيات لكنها لا تزيله — ستحتاج مع ذلك إلى تشغيل Docker ومساحة قرص كافية لصور المتصفح.
الخطوة 2: اضبط معلمات البحث
معظم أدوات الاستخراج العامة تريد:
- كلمة مفتاحية + موقع (مثل "plumbers in Austin TX")
- حد النتائج (كم قائمة تريد استخراجها)
- صيغة المخرجات (CSV أو JSON أو قاعدة بيانات)
- وأحيانًا مربعات حدود جغرافية أو نصف قطر للاكتشاف المعتمد على الشبكة
المستودعات الأقوى تعرض هذه الخيارات كوسائط CLI أو كجسم طلب JSON. أما المستودعات الأقدم فقد تتطلب تعديل ملف Python مباشرة.
الخطوة 3: أعد إعداد البروكسيات إذا لزم الأمر
أي شيء يتجاوز تجربة صغيرة؟ ستحتاج إلى بروكسيات. توثق وتقدّم البروكسيات صراحةً بوصفها الجواب القياسي للمهام الأكبر. من دونها، توقّع ظهور CAPTCHA أو حظر IP بعد بضعة عشرات من الطلبات.
الخطوة 4: شغّل الأداة وصدّر البيانات
شغّل السكربت، وراقب المتصفح وهو يتنقل بين بطاقات النتائج، وانتظر ملف CSV أو JSON الناتج. المسار السعيد يستغرق دقائق. أما المسار غير السعيد — وهو أكثر شيوعًا مما يعترف به الناس — فيتضمن:
- إغلاق المتصفح بشكل غير متوقع
- عدم تطابق إصدار Chrome driver
- فشل selector أو مربع البحث
- عودة أعداد المراجعات أو ساعات العمل فارغة
تظهر الأنماط الأربعة كلها في .
الخطوة 5: عالج الأخطاء والانكسارات
عندما تُرجع الأداة نتائج فارغة أو أخطاء:
- تحقّق من قضايا GitHub في المستودع بحثًا عن تقارير مشابهة
- ابحث عن تغييرات واجهة Google Maps (selectors جديدة، بنية صفحة مختلفة)
- حدّث المستودع إلى أحدث commit
- إذا لم يصلح الميّسر المشكلة، فتفقد forks بحثًا عن تصحيحات المجتمع
- فكّر فيما إذا كان الوقت الذي ستنفقه في التشخيص يستحق ذلك مقارنةً بتبديل الأدوات
زمن الإعداد الواقعي لأول مرة: لشخص مرتاح مع الطرفية لكنه لا يملك بالفعل إعداد Playwright/Docker/proxy يعمل، فإن 30–90 دقيقة هو النطاق الواقعي لأول استخراج ناجح. ليس خمس دقائق.
كيف تتجنب الحظر وحدود المعدل عند استخراج Google Maps
لا يوجد حد منشور من Google Maps على الويب يقول: "سيتم حظرك عند X طلب." Google تتعمد إبقاء الأمر ضبابيًا. بعض المستخدمين يبلّغون عن ظهور CAPTCHA بعد نحو في إعدادات Playwright المعتمدة على الخادم. وادعى مستخدم آخر في أداة Maps بُنيت داخل شركة. الحدود ليست مرتفعة أو منخفضة. إنها غير مستقرة وتعتمد على السياق.
إليك جدول إستراتيجية عملي:
| الإستراتيجية | الصعوبة | الفعالية | التكلفة |
|---|---|---|---|
| تأخيرات عشوائية (2–5 ثوانٍ بين الطلبات) | سهلة | متوسطة | مجانية |
| خفض التوازي (جلسات متوازية أقل) | سهلة | متوسطة | مجانية |
| تدوير بروكسيات سكنية | متوسطة | عالية | 1–6 دولارات/GB |
| بروكسيات مراكز البيانات (للأهداف السهلة) | متوسطة | متوسطة | 0.02–0.6 دولار/GB |
| عشوائية بصمة المتصفح بدون واجهة | صعبة | عالية | مجانية |
| الإبقاء على الجلسات / الجلسات المُسخّنة | متوسطة | متوسطة | مجانية |
| الاستخراج السحابي (نقل المشكلة للخارج) | سهلة | عالية | يختلف |
أضف تأخيرات عشوائية بين الطلبات
الفواصل الثابتة كل ثانية واحدة علامة حمراء. استخدم تذبذبًا عشوائيًا — من 2 إلى 5 ثوانٍ بين الإجراءات، مع توقفات أطول أحيانًا. أبسط شيء يمكنك فعله، ولا يكلف شيئًا.
دوّر البروكسيات: السكنية مقابل مراكز البيانات
البروكسيات السكنية أكثر فاعلية لأنها تبدو كمستخدمين حقيقيين، لكنها أغلى. الأسعار الحالية: ، و، و. تعمل بروكسيات مراكز البيانات مع الاستخراج الأخف لكنها تُكتشف أسرع على منتجات Google.
عشوّش بصمات المتصفح
في أدوات الاستخراج المعتمدة على متصفح بدون واجهة: دوّر user agents، وأحجام viewport، وإشارات البصمة الأخرى. إعدادات Playwright/Puppeteer الافتراضية قابلة للكشف بسهولة. هذا أصعب في التنفيذ لكنه مجاني وفعّال جدًا.
استخدم الاستخراج السحابي لتحميل المشكلة بعيدًا
أدوات مثل تتعامل مع الحماية من الروبوتات، وتدوير الـ IP، وتحديد المعدل تلقائيًا عبر بنية الاستخراج السحابي. يستخرج Thunderbit في الوضع السحابي — من دون إعداد بروكسي أو ضبط تأخيرات. بالنسبة للفرق التي لا تريد أن تصبح مهندسة مضادة للروبوتات بدوام جزئي، فهذا هو المسار الأكثر عملية.
كيف تبدو حدود معدل Google فعليًا
علامات أنك تتعرض لتحديد المعدل:
- ظهور CAPTCHA أثناء الاستخراج
- مجموعات نتائج فارغة بعد استعلامات كانت تعمل سابقًا
- حظر مؤقت لـ IP (عادةً من 1 إلى 24 ساعة)
- بطء أو نقص في تحميل الصفحة (أبطأ، محتوى جزئي)
الاسترجاع: أوقف الاستخراج، ودوّر عناوين IP، وانتظر من 15 إلى 60 دقيقة، ثم استأنف بتوازي أقل. إذا كنت تصطدم بالحدود بانتظام، فإعدادك يحتاج إلى بروكسيات أو إلى نهج مختلف جذريًا.
المخرج بدون كود: متى لا يستحق Google Maps Scraper GitHub وقتك
حوالي 90% من المقالات عن استخراج Google Maps تفترض إتقان Python. لكن شريحة كبيرة من الجمهور — أصحاب الوكالات، ومندوبي المبيعات، وفرق SEO المحلية، والباحثون — تحتاج فقط إلى صفوف في جدول بيانات، لا إلى مشروع أتمتة للمتصفح. إذا كنت منهم، فهذا القسم صريح بشأن المقايضات.
التكلفة الحقيقية لأدوات GitHub "المجانية"
| العامل | نهج مستودع GitHub | البديل بدون كود (مثل Thunderbit) |
|---|---|---|
| وقت الإعداد | 30–90 دقيقة (Python/Docker/proxies) | نحو دقيقتين (إضافة متصفح) |
| الصيانة | يدوية (أنت تصلح الأعطال) | تلقائية (المزوّد يصونها) |
| التخصيص | عالٍ (وصول كامل إلى الشيفرة) | متوسط (حقول مُهيأة بالذكاء الاصطناعي) |
| التكلفة | برمجية مجانية، لكن مع الوقت + البروكسيات | تتوفر خطة مجانية، ثم نظام رصيد |
| التوسع | يعتمد على بنيتك التحتية | توسع قائم على السحابة |
أدوات GitHub "المجانية" تنقل الفاتورة إلى الوقت. إذا قيّمت وقتك عند 50 دولارًا في الساعة، وقضيت ساعتين على الإعداد + ساعة على استكشاف الأخطاء + 30 دقيقة على إعداد البروكسي، فهذا 175 دولارًا قبل أن تُخرج أي قائمة واحدة. أضف تكلفة البروكسيات والصيانة المستمرة عندما تغيّر Google واجهتها، وسيتبين أن الخيار "المجاني" أصبح مكلفًا.
كيف يبسّط Thunderbit استخراج Google Maps
إليك سير العمل الفعلي مع :
- ثبّت
- انتقل إلى Google Maps ونفّذ البحث
- انقر "AI Suggest Fields" — يقرأ ذكاء Thunderbit الصفحة ويقترح الأعمدة (اسم النشاط، العنوان، الهاتف، التقييم، الموقع الإلكتروني، إلخ)
- انقر "Scrape" وتُهيكل البيانات تلقائيًا
- استخدم استخراج الصفحات الفرعية لزيارة موقع كل نشاط تجاري من الروابط المستخرجة واستخراج معلومات اتصال إضافية (البريد الإلكتروني، أرقام الهواتف) — مع أتمتة ما يفعله مستخدمو مستودعات GitHub يدويًا
- صدّر إلى — من دون أي جدار دفع على التصدير
لا Python. لا Docker. لا بروكسيات. لا صيانة. بالنسبة لفرق المبيعات والتسويق التي تعمل على توليد العملاء المحتملين، يزيل هذا العبء الكامل للإعداد الذي تتطلبه مستودعات GitHub.
سياق التسعير: يستخدم Thunderbit نموذج رصيد حيث . تغطي الخطة المجانية 6 صفحات شهريًا، وتغطي النسخة التجريبية 10 صفحات، وتبلغ الخطة الأساسية .
بعد الاستخراج: تنظيف وتحسين بيانات Google Maps
تتوقف معظم الأدلة عند الاستخراج الخام. البيانات الخام ليست قائمة عملاء محتملين. يذكر مستخدمو المنتديات بانتظام ويسألون: "كيف تتعامل مع التكرارات في هذا الإعداد؟" إليك ما يحدث بعد الاستخراج.
إزالة التكرارات من النتائج
تتسلل التكرارات بسبب تداخل الصفحات، والبحث المتكرر عبر مناطق متداخلة، واستراتيجيات الشبكة/الصندوق المحيط التي تغطي النشاط التجاري نفسه، والأعمال التي لديها أكثر من قائمة.
ترتيب أفضل ممارسة لإزالة التكرار:
- المطابقة على place_id إذا كانت الأداة تكشفه (الأكثر موثوقية)
- مطابقة تامة على اسم النشاط التجاري + العنوان بعد التطبيع
- مطابقة مرنة للاسم + العنوان، ثم التأكيد عبر الهاتف أو الموقع الإلكتروني
معادلات Excel/Sheets البسيطة (COUNTIF وRemove Duplicates) تعالج معظم الحالات. وبالنسبة لمجموعات البيانات الأكبر، ينجح سكربت Python سريع لإزالة التكرار باستخدام pandas بشكل جيد.
توحيد تنسيق أرقام الهواتف والعناوين
تأتي أرقام الهواتف المستخرجة بكل تنسيق ممكن: (555) 123-4567، 555-123-4567، +15551234567، 5551234567. وللاستيراد إلى CRM، وحّد كل شيء إلى صيغة E.164 — أي + رمز الدولة + الرقم الوطني، مثل +15551234567.
أثناء الاستخراج — خطوة تنظيف أقل.
أما العناوين، فوحّدها إلى صيغة متسقة: الشارع، المدينة، الولاية، الرمز البريدي. أزل المسافات الزائدة، وصحّح عدم الاتساق في الاختصارات (St مقابل Street)، وتحّقق عبر خدمة geocoding إذا كانت الدقة مهمة.
الإثراء عبر البريد الإلكتروني والمواقع والملفات الاجتماعية
تتضمن قوائم Google Maps تقريبًا دائمًا رابط موقع إلكتروني. لكنها نادرًا ما تتضمن بريدًا إلكترونيًا مباشرة. النمط الفائز:
- استخرج Google Maps لاكتشاف النشاط التجاري (الاسم، العنوان، الهاتف، رابط الموقع)
- زر موقع كل نشاط تجاري لاستخراج البريد الإلكتروني وروابط التواصل الاجتماعي وغيرها من بيانات الاتصال
هنا يلتقي أفضل مستودعات GitHub والأدوات بدون كود:
- عبر زيارة مواقع الأنشطة التجارية
- يمكنها زيارة موقع كل نشاط تجاري من الروابط المستخرجة واستخراج عناوين البريد الإلكتروني وأرقام الهواتف — وكل ذلك يُلحق بالجدول الأصلي
بالنسبة لمستخدمي مستودعات GitHub الذين لا يملكون إثراءً مدمجًا، يعني ذلك كتابة أداة استخراج ثانية أو زيارة كل موقع يدويًا. Thunderbit يدمج الخطوتين في سير عمل واحد.
التصدير إلى CRM أو أدوات سير العمل
أكثر وجهات التصدير العملية:
- Google Sheets للتنظيف والمشاركة التعاونية
- Airtable لقواعد بيانات منظمة مع فلاتر وعروض
- Notion لقواعد بيانات تشغيل خفيفة
- CSV/JSON للاستيراد إلى CRM أو الأتمتة اللاحقة
يدعم Thunderbit . معظم مستودعات GitHub تصدّر إلى CSV أو JSON فقط — وستحتاج إلى التعامل مع تكامل CRM بشكل منفصل. إذا كنت تبحث عن مزيد من الطرق لإدخال البيانات المستخرجة إلى الجداول، فراجع دليلنا حول .
مستودعات Google Maps Scraper على GitHub: مقارنة كاملة جنبًا إلى جنب
إليك جدول ملخص يستحق الإشارة المرجعية ويغطي جميع الأساليب:
| الأداة / المستودع | النوع | نموذج التكلفة | وقت الإعداد | إدارة البروكسي | الصيانة | خيارات التصدير | هل يعمل في 2026؟ |
|---|---|---|---|---|---|---|---|
| Google Places API | API رسمي | 7–32 دولارًا / 1K طلب (Pro) | منخفض | غير مطلوب | منخفض | JSON / تكامل تطبيق | ✅ |
| gosom/google-maps-scraper | GitHub OSS | مجاني + بروكسيات + وقت | متوسط | نعم، موثق | عالية | CSV، JSON، قاعدة بيانات، API | ⚠️ |
| omkarcloud/google-maps-scraper | GitHub مُعبأ | شبه مجاني، مُنتَج | متوسط | غير واضح | متوسطة-عالية | مخرجات التطبيق | ⚠️ |
| gaspa93/googlemaps-scraper | GitHub لاستخراج المراجعات | مجاني + وقت | متوسط | محدود | متوسطة-عالية | CSV | ⚠️ (متخصص) |
| conor-is-my-name/google-maps-scraper | GitHub Docker API | مجاني + وقت | متوسط | ممكن | عالية | JSON / خدمة Docker | ⚠️ |
| Zubdata/Google-Maps-Scraper | تطبيق GUI على GitHub | مجاني + وقت | متوسط | محدود | عالية | مخرجات التطبيق | ❌ |
| Thunderbit | إضافة بدون كود | أرصدة / صفوف | منخفض | مُجرّد (سحابي) | منخفض-متوسط | Sheets، Excel، Airtable، Notion، CSV، JSON | ✅ |
لمزيد من السياق حول اختيارك بين أساليب الاستخراج، قد تجد أيضًا تجميعتنا حول مفيدة، أو مقارنتنا بين .
الاعتبارات القانونية وشروط الخدمة
قسم قصير، لكنه مهم.
شروط منصة Google Maps الحالية واضحة: لا يجوز للعملاء بما في ذلك نسخ وحفظ أسماء الأنشطة التجارية والعناوين أو مراجعات المستخدمين خارج الاستخدام المسموح للخدمة. كما تسمح الشروط الخاصة بالخدمة الخاصة بـ Google بتخزين محدود لبعض واجهات API، عادةً لمدة .
التسلسل القانوني واضح:
- استخدام API يملك أوضح أساس تعاقدي
- أدوات GitHub scraper تعمل في مساحة أكثر غموضًا بكثير
- الأدوات بدون كود تقلل العبء التشغيلي لكنها لا تلغي التزامات الامتثال الخاصة بك
استشر مستشارك القانوني بشأن حالة الاستخدام الخاصة بك. وللاطلاع بشكل أعمق على المشهد القانوني، تناولنا بشكل منفصل.
الخلاصات الأساسية: اختيار نهج Google Maps Scraper المناسب في 2026
بعد التعمق في المستودعات، والقضايا، والمنتديات، وصفحات التسعير، هذه هي الصورة الحالية:
-
تحقق دائمًا من حداثة المستودع قبل استثمار وقت الإعداد. عدد النجوم ليس مؤشرًا على أنه "يعمل اليوم". اقرأ أحدث ثلاث قضايا. وابحث عن commits خلال آخر 3–6 أشهر.
-
أفضل خيار مفتوح المصدر حاليًا هو gosom/google-maps-scraper — لكن حتى هذا يظهر ارتدادات حديثة في الحقول خلال 2026. تعامل معه كنظام حي يحتاج مراقبة، لا كأداة تُضبط وتُنسى.
-
Google Places API هو الجواب المناسب للاستقرار والوضوح القانوني — لكنه محدود (5 مراجعات كحد أقصى، وتسعير لكل طلب) ولا يحل الاكتشاف الجماعي بشكل ممتاز.
-
للّفرق غير التقنية، الأدوات بدون كود مثل هي البديل العملي. الفجوة بين الإعداد وأول بيانات تُحسب بالدقائق بدل الساعات، ولن تحتاج إلى أن تصبح صيانة scraper بدوام جزئي.
-
البيانات الخام هي نصف المهمة فقط. خصص وقتًا لإزالة التكرارات، وتوحيد أرقام الهواتف، وإثراء البريد الإلكتروني، وتصدير CRM. الأدوات التي تتولى هذه الخطوات تلقائيًا (مثل استخراج الصفحات الفرعية في Thunderbit وتوحيد E.164) توفر وقتًا أكثر مما يتوقعه معظم الناس.
-
أفضل فهم لعبارة "scraper مجاني" هو أنها برمجية مرفقة بصيانة غير مدفوعة. هذا جيد إذا كانت لديك المهارات وتستمتع بالعمل. لكنه صفقة سيئة إذا كنت مندوب مبيعات وتحتاج فقط 500 عميل محتمل لمختصي الأسنان في فينيكس بحلول يوم الجمعة.
إذا أردت استكشاف مزيد من الخيارات لاستخراج بيانات الأعمال، فراجع أدلتنا حول ، و، و. يمكنك أيضًا مشاهدة الدروس على .
الأسئلة الشائعة
هل استخدام Google Maps scraper من GitHub مجاني؟
البرمجية مجانية. أما العمل فليس مجانيًا. ستستثمر 30–90 دقيقة في الإعداد، ووقتًا مستمرًا في معالجة الأعطال، وغالبًا 10–100+ دولار شهريًا في تكاليف البروكسي لأي حجم جاد. إذا كان لوقتك قيمة، فـ"مجاني" وصف غير دقيق.
هل أحتاج إلى مهارات Python لاستخدام Google Maps scraper من GitHub؟
معظم المستودعات الشائعة تتطلب معرفة أساسية بـ Python وسطر الأوامر. المستودعات المعتمدة على Docker تخفف العبء لكنها لا تلغيه — ما زلت بحاجة إلى تشخيص مشكلات الحاوية، وضبط معلمات البحث، والتعامل مع إعداد البروكسي. وللمستخدمين غير التقنيين، تقدم أدوات بدون كود مثل بديلًا بنقرتين من دون حاجة للبرمجة.
كم مرة تتعطل مستودعات Google Maps scraper على GitHub؟
لا يوجد جدول ثابت، لكن تاريخ قضايا GitHub الحالي يُظهر أن الأعطال الأساسية وانحدارات الحقول تظهر في دورة من أسابيع إلى أشهر. تحدّث Google واجهة Maps بانتظام، مما قد يكسر selectors ومنطق التحليل بين ليلة وضحاها. المستودعات النشطة تصلح ذلك بسرعة؛ أما المستودعات المهجورة فتبقى معطلة إلى أجل غير مسمى.
هل يمكنني استخراج مراجعات Google Maps باستخدام scraper من GitHub؟
بعض المستودعات تدعم استخراج المراجعات الكاملة (gaspa93/googlemaps-scraper مصمم خصيصًا لهذا)، بينما يلتقط بعضها الآخر بيانات ملخّصة فقط مثل التقييم وعدد المراجعات. كما أن المراجعات من أول مجموعات الحقول التي تنحرف عندما تغيّر Google سلوك الصفحة — لذلك حتى المستودعات التي تدعم المراجعات قد تُرجع نتائج غير مكتملة بعد تحديث الواجهة.
ما هو أفضل بديل إذا لم أرد استخدام scraper من GitHub؟
هناك مساران رئيسيان: Google Places API للوصول الرسمي والمنظم (مع قيود في التكلفة والحقول)، أو أداة بدون كود مثل لاستخراج سريع مدعوم بالذكاء الاصطناعي من دون برمجة. الـ API هو الأفضل للمطورين الذين يحتاجون يقينًا في الامتثال. وThunderbit هو الأفضل لمستخدمي الأعمال الذين يحتاجون البيانات بسرعة داخل جدول بيانات.
اعرف المزيد