Jak pozyskać dane z Google Shopping — z kodem lub bez

Ostatnia aktualizacja: April 15, 2026

Google Shopping obsługuje ponad . To ogromna ilość danych o cenach, trendach produktowych i sprzedawcach — wszystko dostępne od ręki w przeglądarce, zebrane z tysięcy sklepów.

Wyciągnięcie tych danych z Google Shopping do arkusza kalkulacyjnego? Tu zaczynają się schody. Spędziłem sporo czasu, testując różne podejścia — od bezkodowych rozszerzeń do przeglądarki po pełne skrypty w Pythonie — i doświadczenie waha się od „wow, to było banalnie proste” do „od trzech dni debuguję CAPTCHA i mam dość”. Większość poradników zakłada, że jesteś programistą Pythona, ale z mojego doświadczenia wynika, że ogromna część osób potrzebujących danych z Google Shopping to operatorzy ecommerce, analitycy cenowi i marketerzy, którzy po prostu chcą dostać liczby bez pisania kodu. Dlatego ten przewodnik opisuje trzy metody, od najprostszej do najbardziej technicznej, abyś mógł wybrać ścieżkę dopasowaną do swoich umiejętności i czasu.

Czym są dane z Google Shopping?

Google Shopping to wyszukiwarka produktów. Wpisujesz „bezprzewodowe słuchawki z redukcją szumów”, a Google pokazuje oferty z dziesiątek sklepów internetowych — tytuły produktów, ceny, sprzedawców, oceny, zdjęcia, linki. To żywy katalog tego, co jest aktualnie dostępne w sprzedaży w całym internecie, stale aktualizowany.

Dlaczego warto pozyskiwać dane z Google Shopping?

Pojedyncza karta produktu niewiele mówi. Setki takich rekordów, uporządkowane w arkuszu, dopiero pokazują prawdziwe wzorce.

google-shopping-manual-vs-auto (1).png

Oto najczęstsze zastosowania, które widuję:

Przypadek użyciaKto zyskujeCzego szukasz
Analiza cen konkurencjiZespoły ecommerce, analitycy cenowiCeny konkurencji, wzorce promocji, zmiany cen w czasie
Wykrywanie trendów produktowychZespoły marketingowe, product managerowieNowe produkty, rosnące kategorie, tempo przyrostu opinii
Analiza reklamMenedżerowie PPC, zespoły growthOferty sponsorowane, którzy sprzedawcy licytują, częstotliwość reklam
Research sprzedawców i leadówZespoły sprzedaży, B2BAktywni sprzedawcy, nowi gracze w kategorii
Monitorowanie MAPBrand managerowieSprzedawcy łamiący zasady minimalnej ceny reklamowanej
Śledzenie stanów i asortymentuCategory managerowieDostępność produktów, luki w asortymencie

korzysta dziś z narzędzi cenowych opartych na AI. Firmy inwestujące w inteligencję cenową raportują zwroty sięgające nawet 29x. Amazon aktualizuje ceny mniej więcej co 10 minut. Jeśli nadal sprawdzasz ceny konkurencji ręcznie, matematyka nie jest po twojej stronie.

Thunderbit to rozszerzenie Chrome AI Web Scraper, które pomaga użytkownikom biznesowym pozyskiwać dane ze stron internetowych z wykorzystaniem AI. Jest szczególnie przydatne dla operatorów ecommerce, analityków cenowych i marketerów, którzy chcą uporządkowanych danych z Google Shopping bez pisania kodu.

Jakie dane naprawdę da się pozyskać z Google Shopping?

Zanim wybierzesz narzędzie albo napiszesz choćby jedną linię kodu, warto wiedzieć dokładnie, jakie pola są dostępne — i które z nich wymagają dodatkowej pracy.

Pola z wyników wyszukiwania Google Shopping

Gdy uruchomisz wyszukiwanie w Google Shopping, każda karta produktu na stronie wyników zawiera:

PoleTypPrzykładUwagi
Tytuł produktuTekst„Sony WH-1000XM5 Wireless Headphones”Zawsze obecny
CenaLiczba278,00 USDMoże pokazywać cenę promocyjną i pierwotną
Sprzedawca / sklepTekst„Best Buy”Dla jednego produktu może być kilku sprzedawców
OcenaLiczba4,7W skali 5 gwiazdek; nie zawsze widoczna
Liczba opiniiLiczba12 453Czasem brak dla nowszych produktów
URL zdjęcia produktuURLhttps://...Przy pierwszym ładowaniu może zwracać placeholder base64
Link do produktuURLhttps://...Prowadzi do strony produktu Google lub bezpośrednio do sklepu
Informacje o wysyłceTekst„Darmowa dostawa”Nie zawsze obecne
Oznaczenie sponsorowaneBooleanTak/NieWskazuje płatne wyświetlenie — przydatne w analizie reklam

Pola ze stron szczegółów produktu (dane z podstron)

Jeśli klikniesz w stronę szczegółów konkretnego produktu w Google Shopping, możesz uzyskać bogatszy zestaw danych:

PoleTypUwagi
Pełny opisTekstWymaga wejścia na stronę produktu
Wszystkie ceny sprzedawcówLiczba (wiele)Porównanie cen obok siebie między sklepami
SpecyfikacjaTekstZależy od kategorii produktu (wymiary, waga itp.)
Pojedyncze treści opiniiTekstPełna treść recenzji kupujących
Podsumowanie zalet i wadTekstGoogle czasem generuje je automatycznie

Dostęp do tych pól oznacza przejście do podstrony każdego produktu po zebraniu wyników wyszukiwania. Narzędzia z funkcją robią to automatycznie — poniżej pokażę cały proces.

Trzy sposoby na pozyskanie danych z Google Shopping (wybierz swoją ścieżkę)

thunderbit-web-scraping-paths.png

Trzy metody, od najprostszej do najbardziej technicznej. Wybierz wiersz, który pasuje do twojej sytuacji, i przejdź dalej:

MetodaPoziom umiejętnościCzas konfiguracjiObsługa antybotaDla kogo najlepsza
Bez kodu (Thunderbit Chrome Extension)Początkujący~2 minutyObsługiwane automatycznieEcommerce, marketerzy, jednorazowe research’e
Python + SERP APIŚrednio zaawansowany~30 minutObsługiwane przez APIProgramiści potrzebujący programowego, powtarzalnego dostępu
Python + Playwright (automatyzacja przeglądarki)Zaawansowany~1 godzina+Obsługujesz samodzielnieNiestandardowe pipeline’y, obsługa przypadków brzegowych

Metoda 1: Pozyskiwanie danych z Google Shopping bez kodu (z Thunderbit)

  • Poziom trudności: Początkujący
  • Czas potrzebny: ~2–5 minut
  • Czego potrzebujesz: przeglądarki Chrome, (wersja darmowa wystarczy), zapytania wyszukiwania w Google Shopping

Najkrótsza droga od „potrzebuję danych z Google Shopping” do „oto mój arkusz”. Bez kodu, bez kluczy API, bez konfiguracji proxy. Wielokrotnie prowadziłem przez ten proces nietechnicznych członków zespołu — i nikomu nie sprawiło to problemu.

Krok 1: Zainstaluj Thunderbit i otwórz Google Shopping

Zainstaluj ze sklepu Chrome Web Store i załóż darmowe konto.

Następnie przejdź do Google Shopping. Możesz wejść bezpośrednio na shopping.google.com albo skorzystać z zakładki Shopping w zwykłym wyszukiwaniu Google. Wyszukaj dowolny produkt lub kategorię, która cię interesuje — na przykład „wireless noise-cancelling headphones”.

Powinieneś zobaczyć siatkę ofert produktów wraz z cenami, sprzedawcami i ocenami.

Krok 2: Kliknij „AI Suggest Fields”, aby automatycznie wykryć kolumny

Kliknij ikonę rozszerzenia Thunderbit, aby otworzyć pasek boczny, a następnie wybierz „AI Suggest Fields.” AI skanuje stronę Google Shopping i proponuje kolumny: Product Title, Price, Seller, Rating, Review Count, Image URL, Product Link.

Sprawdź sugerowane pola. Możesz zmieniać nazwy kolumn, usuwać niepotrzebne albo dodawać własne. Jeśli chcesz doprecyzować wynik — na przykład „wyodrębnij tylko liczbową wartość ceny bez symbolu waluty” — możesz dodać do danej kolumny Field AI Prompt.

W panelu Thunderbit powinna pojawić się podglądowa struktura kolumn.

Krok 3: Kliknij „Scrape” i sprawdź wyniki

Kliknij niebieski przycisk „Scrape”. Thunderbit pobierze każdą widoczną ofertę produktu do uporządkowanej tabeli.

Wiele stron? Thunderbit automatycznie obsługuje paginację — przechodzenie między stronami albo przewijanie w celu załadowania kolejnych wyników, zależnie od układu strony. Jeśli wyników jest dużo, możesz wybrać między Cloud Scraping (szybsze, obsługuje do 50 stron jednocześnie, działa na rozproszonej infrastrukturze Thunderbit) a Browser Scraping (korzysta z twojej własnej sesji Chrome — przydatne, gdy Google pokazuje wyniki zależne od regionu lub wymaga logowania).

W moich testach pobranie 50 ofert zajmowało około 30 sekund. Ręcznie to samo zadanie — otwieranie każdej oferty, kopiowanie tytułu, ceny, sprzedawcy i oceny — zajęłoby mi ponad 20 minut.

Krok 4: Wzbogać dane, scrapując podstrony

Po pierwszym zebraniu danych kliknij „Scrape Subpages” w panelu Thunderbit. AI odwiedzi stronę szczegółów każdego produktu i dołączy do pierwotnej tabeli dodatkowe pola — pełne opisy, wszystkie ceny sprzedawców, specyfikacje i opinie.

Nie trzeba żadnej dodatkowej konfiguracji — AI samo rozpoznaje strukturę strony szczegółów i pobiera odpowiednie dane. W ten sposób zbudowałem pełną macierz cen konkurencyjnych (produkt + wszystkie ceny sprzedawców + specyfikacje) dla 40 produktów w mniej niż 5 minut.

Krok 5: Wyeksportuj do Google Sheets, Excela, Airtable lub Notion

Kliknij „Export” i wybierz miejsce docelowe — , Excel, Airtable lub Notion. Wszystko za darmo. Dostępne są też pliki CSV i JSON.

Dwa kliknięcia, aby zebrać dane, jedno kliknięcie, aby je wyeksportować. Odpowiedni skrypt w Pythonie? Około 60 linii kodu, konfiguracja proxy, obsługa CAPTCHA i ciągłe utrzymanie.

Metoda 2: Pozyskiwanie danych z Google Shopping w Pythonie + SERP API

  • Poziom trudności: Średnio zaawansowany
  • Czas potrzebny: ~30 minut
  • Czego potrzebujesz: Python 3.10+, biblioteki requests i pandas, klucz do SERP API (ScraperAPI, SerpApi lub podobne)

Jeśli potrzebujesz programowego, powtarzalnego dostępu do danych z Google Shopping, SERP API to najpewniejsze podejście w Pythonie. Mechanizmy antybotowe, renderowanie JavaScript, rotacja proxy — wszystko dzieje się w tle. Wysyłasz zapytanie HTTP i dostajesz z powrotem uporządkowany JSON.

Krok 1: Przygotuj środowisko Python

Zainstaluj Python 3.12 (najbezpieczniejszy domyślny wybór produkcyjny na lata 2025–2026) oraz wymagane pakiety:

1pip install requests pandas

Zarejestruj się u dostawcy SERP API. oferuje 100 darmowych wyszukiwań miesięcznie; daje 5000 darmowych kredytów. Pobierz klucz API z panelu.

Krok 2: Skonfiguruj zapytanie do API

Oto minimalny przykład z użyciem endpointu Google Shopping w ScraperAPI:

1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5resp = requests.get(
6    "https://api.scraperapi.com/structured/google/shopping",
7    params={"api_key": API_KEY, "query": query, "country_code": "us"}
8)
9data = resp.json()

API zwraca uporządkowany JSON z polami takimi jak title, price, link, thumbnail, source (sprzedawca) i rating.

Krok 3: Sparsuj odpowiedź JSON i wyodrębnij pola

1products = data.get("shopping_results", [])
2rows = []
3for p in products:
4    rows.append({
5        "title": p.get("title"),
6        "price": p.get("price"),
7        "seller": p.get("source"),
8        "rating": p.get("rating"),
9        "reviews": p.get("reviews"),
10        "link": p.get("link"),
11        "thumbnail": p.get("thumbnail"),
12    })
13df = pd.DataFrame(rows)

Krok 4: Wyeksportuj do CSV lub JSON

1df.to_csv("google_shopping_results.csv", index=False)

Dobre do pracy wsadowej: możesz przejść przez 50 słów kluczowych i zbudować pełny zbiór danych w jednym uruchomieniu skryptu. Minusem są koszty — SERP API naliczają opłaty za zapytanie, a przy tysiącach zapytań dziennie rachunek szybko rośnie. Więcej o cenach poniżej.

Metoda 3: Pozyskiwanie danych z Google Shopping w Pythonie + Playwright (automatyzacja przeglądarki)

  • Poziom trudności: Zaawansowany
  • Czas potrzebny: ~1 godzina+ (plus bieżące utrzymanie)
  • Czego potrzebujesz: Python 3.10+, Playwright, proxy typu residential, cierpliwość

Podejście „pełna kontrola”. Uruchamiasz prawdziwą przeglądarkę, przechodzisz do Google Shopping i pobierasz dane z wyrenderowanej strony. Najbardziej elastyczne, ale też najbardziej kruche — systemy antybotowe Google są agresywne, a struktura strony zmienia się kilka razy w roku.

Uczciwe ostrzeżenie: rozmawiałem z użytkownikami, którzy tygodniami walczyli z CAPTCHA i blokadami IP przy tym podejściu. Da się to zrobić, ale trzeba liczyć się z regularnym utrzymaniem.

Krok 1: Skonfiguruj Playwright i proxy

1pip install playwright
2playwright install chromium

Będziesz potrzebować proxy typu residential. Adresy IP z centrów danych są blokowane niemal natychmiast — jeden z użytkowników forum ujął to dosadnie: „Wszystkie IP AWS zostaną zablokowane albo dostaną CAPTCHA po 1/2 wyników”. Usługi takie jak Bright Data, Oxylabs czy Decodo oferują pule proxy residential od około 1–5 USD/GB.

Skonfiguruj Playwright z realistycznym user-agentem i swoim proxy:

1from playwright.sync_api import sync_playwright
2with sync_playwright() as p:
3    browser = p.chromium.launch(
4        headless=True,
5        proxy={"server": "http://your-proxy:port", "username": "user", "password": "pass"}
6    )
7    context = browser.new_context(
8        user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ..."
9    )
10    page = context.new_page()

Krok 2: Przejdź do Google Shopping i obsłuż zabezpieczenia antybotowe

Zbuduj adres URL Google Shopping i przejdź na stronę:

1query = "wireless noise cancelling headphones"
2url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
3page.goto(url, wait_until="networkidle")

Jeśli pojawi się europejski popup zgody na pliki cookie, obsłuż go:

1try:
2    page.click("button#L2AGLb", timeout=3000)
3except:
4    pass

Dodaj opóźnienia przypominające ludzkie działania — 2–5 sekund losowego czasu oczekiwania między ładowaniami stron. Systemy wykrywania Google wychwytują szybkie, powtarzalne wzorce żądań.

Krok 3: Przewijaj, przechodź między stronami i pobieraj dane o produktach

Google Shopping ładuje wyniki dynamicznie. Przewiń stronę, aby wymusić lazy loading, a następnie pobierz karty produktów:

1import time, random
2# Przewiń, aby wczytać wszystkie wyniki
3for _ in range(3):
4    page.evaluate("window.scrollBy(0, 1000)")
5    time.sleep(random.uniform(1.5, 3.0))
6# Pobierz karty produktów
7cards = page.query_selector_all("[jsname='ZvZkAe']")
8results = []
9for card in cards:
10    title = card.query_selector("h3")
11    price = card.query_selector("span.a8Pemb")
12    # ... pobierz pozostałe pola
13    results.append({
14        "title": title.inner_text() if title else None,
15        "price": price.inner_text() if price else None,
16    })

Ważna uwaga: powyższe selektory CSS są orientacyjne i będą się zmieniać. Google często rotuje nazwy klas. W latach 2024–2026 udokumentowano już trzy różne zestawy selektorów. Lepiej opierać się na stabilniejszych atrybutach, takich jak jsname, data-cid, tagach <h3> i img[alt], zamiast na nazwach klas.

Krok 4: Zapisz do CSV lub JSON

1import json
2from datetime import datetime
3filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
4with open(filename, "w") as f:
5    json.dump(results, f, indent=2)

Licz się z regularnym utrzymaniem tego skryptu. Gdy Google zmieni strukturę strony — a robi to kilka razy w roku — selektory przestaną działać i wracasz do debugowania.

Największy problem: CAPTCHA i blokady antybotowe

Na forach powtarza się ta sama historia: „Spędziłem kilka tygodni, ale poddałem się wobec metod antybotowych Google”. CAPTCHA i blokady IP to najczęstszy powód porzucania samodzielnych scraperów Google Shopping.

Jak Google blokuje scraperów i co z tym zrobić

Wyzwanie antybotaCo robi GoogleObejście
Fingerprinting IPBlokuje adresy IP z centrów danych po kilku żądaniachProxy residential lub scrapowanie w przeglądarce
CAPTCHAUruchamiane przy szybkim lub zautomatyzowanym wzorcu żądańOgraniczenie tempa (10–20 s między żądaniami), ludzkie opóźnienia, usługi rozwiązywania CAPTCHA
Renderowanie JavaScriptWyniki Shopping ładują się dynamicznie przez JSBezgłowa przeglądarka (Playwright) lub API, które renderuje JS
Wykrywanie user-agentaBlokuje typowe botowe user-agentyRotacja realistycznych, aktualnych stringów user-agent
Fingerprinting TLSWykrywa nietypowe sygnatury TLSUżyj curl_cffi z imitacją przeglądarki albo prawdziwej przeglądarki
Blokowanie IP AWS/cloudBlokuje znane zakresy IP dostawców chmurowychUnikaj całkowicie adresów z centrów danych

W styczniu 2025 Google uczynił wykonywanie JavaScript obowiązkowym dla wyników SERP i Shopping, — w tym pipeline’y używane przez SemRush i SimilarWeb. Następnie we wrześniu 2025 Google wycofał starsze adresy URL stron produktowych, przekierowując je do nowej powierzchni „Immersive Product”, która ładuje się przez asynchroniczny AJAX. Każdy poradnik napisany przed końcem 2025 roku jest dziś w dużej mierze nieaktualny.

Jak każda metoda radzi sobie z tymi wyzwaniami

SERP API załatwiają wszystko w tle — proxy, renderowanie, rozwiązywanie CAPTCHA. Nie musisz o tym myśleć.

Thunderbit Cloud Scraping korzysta z rozproszonej infrastruktury chmurowej w USA, UE i Azji, aby automatycznie obsługiwać renderowanie JS i zabezpieczenia antybotowe. Tryb Browser Scraping używa twojej własnej uwierzytelnionej sesji Chrome, co całkowicie omija wykrywanie, bo wygląda jak zwykłe przeglądanie strony przez użytkownika.

Samodzielny Playwright przerzuca cały ciężar na ciebie — zarządzanie proxy, strojenie opóźnień, rozwiązywanie CAPTCHA, utrzymanie selektorów i ciągłe monitorowanie awarii.

Prawdziwy koszt pozyskiwania danych z Google Shopping: uczciwe porównanie

„50 dolarów za około 20 tys. żądań… trochę drogo jak na mój projekt hobbystyczny.” Taka skarga pojawia się w forach bardzo często. Ale w tych rozmowach zwykle pomija się największy koszt ze wszystkich.

Tabela porównania kosztów

PodejścieKoszt początkowySzacunkowy koszt za zapytanieNakład utrzymaniowyUkryte koszty
DIY Python (bez proxy)Za darmo0 USDWYSOKI (awarie, CAPTCHA)Twój czas na debugowanie
DIY Python + proxy residentialDarmowy kod~1–5 USD/GBŚREDNI-WYSOKIOpłaty dostawcy proxy
SERP API (SerpApi, ScraperAPI)Ograniczony plan darmowy~0,50–5,00 USD/1 tys. zapytańNISKISzybko rośnie przy dużej skali
Rozszerzenie Thunderbit ChromePlan darmowy (6 stron)Oparte na kredytach, ~1 kredyt/wierszBARDZO NISKIPłatny plan przy większym wolumenie
Thunderbit Open API (Extract)Oparte na kredytach~20 kredytów/stronęNISKIPłatność za każde pobranie

Ukryty koszt, który wszyscy ignorują: twój czas

Rozwiązanie DIY za 0 USD, które pochłania 40 godzin debugowania, nie jest darmowe. Przy stawce 50 USD/h to 2000 USD kosztu pracy — za scraper, który może znowu się zepsuć w następnym miesiącu, gdy Google zmieni DOM.

google-shopping-cost-vs (2).png

Analiza Technology Outlook od McKinsey pokazuje, że . Poniżej tego progu tworzenie rozwiązania in-house „pochłania budżet bez zwrotu z inwestycji”. Dla większości zespołów ecommerce wykonujących od kilkuset do kilku tysięcy zapytań tygodniowo narzędzie bez kodu albo SERP API jest znacznie bardziej opłacalne niż budowanie własnego rozwiązania.

Jak ustawić automatyczne monitorowanie cen w Google Shopping

Większość poradników traktuje scrapowanie jako jednorazowe zadanie. Prawdziwy przypadek użycia dla zespołów ecommerce to ciągłe, automatyczne monitorowanie. Nie potrzebujesz tylko dzisiejszych cen — potrzebujesz wczorajszych, zeszłotygodniowych i jutrzejszych.

Konfiguracja zaplanowanego scrapowania w Thunderbit

Thunderbit Scheduled Scraper pozwala opisać interwał czasu prostym językiem — „co dzień o 9:00” albo „w każdy poniedziałek i czwartek w południe” — a AI zamienia to w cykliczny harmonogram. Wprowadź adresy URL z Google Shopping, kliknij „Schedule” i gotowe.

Każde uruchomienie automatycznie eksportuje dane do Google Sheets, Airtable lub Notion. Efekt końcowy: arkusz, który codziennie uzupełnia się cenami konkurencji, gotowy do tabel przestawnych lub alertów.

Bez cron jobów. Bez zarządzania serwerem. Bez problemów z funkcjami Lambda. (Widziałem wpisy programistów, którzy przez kilka dni próbowali uruchomić Selenium na AWS Lambda — scheduler Thunderbit omija to wszystko.)

Więcej o tworzeniu znajdziesz w naszym osobnym, szczegółowym materiale.

Harmonogram w Pythonie (dla programistów)

Jeśli korzystasz z podejścia SERP API, możesz planować uruchomienia za pomocą cron jobów (Linux/Mac), Harmonogramu zadań Windows albo schedulerów chmurowych, takich jak AWS Lambda czy Google Cloud Functions. Biblioteki Pythona, np. APScheduler, też się sprawdzą.

Minus: teraz to ty odpowiadasz za monitorowanie działania skryptu, obsługę błędów, rotację proxy według harmonogramu i aktualizację selektorów, gdy Google zmieni stronę. Dla większości zespołów czas inżynierski poświęcony na utrzymanie zaplanowanego scrapera w Pythonie przewyższa koszt dedykowanego narzędzia.

Wskazówki i najlepsze praktyki przy scrapowaniu danych z Google Shopping

Niezależnie od metody, kilka zasad oszczędzi ci sporo nerwów.

Szanuj limity żądań

Nie zasypuj Google setkami szybkich żądań — zostaniesz zablokowany, a twój adres IP może pozostać oznaczony przez jakiś czas. Metody DIY: rozstawiaj żądania co 10–20 sekund z losowym rozrzutem. Narzędzia i API robią to za ciebie.

Dopasuj metodę do skali

Szybki przewodnik decyzyjny:

  • < 10 zapytań/tydzień → darmowy plan Thunderbit albo darmowy plan SerpApi
  • 10–1 000 zapytań/tydzień → płatny plan SERP API albo
  • 1 000+ zapytań/tydzień → plan enterprise SERP API albo Thunderbit Open API

Oczyść i zweryfikuj dane

Ceny zawierają symbole walut, formatowanie zależne od regionu (1.299,00 € vs $1,299.00) i czasem przypadkowe śmieciowe znaki. Użyj Field AI Prompts w Thunderbit, aby normalizować dane już podczas ekstrakcji, albo wyczyść je później w pandas:

1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)

Sprawdź duplikaty między wynikami organicznymi i sponsorowanymi — często się pokrywają. Usuwaj duplikaty na podstawie krotki (title, price, seller).

Zwróć uwagę na kwestie prawne

Scrapowanie publicznie dostępnych danych produktowych jest zazwyczaj legalne, ale otoczenie prawne szybko się zmienia. Najważniejszy ostatni rozwój: na podstawie DMCA § 1201 za obchodzenie systemu antyscrapingowego Google „SearchGuard”. To nowy kierunek egzekwowania prawa, który omija linie obrony ukształtowane w starszych sprawach, takich jak hiQ v. LinkedIn i Van Buren v. United States.

Praktyczne zasady:

  • Pozyskuj wyłącznie publicznie dostępne dane — nie loguj się, aby uzyskać dostęp do treści ograniczonych
  • Nie pobieraj danych osobowych (imion recenzentów, danych konta)
  • Pamiętaj, że regulamin Google zabrania automatycznego dostępu — użycie SERP API lub rozszerzenia przeglądarki zmniejsza ryzyko, ale go całkowicie nie eliminuje
  • Przy działaniach w UE pamiętaj o RODO, choć oferty produktów to w zdecydowanej większości nieosobowe dane handlowe
  • Jeśli budujesz komercyjny produkt na danych z scrapingu, rozważ konsultację prawną

Głębsze omówienie znajdziesz w naszym osobnym artykule.

Którą metodę wybrać do pozyskiwania danych z Google Shopping?

Po przetestowaniu wszystkich trzech podejść na tych samych kategoriach produktów, oto do jakiego wniosku doszedłem:

Jeśli jesteś użytkownikiem nietechnicznym i potrzebujesz danych szybko — wybierz Thunderbit. Otwórz Google Shopping, kliknij dwa razy, wyeksportuj. Czysty arkusz będziesz mieć w mniej niż 5 minut. pozwala przetestować wszystko bez zobowiązań, a funkcja scrapowania podstron daje bogatsze dane niż większość skryptów w Pythonie.

Jeśli jesteś programistą i potrzebujesz powtarzalnego, programowego dostępu — użyj SERP API. Niezawodność jest warta kosztu za zapytanie, a unikasz wszystkich problemów z antybotem. SerpApi ma najlepszą dokumentację; ScraperAPI ma najbardziej hojny plan darmowy.

Jeśli potrzebujesz maksymalnej kontroli i budujesz własny pipeline — Playwright działa, ale wchodź w to świadomie. Zarezerwuj dużo czasu na zarządzanie proxy, utrzymanie selektorów i obsługę CAPTCHA. W latach 2025–2026 minimalny sensowny zestaw obejścia to curl_cffi z imitacją Chrome + proxy residential + tempo 10–20 sekund. Zwykły skrypt requests z rotacją user-agentów jest już martwy.

Najlepsza metoda to ta, która dostarcza dokładne dane, nie zabierając ci całego tygodnia. Dla większości osób to nie 60-liniowy skrypt w Pythonie — to dwa kliknięcia.

Sprawdź , jeśli potrzebujesz większej skali, albo obejrzyj nasze poradniki na , aby zobaczyć workflow w praktyce.

Wypróbuj Thunderbit do scrapowania Google Shopping

FAQ

Czy scrapowanie danych z Google Shopping jest legalne?

Scrapowanie publicznie dostępnych danych produktowych jest zazwyczaj legalne, zgodnie z precedensami takimi jak hiQ v. LinkedIn i Van Buren v. United States. Jednak regulamin Google zabrania automatycznego dostępu, a pozew Google przeciwko SerpApi z grudnia 2025 wprowadził nową teorię obejścia w ramach DMCA § 1201. Korzystanie z renomowanych narzędzi i API zmniejsza ryzyko. W zastosowaniach komercyjnych warto skonsultować się z prawnikiem.

Czy mogę scrapować Google Shopping bez blokady?

Tak, ale kluczowa jest metoda. SERP API automatycznie obsługują zabezpieczenia antybotowe. Cloud Scraping w Thunderbit korzysta z rozproszonej infrastruktury, aby unikać blokad, a tryb Browser Scraping używa twojej własnej sesji Chrome (co wygląda jak zwykłe przeglądanie). Samodzielne skrypty w Pythonie wymagają proxy residential, ludzkich opóźnień i zarządzania fingerprintem TLS — a i tak blokady są częste.

Jaki jest najprostszy sposób na pozyskanie danych z Google Shopping?

Rozszerzenie Chrome Thunderbit. Wejdź do Google Shopping, kliknij „AI Suggest Fields”, kliknij „Scrape” i wyeksportuj dane do Google Sheets lub Excela. Bez kodu, bez kluczy API, bez konfiguracji proxy. Cały proces zajmuje około 2 minut.

Jak często mogę scrapować Google Shopping do monitorowania cen?

W przypadku Thunderbit Scheduled Scraper możesz ustawić monitoring dzienny, tygodniowy lub w niestandardowym interwale, opisując go prostym językiem. Przy SERP API częstotliwość zależy od limitów kredytów w planie — większość dostawców oferuje wystarczająco dużo na codzienne monitorowanie kilkuset SKU. Skrypty DIY mogą działać tak często, jak pozwala infrastruktura, ale większa częstotliwość oznacza więcej problemów z antybotem.

Czy mogę wyeksportować dane z Google Shopping do Google Sheets lub Excela?

Tak. Thunderbit eksportuje bezpośrednio do Google Sheets, Excela, Airtable i Notion za darmo. Skrypty w Pythonie mogą eksportować do CSV lub JSON, które potem importujesz do dowolnego narzędzia arkuszowego. Przy stałym monitoringu zaplanowane eksporty Thunderbit do Google Sheets tworzą żywy, automatycznie aktualizujący się zbiór danych.

  • Dowiedz się więcej
Topics
Scrape Google shopping with pythonPython google shopping scraperGoogle shopping data extraction pythonScrape product prices from google shopping python
Spis treści

Wypróbuj Thunderbit

Pobieraj leady i inne dane w zaledwie 2 kliknięcia. Napędzane przez AI.

Pobierz Thunderbit To za darmo
Wyciągaj dane z pomocą AI
Łatwo przenieś dane do Google Sheets, Airtable lub Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week