Jak pobierać dane z Google Shopping — z kodem lub bez

Ostatnia aktualizacja: April 14, 2026

Google Shopping obsługuje ponad . To ogromna ilość danych o cenach, trendach produktowych i sprzedawcach — wszystko już czeka w Twojej przeglądarce, zebrane z tysięcy sklepów.

Wyciągnięcie tych danych z Google Shopping do arkusza kalkulacyjnego? Tu właśnie zaczynają się schody. Spędziłem sporo czasu testując różne podejścia — od no-code’owych rozszerzeń do przeglądarki po pełne skrypty w Pythonie — i doświadczenie waha się od „wow, to było banalnie proste” do „od trzech dni debuguję CAPTCHA i mam dość”. Większość poradników zakłada, że jesteś programistą Pythona, ale z mojego doświadczenia wynika, że ogromna część osób potrzebujących danych z Google Shopping to operatorzy e-commerce, analitycy cen i marketerzy, którzy po prostu chcą dostać liczby, bez pisania kodu. Dlatego w tym przewodniku opisuję trzy metody — od najprostszej do najbardziej technicznej — żebyś mógł wybrać ścieżkę dopasowaną do swoich umiejętności i czasu.

Czym są dane z Google Shopping?

Google Shopping to wyszukiwarka produktów. Wpisujesz „bezprzewodowe słuchawki z redukcją szumów”, a Google wyświetla oferty z dziesiątek sklepów online — tytuły produktów, ceny, sprzedawców, oceny, zdjęcia, linki. Na żywo, stale aktualizowany katalog tego, co jest dostępne w całym internecie.

Po co pobierać dane z Google Shopping?

Jedna karta produktu mówi niewiele. Setki kart ułożone w arkuszu pokazują dopiero prawdziwy obraz sytuacji.

google-shopping-manual-vs-auto (1).png

Oto najczęstsze zastosowania, które widziałem:

ZastosowanieKto na tym zyskujeCzego szukasz
Analiza cen konkurencjiZespoły e-commerce, analitycy cenCeny konkurencji, wzorce promocji, zmiany cen w czasie
Analiza trendów produktowychZespoły marketingowe, product managerowieNowe produkty, rosnące kategorie, tempo zbierania recenzji
Analiza reklamMenedżerowie PPC, zespoły growthOferty sponsorowane, którzy sprzedawcy licytują, częstotliwość reklam
Badanie sprzedawców / leadówZespoły sprzedaży, B2BAktywni sprzedawcy, nowi gracze wchodzący do kategorii
Monitoring MAPBrand managerowieDetaliści łamiący politykę minimalnej ceny reklamowanej
Monitorowanie stanów i asortymentuMenedżerowie kategoriiDostępność produktów, luki w ofercie

korzysta już z narzędzi cenowych opartych na AI. Firmy inwestujące w inteligencję cenową konkurencji raportowały zwroty nawet 29x. Amazon aktualizuje ceny mniej więcej co 10 minut. Jeśli nadal sprawdzasz ceny konkurencji ręcznie, matematyka jest przeciwko Tobie.

Thunderbit to rozszerzenie Chrome typu AI Web Scraper, które pomaga użytkownikom biznesowym pobierać dane ze stron internetowych z wykorzystaniem AI. Jest szczególnie przydatne dla operatorów e-commerce, analityków cen i marketerów, którzy chcą uporządkowanych danych z Google Shopping bez pisania kodu.

Jakie dane naprawdę da się pobrać z Google Shopping?

Zanim wybierzesz narzędzie albo napiszesz choćby jedną linię kodu, warto wiedzieć, jakie dokładnie pola są dostępne — i które z nich wymagają dodatkowej pracy.

Pola z wyników wyszukiwania Google Shopping

Gdy wykonasz wyszukiwanie w Google Shopping, każda karta produktu na stronie wyników zawiera:

PoleTypPrzykładUwagi
Tytuł produktuTekst"Sony WH-1000XM5 Wireless Headphones"Zawsze obecny
CenaLiczba278,00 $Może pokazywać cenę promocyjną i pierwotną
Sprzedawca / sklepTekst"Best Buy"Jeden produkt może mieć wielu sprzedawców
OcenaLiczba4,7W skali 5 gwiazdek; nie zawsze widoczna
Liczba recenzjiLiczba12 453Czasem brak przy nowszych produktach
URL obrazu produktuURLhttps://...Przy pierwszym wczytaniu może zwracać placeholder base64
Link do produktuURLhttps://...Prowadzi do strony produktu w Google lub bezpośrednio do sklepu
Informacje o dostawieTekst"Darmowa dostawa"Nie zawsze obecne
Oznaczenie sponsorowaneBooleanTak/NieWskazuje płatne wyróżnienie — przydatne do analizy reklam

Pola ze stron szczegółów produktu (dane podstron)

Jeśli klikniesz w kartę konkretnego produktu w Google Shopping, uzyskasz bogatszy zestaw danych:

PoleTypUwagi
Pełny opisTekstWymaga wejścia na stronę produktu
Wszystkie ceny sprzedawcówLiczba (wiele)Porównanie cen obok siebie u różnych sprzedawców
SpecyfikacjaTekstZależy od kategorii produktu (wymiary, waga itp.)
Treść pojedynczych recenzjiTekstPełna treść opinii kupujących
Podsumowanie zalet i wadTekstGoogle czasem generuje je automatycznie

Dostęp do tych pól oznacza wejście na podstronę każdego produktu po pobraniu wyników wyszukiwania. Narzędzia z funkcją robią to automatycznie — poniżej pokażę Ci cały proces.

Trzy sposoby na pobieranie danych z Google Shopping (wybierz własną ścieżkę)

thunderbit-web-scraping-paths.png

Trzy metody, od najprostszej do najbardziej technicznej. Wybierz wiersz, który pasuje do Twojej sytuacji, i przejdź dalej:

MetodaPoziom trudnościCzas konfiguracjiObsługa anti-botDla kogo najlepiej
Bez kodu (Thunderbit Chrome Extension)Początkujący~2 minutyObsługiwane automatycznieE-commerce, marketerzy, jednorazowy research
Python + SERP APIŚrednio zaawansowany~30 minutObsługiwane przez APIProgramiści potrzebujący powtarzalnego dostępu
Python + Playwright (automatyzacja przeglądarki)Zaawansowany~1 godzina+Obsługujesz samodzielnieWłasne pipeline’y, obsługa wyjątkowych przypadków

Metoda 1: Pobieranie danych z Google Shopping bez kodu (z Thunderbit)

  • Trudność: Początkujący
  • Czas potrzebny: ~2–5 minut
  • Czego potrzebujesz: Przeglądarka Chrome, (darmowy plan wystarczy), zapytanie w Google Shopping

Najszybsza droga od „potrzebuję danych z Google Shopping” do „oto mój arkusz”. Bez kodu, bez kluczy API, bez konfiguracji proxy. Przeprowadzałem przez ten proces nietechnicznych współpracowników dziesiątki razy — i nikt nie utknął.

Krok 1: Zainstaluj Thunderbit i otwórz Google Shopping

Zainstaluj ze Chrome Web Store i załóż darmowe konto.

Następnie przejdź do Google Shopping. Możesz wejść bezpośrednio na shopping.google.com albo użyć zakładki Shopping w zwykłym wyszukiwaniu Google. Wyszukaj produkt lub kategorię, która Cię interesuje — na przykład „wireless noise-cancelling headphones”.

Powinieneś zobaczyć siatkę ofert z cenami, sprzedawcami i ocenami.

Krok 2: Kliknij „AI Suggest Fields”, aby automatycznie wykryć kolumny

Kliknij ikonę rozszerzenia Thunderbit, aby otworzyć panel boczny, a następnie wybierz „AI Suggest Fields.” AI przeskanuje stronę Google Shopping i zaproponuje kolumny: Product Title, Price, Seller, Rating, Review Count, Image URL, Product Link.

Sprawdź sugerowane pola. Możesz zmienić nazwy kolumn, usunąć te niepotrzebne albo dodać pola własne. Jeśli chcesz uzyskać coś bardziej precyzyjnego — na przykład „wyodrębnij tylko cenę liczbową bez symbolu waluty” — możesz dodać do danej kolumny Field AI Prompt.

W panelu Thunderbit zobaczysz podgląd struktury kolumn.

Krok 3: Kliknij „Scrape” i sprawdź wyniki

Naciśnij niebieski przycisk „Scrape”. Thunderbit pobierze wszystkie widoczne oferty do uporządkowanej tabeli.

Wiele stron? Thunderbit obsługuje paginację automatycznie — przechodzenie między stronami albo przewijanie w celu wczytania kolejnych wyników zależnie od układu strony. Jeśli wyników jest dużo, możesz wybrać między Cloud Scraping (szybsze, obsługuje do 50 stron jednocześnie, działa na rozproszonej infrastrukturze Thunderbit) a Browser Scraping (korzysta z Twojej własnej sesji Chrome — przydatne, jeśli Google pokazuje wyniki zależne od regionu albo wymaga logowania).

W moich testach pobranie 50 ofert zajmowało około 30 sekund. To samo ręcznie — otwieranie każdej oferty, kopiowanie tytułu, ceny, sprzedawcy i oceny — zajęłoby mi ponad 20 minut.

Krok 4: Rozszerz dane o informacje z podstron

Po pierwszym pobraniu kliknij „Scrape Subpages” w panelu Thunderbit. AI odwiedzi stronę szczegółów każdego produktu i doda do oryginalnej tabeli dodatkowe pola — pełne opisy, wszystkie ceny sprzedawców, specyfikacje i recenzje.

Bez dodatkowej konfiguracji — AI samodzielnie rozpoznaje strukturę strony szczegółów i pobiera odpowiednie dane. W ten sposób zbudowałem pełną macierz cen konkurencyjnych (produkt + wszystkie ceny sprzedawców + specyfikacje) dla 40 produktów w mniej niż 5 minut.

Krok 5: Eksportuj do Google Sheets, Excela, Airtable lub Notion

Kliknij „Export” i wybierz miejsce docelowe — , Excel, Airtable albo Notion. Wszystko za darmo. Dostępne są też pliki CSV i JSON.

Dwa kliknięcia, by pobrać dane, jedno kliknięcie, by je wyeksportować. A odpowiedni skrypt w Pythonie? Około 60 linii kodu, konfiguracja proxy, obsługa CAPTCHA i ciągłe utrzymanie.

Metoda 2: Pobieranie danych z Google Shopping w Pythonie + SERP API

  • Trudność: Średnio zaawansowany
  • Czas potrzebny: ~30 minut
  • Czego potrzebujesz: Python 3.10+, biblioteki requests i pandas, klucz API do SERP (ScraperAPI, SerpApi lub podobny)

Jeśli potrzebujesz programowego, powtarzalnego dostępu do danych z Google Shopping, SERP API to najpewniejsze podejście w Pythonie. Zabezpieczenia anty-bot, renderowanie JavaScript, rotacja proxy — wszystko dzieje się w tle. Wysyłasz żądanie HTTP i dostajesz uporządkowany JSON.

Krok 1: Skonfiguruj środowisko Pythona

Zainstaluj Python 3.12 (najbezpieczniejszy domyślny wybór produkcyjny na lata 2025–2026) oraz wymagane pakiety:

1pip install requests pandas

Załóż konto u dostawcy SERP API. oferuje 100 darmowych wyszukiwań miesięcznie; daje 5 000 darmowych kredytów. Pobierz klucz API z panelu.

Krok 2: Skonfiguruj zapytanie do API

Poniżej minimalny przykład z użyciem endpointu Google Shopping w ScraperAPI:

1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5resp = requests.get(
6    "https://api.scraperapi.com/structured/google/shopping",
7    params={"api_key": API_KEY, "query": query, "country_code": "us"}
8)
9data = resp.json()

API zwróci uporządkowany JSON z polami takimi jak title, price, link, thumbnail, source (sprzedawca) i rating.

Krok 3: Sparsuj odpowiedź JSON i wyodrębnij pola

1products = data.get("shopping_results", [])
2rows = []
3for p in products:
4    rows.append({
5        "title": p.get("title"),
6        "price": p.get("price"),
7        "seller": p.get("source"),
8        "rating": p.get("rating"),
9        "reviews": p.get("reviews"),
10        "link": p.get("link"),
11        "thumbnail": p.get("thumbnail"),
12    })
13df = pd.DataFrame(rows)

Krok 4: Wyeksportuj do CSV lub JSON

1df.to_csv("google_shopping_results.csv", index=False)

Dobre do pracy wsadowej: możesz przejść przez 50 słów kluczowych i zbudować pełny zbiór danych w jednym uruchomieniu skryptu. Minusem jest koszt — SERP API pobierają opłatę za zapytanie, więc przy tysiącach zapytań dziennie rachunek szybko rośnie. O cenach więcej niżej.

Metoda 3: Pobieranie danych z Google Shopping w Pythonie + Playwright (automatyzacja przeglądarki)

  • Trudność: Zaawansowany
  • Czas potrzebny: ~1 godzina+ (plus bieżące utrzymanie)
  • Czego potrzebujesz: Python 3.10+, Playwright, proxy typu residential, cierpliwość

Podejście „pełna kontrola”. Uruchamiasz prawdziwą przeglądarkę, przechodzisz do Google Shopping i wyciągasz dane z wyrenderowanej strony. Najbardziej elastyczne, ale też najbardziej kruche — systemy anty-bot Google są agresywne, a struktura strony zmienia się kilka razy w roku.

Uwaga: rozmawiałem z użytkownikami, którzy spędzili tygodnie na walce z CAPTCHA i blokadami IP przy tym podejściu. Działa, ale wymaga stałego utrzymania.

Krok 1: Skonfiguruj Playwright i proxy

1pip install playwright
2playwright install chromium

Będziesz potrzebować proxy typu residential. Adresy z centrów danych są blokowane niemal od razu — jeden użytkownik forum ujął to dosadnie: „Wszystkie IP AWS zostaną zablokowane albo trafią na CAPTCHA po 1/2 wyników”. Usługi takie jak Bright Data, Oxylabs czy Decodo oferują pule proxy residential od około 1–5 USD/GB.

Skonfiguruj Playwright z realistycznym user-agentem i proxy:

1from playwright.sync_api import sync_playwright
2with sync_playwright() as p:
3    browser = p.chromium.launch(
4        headless=True,
5        proxy={"server": "http://your-proxy:port", "username": "user", "password": "pass"}
6    )
7    context = browser.new_context(
8        user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ..."
9    )
10    page = context.new_page()

Krok 2: Przejdź do Google Shopping i obejdź zabezpieczenia anti-bot

Zbuduj URL Google Shopping i przejdź na stronę:

1query = "wireless noise cancelling headphones"
2url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
3page.goto(url, wait_until="networkidle")

Obsłuż wyskakujące okno zgody na pliki cookie w UE, jeśli się pojawi:

1try:
2    page.click("button#L2AGLb", timeout=3000)
3except:
4    pass

Dodaj opóźnienia przypominające zachowanie człowieka — 2–5 sekund losowego oczekiwania między załadowaniami stron. Systemy wykrywania Google oznaczają szybkie, regularne wzorce żądań.

Krok 3: Przewijaj, przechodź między stronami i wyciągaj dane o produktach

Google Shopping wczytuje wyniki dynamicznie. Przewiń stronę, aby wywołać lazy loading, a potem pobierz karty produktów:

1import time, random
2# Przewiń, aby wczytać wszystkie wyniki
3for _ in range(3):
4    page.evaluate("window.scrollBy(0, 1000)")
5    time.sleep(random.uniform(1.5, 3.0))
6# Pobierz karty produktów
7cards = page.query_selector_all("[jsname='ZvZkAe']")
8results = []
9for card in cards:
10    title = card.query_selector("h3")
11    price = card.query_selector("span.a8Pemb")
12    # ... pobierz pozostałe pola
13    results.append({
14        "title": title.inner_text() if title else None,
15        "price": price.inner_text() if price else None,
16    })

Ważna uwaga: powyższe selektory CSS są orientacyjne i będą się zmieniać. Google często rotuje nazwy klas. W latach 2024–2026 udokumentowano już trzy różne zestawy selektorów. Lepiej opierać się na stabilniejszych atrybutach, takich jak jsname, data-cid, tagi <h3> i img[alt], niż na nazwach klas.

Krok 4: Zapisz do CSV lub JSON

1import json
2from datetime import datetime
3filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
4with open(filename, "w") as f:
5    json.dump(results, f, indent=2)

Musisz liczyć się z regularnym utrzymaniem tego skryptu. Gdy Google zmienia strukturę strony — a dzieje się to kilka razy w roku — selektory przestają działać i wracasz do debugowania.

Największy problem: CAPTCHA i blokady anti-bot

Na forach w kółko przewija się ta sama historia: „Spędziłem kilka tygodni, ale odpuściłem walkę z metodami anty-bot Google”. CAPTCHA i blokady IP to najczęstszy powód, dla którego ludzie porzucają własne scrapery do Google Shopping.

Jak Google blokuje scraperów (i co z tym zrobić)

Wyzwanie anti-botCo robi GoogleObejście
Fingerprinting IPBlokuje adresy z centrów danych po kilku żądaniachProxy residential lub scrapowanie w przeglądarce
CAPTCHAWywoływana przez szybkie lub zautomatyzowane wzorce żądańLimitowanie tempa (10–20 s między żądaniami), opóźnienia podobne do ludzkich, usługi rozwiązywania CAPTCHA
Renderowanie JavaScriptWyniki Shopping ładują się dynamicznie przez JSHeadless browser (Playwright) albo API renderujące JS
Wykrywanie user-agentBlokuje popularne user-agenty botówRotacja realistycznych, aktualnych stringów user-agent
Fingerprinting TLSWykrywa nienaturalne sygnatury TLSUżyj curl_cffi z imitacją przeglądarki albo prawdziwej przeglądarki
Blokowanie AWS / cloud IPBlokuje znane zakresy IP dostawców chmurowychUnikaj adresów z centrów danych całkowicie

W styczniu 2025 Google wymusił wykonywanie JavaScriptu dla wyników SERP i Shopping, — w tym pipeline’y używane przez SemRush i SimilarWeb. Następnie we wrześniu 2025 Google wycofał stare adresy URL stron szczegółów produktu, przekierowując je do nowego interfejsu „Immersive Product”, który ładuje się przez asynchroniczny AJAX. Każdy poradnik napisany przed końcem 2025 roku jest dziś w dużej mierze nieaktualny.

Jak każda metoda radzi sobie z tymi wyzwaniami

SERP API rozwiązują wszystko w tle — proxy, renderowanie, CAPTCHA. Nie musisz się tym przejmować.

Thunderbit Cloud Scraping korzysta z rozproszonej infrastruktury chmurowej w USA, UE i Azji, aby automatycznie obsługiwać renderowanie JS i zabezpieczenia anti-bot. Tryb Browser Scraping używa Twojej własnej zalogowanej sesji Chrome, co omija wykrywanie, bo wygląda jak zwykłe przeglądanie.

Samodzielny Playwright przerzuca na Ciebie cały ciężar — zarządzanie proxy, strojenie opóźnień, rozwiązywanie CAPTCHA, utrzymanie selektorów i ciągłe monitorowanie, czy coś się nie zepsuło.

Prawdziwy koszt pobierania danych z Google Shopping: uczciwe porównanie

„50 dolarów za około 20 tys. zapytań… trochę drogo jak na mój projekt hobbystyczny.” Tego typu komentarz pojawia się na forach bardzo często. Ale w tej dyskusji zwykle pomija się największy koszt ze wszystkich.

Tabela porównania kosztów

PodejścieKoszt początkowySzacowany koszt na zapytanieNakład na utrzymanieUkryte koszty
DIY Python (bez proxy)Darmowe0 USDWYSOKI (awarie, CAPTCHA)Twój czas na debugowanie
DIY Python + proxy residentialDarmowy kod~1–5 USD/GBŚREDNI-WYSOKIOpłaty dla dostawcy proxy
SERP API (SerpApi, ScraperAPI)Ograniczony darmowy plan~0,50–5,00 USD/1K zapytańNISKISzybko rośnie przy dużej skali
Thunderbit Chrome ExtensionDarmowy plan (6 stron)Oparty na kredytach, ~1 kredyt/wierszBARDZO NISKIPłatny plan przy większej skali
Thunderbit Open API (Extract)Oparty na kredytach~20 kredytów/stronaNISKIPłatność za każdą ekstrakcję

Ukryty koszt, który wszyscy ignorują: Twój czas

Rozwiązanie DIY za 0 dolarów, które pochłania 40 godzin debugowania, nie jest darmowe. Przy stawce 50 USD/h to 2 000 USD pracy — za scraper, który może się znowu zepsuć w przyszłym miesiącu, gdy Google zmieni DOM.

google-shopping-cost-vs (2).png

Badanie McKinsey Technology Outlook pokazuje, że . Poniżej tego poziomu tworzenie własnego rozwiązania „pochłania budżet bez zwrotu z inwestycji”. Dla większości zespołów e-commerce wykonujących od kilkuset do kilku tysięcy odpytań tygodniowo narzędzie bez kodu albo SERP API jest wyraźnie bardziej opłacalne niż budowanie własnego rozwiązania.

Jak ustawić automatyczne monitorowanie cen w Google Shopping

Większość poradników traktuje scrapowanie jako jednorazowe zadanie. Prawdziwy przypadek użycia dla zespołów e-commerce to ciągły, automatyczny monitoring. Nie potrzebujesz tylko dzisiejszych cen — potrzebujesz wczorajszych, zeszłotygodniowych i jutrzejszych.

Ustawianie zaplanowanego scrapowania w Thunderbit

Thunderbit Scheduled Scraper pozwala opisać interwał czasowy zwykłym językiem — „codziennie o 9:00” albo „w każdy poniedziałek i czwartek o 12:00” — a AI zamienia to w cykliczny harmonogram. Wprowadź adresy URL z Google Shopping, kliknij „Schedule” i gotowe.

Każde uruchomienie automatycznie eksportuje dane do Google Sheets, Airtable lub Notion. Efekt końcowy: arkusz, który codziennie sam się uzupełnia cenami konkurencji i jest gotowy do tabel przestawnych lub alertów.

Bez cronów. Bez zarządzania serwerem. Bez problemów z funkcjami Lambda. (Widziałem wpisy na forach od programistów, którzy spędzili dni na próbach uruchomienia Selenium na AWS Lambda — harmonogram Thunderbit omija to wszystko.)

Więcej o budowaniu znajdziesz w osobnym, szczegółowym opracowaniu.

Planowanie w Pythonie (dla programistów)

Jeśli korzystasz z podejścia opartego na SERP API, możesz zaplanować uruchomienia za pomocą cronów (Linux/Mac), Harmonogramu zadań Windows albo schedulerów chmurowych, takich jak AWS Lambda czy Google Cloud Functions. Pomogą też biblioteki Pythona, np. APScheduler.

Minus: to teraz Ty odpowiadasz za monitorowanie kondycji skryptu, obsługę błędów, rotację proxy zgodnie z harmonogramem i aktualizację selektorów, gdy Google zmieni stronę. Dla większości zespołów czas inżynierski potrzebny na utrzymanie zaplanowanego scrapera Pythona przewyższa koszt dedykowanego narzędzia.

Wskazówki i dobre praktyki przy pobieraniu danych z Google Shopping

Niezależnie od metody, kilka rzeczy oszczędzi Ci sporo nerwów.

Szanuj limity zapytań

Nie zasypuj Google setkami szybkich żądań — zostaniesz zablokowany, a IP może pozostać oznaczone na jakiś czas. Przy metodach DIY zostawiaj 10–20 sekund przerwy między zapytaniami z losowym rozrzutem. Narzędzia i API robią to za Ciebie.

Dopasuj metodę do skali

Szybki przewodnik decyzyjny:

  • < 10 zapytań/tydzień → darmowy plan Thunderbit lub darmowy plan SerpApi
  • 10–1 000 zapytań/tydzień → płatny plan SERP API lub
  • 1 000+ zapytań/tydzień → plan enterprise SERP API albo Thunderbit Open API

Czyść i weryfikuj dane

Ceny pojawiają się z symbolami waluty, formatowaniem zależnym od lokalizacji (1.299,00 € vs $1,299.00) i czasem z przypadkowymi znakami śmieciowymi. Użyj Field AI Prompts w Thunderbit, aby normalizować dane już podczas ekstrakcji, albo wyczyść je później w pandas:

1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)

Sprawdź duplikaty między wynikami organicznymi a sponsorowanymi — często się pokrywają. Usuwaj duplikaty według krotki (title, price, seller).

Zadbaj o aspekt prawny

Scrapowanie publicznie dostępnych danych produktowych jest zazwyczaj legalne, ale otoczenie prawne szybko się zmienia. Najważniejszy ostatni rozwój: na podstawie DMCA § 1201 za obejście systemu anty-scrapingowego „SearchGuard”. To nowa ścieżka egzekwowania, która omija linie obrony ustalone we wcześniejszych sprawach, takich jak hiQ v. LinkedIn i Van Buren v. United States.

Praktyczne wskazówki:

  • Pobieraj wyłącznie publicznie dostępne dane — nie loguj się, by uzyskać treści z ograniczonym dostępem
  • Nie wyciągaj danych osobowych (nazw recenzentów, danych kont)
  • Pamiętaj, że regulamin Google zabrania zautomatyzowanego dostępu — korzystanie z SERP API lub rozszerzenia przeglądarki zmniejsza, ale nie eliminuje szarej strefy prawnej
  • W przypadku działań w UE miej na uwadze RODO, choć listingi produktowe to w zdecydowanej większości nieosobowe dane handlowe
  • Jeśli budujesz komercyjny produkt na podstawie zebranych danych, rozważ konsultację z prawnikiem

Jeśli chcesz głębiej poznać , opisaliśmy to w osobnym materiale.

Którą metodę wybrać do pobierania danych z Google Shopping?

Po przetestowaniu wszystkich trzech podejść na tych samych kategoriach produktów, mój wniosek jest taki:

Jeśli jesteś użytkownikiem nietechnicznym i potrzebujesz danych szybko — wybierz Thunderbit. Otwórz Google Shopping, kliknij dwa razy, wyeksportuj. W mniej niż 5 minut będziesz mieć czysty arkusz. pozwala sprawdzić narzędzie bez zobowiązań, a funkcja scrapowania podstron daje bogatsze dane niż większość skryptów w Pythonie.

Jeśli jesteś programistą i potrzebujesz powtarzalnego, programowego dostępu — wybierz SERP API. Niezawodność jest warta kosztu za zapytanie, a Ty omijasz wszystkie problemy anti-bot. SerpApi ma najlepszą dokumentację; ScraperAPI ma najbardziej hojny darmowy plan.

Jeśli potrzebujesz maksymalnej kontroli i budujesz własny pipeline — Playwright działa, ale wchodź w to ze świadomością kosztów. Zarezerwuj dużo czasu na zarządzanie proxy, utrzymanie selektorów i obsługę CAPTCHA. W latach 2025–2026 minimalny działający zestaw obejścia to curl_cffi z imitacją Chrome + proxy residential + tempo 10–20 sekund. Zwykły skrypt requests z rotującymi user-agentami jest już praktycznie martwy.

Najlepsza metoda to ta, która dostarcza dokładne dane, nie zabierając Ci całego tygodnia. Dla większości osób to nie 60-liniowy skrypt Pythona — tylko dwa kliknięcia.

Sprawdź , jeśli potrzebujesz większej skali, albo obejrzyj nasze poradniki na , żeby zobaczyć cały proces w praktyce.

Wypróbuj Thunderbit do pobierania danych z Google Shopping

FAQ

Czy pobieranie danych z Google Shopping jest legalne?

Pobieranie publicznie dostępnych danych produktowych jest zazwyczaj legalne na podstawie precedensów takich jak hiQ v. LinkedIn i Van Buren v. United States. Jednak regulamin Google zabrania zautomatyzowanego dostępu, a pozew Google przeciwko SerpApi z grudnia 2025 roku wprowadził nową teorię obejścia zabezpieczeń w oparciu o DMCA § 1201. Korzystanie z renomowanych narzędzi i API zmniejsza ryzyko. W zastosowaniach komercyjnych warto skonsultować się z prawnikiem.

Czy mogę pobierać dane z Google Shopping bez blokady?

Tak, ale kluczowa jest metoda. SERP API automatycznie obsługują zabezpieczenia anti-bot. Thunderbit Cloud Scraping korzysta z rozproszonej infrastruktury, aby unikać blokad, a tryb Browser Scraping używa Twojej własnej sesji Chrome (co wygląda jak zwykłe przeglądanie). Samodzielne skrypty w Pythonie wymagają proxy residential, ludzkich opóźnień i zarządzania fingerprintem TLS — i nawet wtedy blokady są częste.

Jaki jest najprostszy sposób na pobranie danych z Google Shopping?

Rozszerzenie Chrome od Thunderbit. Przejdź do Google Shopping, kliknij „AI Suggest Fields”, kliknij „Scrape” i wyeksportuj do Google Sheets lub Excela. Bez kodowania, bez kluczy API, bez konfiguracji proxy. Całość zajmuje około 2 minut.

Jak często mogę pobierać dane z Google Shopping do monitorowania cen?

Z Thunderbit Scheduled Scraper możesz ustawić monitoring dzienny, tygodniowy lub w niestandardowych odstępach, opisując je zwykłym językiem. W przypadku SERP API częstotliwość zależy od limitu kredytów w planie — większość dostawców oferuje wystarczająco dużo na codzienne monitorowanie kilkuset SKU. Skrypty DIY mogą działać tak często, jak pozwala infrastruktura, ale wyższa częstotliwość oznacza więcej problemów anti-bot.

Czy mogę wyeksportować dane z Google Shopping do Google Sheets lub Excela?

Tak. Thunderbit eksportuje bezpośrednio do Google Sheets, Excela, Airtable i Notion za darmo. Skrypty Pythona mogą eksportować do CSV lub JSON, które następnie możesz zaimportować do dowolnego narzędzia arkuszowego. W przypadku stałego monitoringu zaplanowane eksporty Thunderbit do Google Sheets tworzą żywy, automatycznie aktualizowany zbiór danych.

Shuai Guan
Shuai Guan
Co-founder/CEO @ Thunderbit. Passionate about cross section of AI and Automation. He's a big advocate of automation and loves making it more accessible to everyone. Beyond tech, he channels his creativity through a passion for photography, capturing stories one picture at a time.
Topics
Scrape Google shopping with pythonPython google shopping scraperGoogle shopping data extraction pythonScrape product prices from google shopping python
Spis treści

Wypróbuj Thunderbit

Zbieraj leady i inne dane w zaledwie 2 kliknięcia. Z pomocą AI.

Pobierz Thunderbit To za darmo
Wyciągaj dane z użyciem AI
Łatwo przenieś dane do Google Sheets, Airtable lub Notion
PRODUCT HUNT#1 Product of the Week