Google Shopping obsługuje ponad . To ogromna ilość danych o cenach, trendach produktowych i sprzedawcach — wszystko już czeka w Twojej przeglądarce, zebrane z tysięcy sklepów.
Wyciągnięcie tych danych z Google Shopping do arkusza kalkulacyjnego? Tu właśnie zaczynają się schody. Spędziłem sporo czasu testując różne podejścia — od no-code’owych rozszerzeń do przeglądarki po pełne skrypty w Pythonie — i doświadczenie waha się od „wow, to było banalnie proste” do „od trzech dni debuguję CAPTCHA i mam dość”. Większość poradników zakłada, że jesteś programistą Pythona, ale z mojego doświadczenia wynika, że ogromna część osób potrzebujących danych z Google Shopping to operatorzy e-commerce, analitycy cen i marketerzy, którzy po prostu chcą dostać liczby, bez pisania kodu. Dlatego w tym przewodniku opisuję trzy metody — od najprostszej do najbardziej technicznej — żebyś mógł wybrać ścieżkę dopasowaną do swoich umiejętności i czasu.
Czym są dane z Google Shopping?
Google Shopping to wyszukiwarka produktów. Wpisujesz „bezprzewodowe słuchawki z redukcją szumów”, a Google wyświetla oferty z dziesiątek sklepów online — tytuły produktów, ceny, sprzedawców, oceny, zdjęcia, linki. Na żywo, stale aktualizowany katalog tego, co jest dostępne w całym internecie.
Po co pobierać dane z Google Shopping?
Jedna karta produktu mówi niewiele. Setki kart ułożone w arkuszu pokazują dopiero prawdziwy obraz sytuacji.

Oto najczęstsze zastosowania, które widziałem:
| Zastosowanie | Kto na tym zyskuje | Czego szukasz |
|---|---|---|
| Analiza cen konkurencji | Zespoły e-commerce, analitycy cen | Ceny konkurencji, wzorce promocji, zmiany cen w czasie |
| Analiza trendów produktowych | Zespoły marketingowe, product managerowie | Nowe produkty, rosnące kategorie, tempo zbierania recenzji |
| Analiza reklam | Menedżerowie PPC, zespoły growth | Oferty sponsorowane, którzy sprzedawcy licytują, częstotliwość reklam |
| Badanie sprzedawców / leadów | Zespoły sprzedaży, B2B | Aktywni sprzedawcy, nowi gracze wchodzący do kategorii |
| Monitoring MAP | Brand managerowie | Detaliści łamiący politykę minimalnej ceny reklamowanej |
| Monitorowanie stanów i asortymentu | Menedżerowie kategorii | Dostępność produktów, luki w ofercie |
korzysta już z narzędzi cenowych opartych na AI. Firmy inwestujące w inteligencję cenową konkurencji raportowały zwroty nawet 29x. Amazon aktualizuje ceny mniej więcej co 10 minut. Jeśli nadal sprawdzasz ceny konkurencji ręcznie, matematyka jest przeciwko Tobie.
Thunderbit to rozszerzenie Chrome typu AI Web Scraper, które pomaga użytkownikom biznesowym pobierać dane ze stron internetowych z wykorzystaniem AI. Jest szczególnie przydatne dla operatorów e-commerce, analityków cen i marketerów, którzy chcą uporządkowanych danych z Google Shopping bez pisania kodu.
Jakie dane naprawdę da się pobrać z Google Shopping?
Zanim wybierzesz narzędzie albo napiszesz choćby jedną linię kodu, warto wiedzieć, jakie dokładnie pola są dostępne — i które z nich wymagają dodatkowej pracy.
Pola z wyników wyszukiwania Google Shopping
Gdy wykonasz wyszukiwanie w Google Shopping, każda karta produktu na stronie wyników zawiera:
| Pole | Typ | Przykład | Uwagi |
|---|---|---|---|
| Tytuł produktu | Tekst | "Sony WH-1000XM5 Wireless Headphones" | Zawsze obecny |
| Cena | Liczba | 278,00 $ | Może pokazywać cenę promocyjną i pierwotną |
| Sprzedawca / sklep | Tekst | "Best Buy" | Jeden produkt może mieć wielu sprzedawców |
| Ocena | Liczba | 4,7 | W skali 5 gwiazdek; nie zawsze widoczna |
| Liczba recenzji | Liczba | 12 453 | Czasem brak przy nowszych produktach |
| URL obrazu produktu | URL | https://... | Przy pierwszym wczytaniu może zwracać placeholder base64 |
| Link do produktu | URL | https://... | Prowadzi do strony produktu w Google lub bezpośrednio do sklepu |
| Informacje o dostawie | Tekst | "Darmowa dostawa" | Nie zawsze obecne |
| Oznaczenie sponsorowane | Boolean | Tak/Nie | Wskazuje płatne wyróżnienie — przydatne do analizy reklam |
Pola ze stron szczegółów produktu (dane podstron)
Jeśli klikniesz w kartę konkretnego produktu w Google Shopping, uzyskasz bogatszy zestaw danych:
| Pole | Typ | Uwagi |
|---|---|---|
| Pełny opis | Tekst | Wymaga wejścia na stronę produktu |
| Wszystkie ceny sprzedawców | Liczba (wiele) | Porównanie cen obok siebie u różnych sprzedawców |
| Specyfikacja | Tekst | Zależy od kategorii produktu (wymiary, waga itp.) |
| Treść pojedynczych recenzji | Tekst | Pełna treść opinii kupujących |
| Podsumowanie zalet i wad | Tekst | Google czasem generuje je automatycznie |
Dostęp do tych pól oznacza wejście na podstronę każdego produktu po pobraniu wyników wyszukiwania. Narzędzia z funkcją robią to automatycznie — poniżej pokażę Ci cały proces.
Trzy sposoby na pobieranie danych z Google Shopping (wybierz własną ścieżkę)

Trzy metody, od najprostszej do najbardziej technicznej. Wybierz wiersz, który pasuje do Twojej sytuacji, i przejdź dalej:
| Metoda | Poziom trudności | Czas konfiguracji | Obsługa anti-bot | Dla kogo najlepiej |
|---|---|---|---|---|
| Bez kodu (Thunderbit Chrome Extension) | Początkujący | ~2 minuty | Obsługiwane automatycznie | E-commerce, marketerzy, jednorazowy research |
| Python + SERP API | Średnio zaawansowany | ~30 minut | Obsługiwane przez API | Programiści potrzebujący powtarzalnego dostępu |
| Python + Playwright (automatyzacja przeglądarki) | Zaawansowany | ~1 godzina+ | Obsługujesz samodzielnie | Własne pipeline’y, obsługa wyjątkowych przypadków |
Metoda 1: Pobieranie danych z Google Shopping bez kodu (z Thunderbit)
- Trudność: Początkujący
- Czas potrzebny: ~2–5 minut
- Czego potrzebujesz: Przeglądarka Chrome, (darmowy plan wystarczy), zapytanie w Google Shopping
Najszybsza droga od „potrzebuję danych z Google Shopping” do „oto mój arkusz”. Bez kodu, bez kluczy API, bez konfiguracji proxy. Przeprowadzałem przez ten proces nietechnicznych współpracowników dziesiątki razy — i nikt nie utknął.
Krok 1: Zainstaluj Thunderbit i otwórz Google Shopping
Zainstaluj ze Chrome Web Store i załóż darmowe konto.
Następnie przejdź do Google Shopping. Możesz wejść bezpośrednio na shopping.google.com albo użyć zakładki Shopping w zwykłym wyszukiwaniu Google. Wyszukaj produkt lub kategorię, która Cię interesuje — na przykład „wireless noise-cancelling headphones”.
Powinieneś zobaczyć siatkę ofert z cenami, sprzedawcami i ocenami.
Krok 2: Kliknij „AI Suggest Fields”, aby automatycznie wykryć kolumny
Kliknij ikonę rozszerzenia Thunderbit, aby otworzyć panel boczny, a następnie wybierz „AI Suggest Fields.” AI przeskanuje stronę Google Shopping i zaproponuje kolumny: Product Title, Price, Seller, Rating, Review Count, Image URL, Product Link.
Sprawdź sugerowane pola. Możesz zmienić nazwy kolumn, usunąć te niepotrzebne albo dodać pola własne. Jeśli chcesz uzyskać coś bardziej precyzyjnego — na przykład „wyodrębnij tylko cenę liczbową bez symbolu waluty” — możesz dodać do danej kolumny Field AI Prompt.
W panelu Thunderbit zobaczysz podgląd struktury kolumn.
Krok 3: Kliknij „Scrape” i sprawdź wyniki
Naciśnij niebieski przycisk „Scrape”. Thunderbit pobierze wszystkie widoczne oferty do uporządkowanej tabeli.
Wiele stron? Thunderbit obsługuje paginację automatycznie — przechodzenie między stronami albo przewijanie w celu wczytania kolejnych wyników zależnie od układu strony. Jeśli wyników jest dużo, możesz wybrać między Cloud Scraping (szybsze, obsługuje do 50 stron jednocześnie, działa na rozproszonej infrastrukturze Thunderbit) a Browser Scraping (korzysta z Twojej własnej sesji Chrome — przydatne, jeśli Google pokazuje wyniki zależne od regionu albo wymaga logowania).
W moich testach pobranie 50 ofert zajmowało około 30 sekund. To samo ręcznie — otwieranie każdej oferty, kopiowanie tytułu, ceny, sprzedawcy i oceny — zajęłoby mi ponad 20 minut.
Krok 4: Rozszerz dane o informacje z podstron
Po pierwszym pobraniu kliknij „Scrape Subpages” w panelu Thunderbit. AI odwiedzi stronę szczegółów każdego produktu i doda do oryginalnej tabeli dodatkowe pola — pełne opisy, wszystkie ceny sprzedawców, specyfikacje i recenzje.
Bez dodatkowej konfiguracji — AI samodzielnie rozpoznaje strukturę strony szczegółów i pobiera odpowiednie dane. W ten sposób zbudowałem pełną macierz cen konkurencyjnych (produkt + wszystkie ceny sprzedawców + specyfikacje) dla 40 produktów w mniej niż 5 minut.
Krok 5: Eksportuj do Google Sheets, Excela, Airtable lub Notion
Kliknij „Export” i wybierz miejsce docelowe — , Excel, Airtable albo Notion. Wszystko za darmo. Dostępne są też pliki CSV i JSON.
Dwa kliknięcia, by pobrać dane, jedno kliknięcie, by je wyeksportować. A odpowiedni skrypt w Pythonie? Około 60 linii kodu, konfiguracja proxy, obsługa CAPTCHA i ciągłe utrzymanie.
Metoda 2: Pobieranie danych z Google Shopping w Pythonie + SERP API
- Trudność: Średnio zaawansowany
- Czas potrzebny: ~30 minut
- Czego potrzebujesz: Python 3.10+, biblioteki
requestsipandas, klucz API do SERP (ScraperAPI, SerpApi lub podobny)
Jeśli potrzebujesz programowego, powtarzalnego dostępu do danych z Google Shopping, SERP API to najpewniejsze podejście w Pythonie. Zabezpieczenia anty-bot, renderowanie JavaScript, rotacja proxy — wszystko dzieje się w tle. Wysyłasz żądanie HTTP i dostajesz uporządkowany JSON.
Krok 1: Skonfiguruj środowisko Pythona
Zainstaluj Python 3.12 (najbezpieczniejszy domyślny wybór produkcyjny na lata 2025–2026) oraz wymagane pakiety:
1pip install requests pandas
Załóż konto u dostawcy SERP API. oferuje 100 darmowych wyszukiwań miesięcznie; daje 5 000 darmowych kredytów. Pobierz klucz API z panelu.
Krok 2: Skonfiguruj zapytanie do API
Poniżej minimalny przykład z użyciem endpointu Google Shopping w ScraperAPI:
1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5resp = requests.get(
6 "https://api.scraperapi.com/structured/google/shopping",
7 params={"api_key": API_KEY, "query": query, "country_code": "us"}
8)
9data = resp.json()
API zwróci uporządkowany JSON z polami takimi jak title, price, link, thumbnail, source (sprzedawca) i rating.
Krok 3: Sparsuj odpowiedź JSON i wyodrębnij pola
1products = data.get("shopping_results", [])
2rows = []
3for p in products:
4 rows.append({
5 "title": p.get("title"),
6 "price": p.get("price"),
7 "seller": p.get("source"),
8 "rating": p.get("rating"),
9 "reviews": p.get("reviews"),
10 "link": p.get("link"),
11 "thumbnail": p.get("thumbnail"),
12 })
13df = pd.DataFrame(rows)
Krok 4: Wyeksportuj do CSV lub JSON
1df.to_csv("google_shopping_results.csv", index=False)
Dobre do pracy wsadowej: możesz przejść przez 50 słów kluczowych i zbudować pełny zbiór danych w jednym uruchomieniu skryptu. Minusem jest koszt — SERP API pobierają opłatę za zapytanie, więc przy tysiącach zapytań dziennie rachunek szybko rośnie. O cenach więcej niżej.
Metoda 3: Pobieranie danych z Google Shopping w Pythonie + Playwright (automatyzacja przeglądarki)
- Trudność: Zaawansowany
- Czas potrzebny: ~1 godzina+ (plus bieżące utrzymanie)
- Czego potrzebujesz: Python 3.10+, Playwright, proxy typu residential, cierpliwość
Podejście „pełna kontrola”. Uruchamiasz prawdziwą przeglądarkę, przechodzisz do Google Shopping i wyciągasz dane z wyrenderowanej strony. Najbardziej elastyczne, ale też najbardziej kruche — systemy anty-bot Google są agresywne, a struktura strony zmienia się kilka razy w roku.
Uwaga: rozmawiałem z użytkownikami, którzy spędzili tygodnie na walce z CAPTCHA i blokadami IP przy tym podejściu. Działa, ale wymaga stałego utrzymania.
Krok 1: Skonfiguruj Playwright i proxy
1pip install playwright
2playwright install chromium
Będziesz potrzebować proxy typu residential. Adresy z centrów danych są blokowane niemal od razu — jeden użytkownik forum ujął to dosadnie: „Wszystkie IP AWS zostaną zablokowane albo trafią na CAPTCHA po 1/2 wyników”. Usługi takie jak Bright Data, Oxylabs czy Decodo oferują pule proxy residential od około 1–5 USD/GB.
Skonfiguruj Playwright z realistycznym user-agentem i proxy:
1from playwright.sync_api import sync_playwright
2with sync_playwright() as p:
3 browser = p.chromium.launch(
4 headless=True,
5 proxy={"server": "http://your-proxy:port", "username": "user", "password": "pass"}
6 )
7 context = browser.new_context(
8 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ..."
9 )
10 page = context.new_page()
Krok 2: Przejdź do Google Shopping i obejdź zabezpieczenia anti-bot
Zbuduj URL Google Shopping i przejdź na stronę:
1query = "wireless noise cancelling headphones"
2url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
3page.goto(url, wait_until="networkidle")
Obsłuż wyskakujące okno zgody na pliki cookie w UE, jeśli się pojawi:
1try:
2 page.click("button#L2AGLb", timeout=3000)
3except:
4 pass
Dodaj opóźnienia przypominające zachowanie człowieka — 2–5 sekund losowego oczekiwania między załadowaniami stron. Systemy wykrywania Google oznaczają szybkie, regularne wzorce żądań.
Krok 3: Przewijaj, przechodź między stronami i wyciągaj dane o produktach
Google Shopping wczytuje wyniki dynamicznie. Przewiń stronę, aby wywołać lazy loading, a potem pobierz karty produktów:
1import time, random
2# Przewiń, aby wczytać wszystkie wyniki
3for _ in range(3):
4 page.evaluate("window.scrollBy(0, 1000)")
5 time.sleep(random.uniform(1.5, 3.0))
6# Pobierz karty produktów
7cards = page.query_selector_all("[jsname='ZvZkAe']")
8results = []
9for card in cards:
10 title = card.query_selector("h3")
11 price = card.query_selector("span.a8Pemb")
12 # ... pobierz pozostałe pola
13 results.append({
14 "title": title.inner_text() if title else None,
15 "price": price.inner_text() if price else None,
16 })
Ważna uwaga: powyższe selektory CSS są orientacyjne i będą się zmieniać. Google często rotuje nazwy klas. W latach 2024–2026 udokumentowano już trzy różne zestawy selektorów. Lepiej opierać się na stabilniejszych atrybutach, takich jak jsname, data-cid, tagi <h3> i img[alt], niż na nazwach klas.
Krok 4: Zapisz do CSV lub JSON
1import json
2from datetime import datetime
3filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
4with open(filename, "w") as f:
5 json.dump(results, f, indent=2)
Musisz liczyć się z regularnym utrzymaniem tego skryptu. Gdy Google zmienia strukturę strony — a dzieje się to kilka razy w roku — selektory przestają działać i wracasz do debugowania.
Największy problem: CAPTCHA i blokady anti-bot
Na forach w kółko przewija się ta sama historia: „Spędziłem kilka tygodni, ale odpuściłem walkę z metodami anty-bot Google”. CAPTCHA i blokady IP to najczęstszy powód, dla którego ludzie porzucają własne scrapery do Google Shopping.
Jak Google blokuje scraperów (i co z tym zrobić)
| Wyzwanie anti-bot | Co robi Google | Obejście |
|---|---|---|
| Fingerprinting IP | Blokuje adresy z centrów danych po kilku żądaniach | Proxy residential lub scrapowanie w przeglądarce |
| CAPTCHA | Wywoływana przez szybkie lub zautomatyzowane wzorce żądań | Limitowanie tempa (10–20 s między żądaniami), opóźnienia podobne do ludzkich, usługi rozwiązywania CAPTCHA |
| Renderowanie JavaScript | Wyniki Shopping ładują się dynamicznie przez JS | Headless browser (Playwright) albo API renderujące JS |
| Wykrywanie user-agent | Blokuje popularne user-agenty botów | Rotacja realistycznych, aktualnych stringów user-agent |
| Fingerprinting TLS | Wykrywa nienaturalne sygnatury TLS | Użyj curl_cffi z imitacją przeglądarki albo prawdziwej przeglądarki |
| Blokowanie AWS / cloud IP | Blokuje znane zakresy IP dostawców chmurowych | Unikaj adresów z centrów danych całkowicie |
W styczniu 2025 Google wymusił wykonywanie JavaScriptu dla wyników SERP i Shopping, — w tym pipeline’y używane przez SemRush i SimilarWeb. Następnie we wrześniu 2025 Google wycofał stare adresy URL stron szczegółów produktu, przekierowując je do nowego interfejsu „Immersive Product”, który ładuje się przez asynchroniczny AJAX. Każdy poradnik napisany przed końcem 2025 roku jest dziś w dużej mierze nieaktualny.
Jak każda metoda radzi sobie z tymi wyzwaniami
SERP API rozwiązują wszystko w tle — proxy, renderowanie, CAPTCHA. Nie musisz się tym przejmować.
Thunderbit Cloud Scraping korzysta z rozproszonej infrastruktury chmurowej w USA, UE i Azji, aby automatycznie obsługiwać renderowanie JS i zabezpieczenia anti-bot. Tryb Browser Scraping używa Twojej własnej zalogowanej sesji Chrome, co omija wykrywanie, bo wygląda jak zwykłe przeglądanie.
Samodzielny Playwright przerzuca na Ciebie cały ciężar — zarządzanie proxy, strojenie opóźnień, rozwiązywanie CAPTCHA, utrzymanie selektorów i ciągłe monitorowanie, czy coś się nie zepsuło.
Prawdziwy koszt pobierania danych z Google Shopping: uczciwe porównanie
„50 dolarów za około 20 tys. zapytań… trochę drogo jak na mój projekt hobbystyczny.” Tego typu komentarz pojawia się na forach bardzo często. Ale w tej dyskusji zwykle pomija się największy koszt ze wszystkich.
Tabela porównania kosztów
| Podejście | Koszt początkowy | Szacowany koszt na zapytanie | Nakład na utrzymanie | Ukryte koszty |
|---|---|---|---|---|
| DIY Python (bez proxy) | Darmowe | 0 USD | WYSOKI (awarie, CAPTCHA) | Twój czas na debugowanie |
| DIY Python + proxy residential | Darmowy kod | ~1–5 USD/GB | ŚREDNI-WYSOKI | Opłaty dla dostawcy proxy |
| SERP API (SerpApi, ScraperAPI) | Ograniczony darmowy plan | ~0,50–5,00 USD/1K zapytań | NISKI | Szybko rośnie przy dużej skali |
| Thunderbit Chrome Extension | Darmowy plan (6 stron) | Oparty na kredytach, ~1 kredyt/wiersz | BARDZO NISKI | Płatny plan przy większej skali |
| Thunderbit Open API (Extract) | Oparty na kredytach | ~20 kredytów/strona | NISKI | Płatność za każdą ekstrakcję |
Ukryty koszt, który wszyscy ignorują: Twój czas
Rozwiązanie DIY za 0 dolarów, które pochłania 40 godzin debugowania, nie jest darmowe. Przy stawce 50 USD/h to 2 000 USD pracy — za scraper, który może się znowu zepsuć w przyszłym miesiącu, gdy Google zmieni DOM.

Badanie McKinsey Technology Outlook pokazuje, że . Poniżej tego poziomu tworzenie własnego rozwiązania „pochłania budżet bez zwrotu z inwestycji”. Dla większości zespołów e-commerce wykonujących od kilkuset do kilku tysięcy odpytań tygodniowo narzędzie bez kodu albo SERP API jest wyraźnie bardziej opłacalne niż budowanie własnego rozwiązania.
Jak ustawić automatyczne monitorowanie cen w Google Shopping
Większość poradników traktuje scrapowanie jako jednorazowe zadanie. Prawdziwy przypadek użycia dla zespołów e-commerce to ciągły, automatyczny monitoring. Nie potrzebujesz tylko dzisiejszych cen — potrzebujesz wczorajszych, zeszłotygodniowych i jutrzejszych.
Ustawianie zaplanowanego scrapowania w Thunderbit
Thunderbit Scheduled Scraper pozwala opisać interwał czasowy zwykłym językiem — „codziennie o 9:00” albo „w każdy poniedziałek i czwartek o 12:00” — a AI zamienia to w cykliczny harmonogram. Wprowadź adresy URL z Google Shopping, kliknij „Schedule” i gotowe.
Każde uruchomienie automatycznie eksportuje dane do Google Sheets, Airtable lub Notion. Efekt końcowy: arkusz, który codziennie sam się uzupełnia cenami konkurencji i jest gotowy do tabel przestawnych lub alertów.
Bez cronów. Bez zarządzania serwerem. Bez problemów z funkcjami Lambda. (Widziałem wpisy na forach od programistów, którzy spędzili dni na próbach uruchomienia Selenium na AWS Lambda — harmonogram Thunderbit omija to wszystko.)
Więcej o budowaniu znajdziesz w osobnym, szczegółowym opracowaniu.
Planowanie w Pythonie (dla programistów)
Jeśli korzystasz z podejścia opartego na SERP API, możesz zaplanować uruchomienia za pomocą cronów (Linux/Mac), Harmonogramu zadań Windows albo schedulerów chmurowych, takich jak AWS Lambda czy Google Cloud Functions. Pomogą też biblioteki Pythona, np. APScheduler.
Minus: to teraz Ty odpowiadasz za monitorowanie kondycji skryptu, obsługę błędów, rotację proxy zgodnie z harmonogramem i aktualizację selektorów, gdy Google zmieni stronę. Dla większości zespołów czas inżynierski potrzebny na utrzymanie zaplanowanego scrapera Pythona przewyższa koszt dedykowanego narzędzia.
Wskazówki i dobre praktyki przy pobieraniu danych z Google Shopping
Niezależnie od metody, kilka rzeczy oszczędzi Ci sporo nerwów.
Szanuj limity zapytań
Nie zasypuj Google setkami szybkich żądań — zostaniesz zablokowany, a IP może pozostać oznaczone na jakiś czas. Przy metodach DIY zostawiaj 10–20 sekund przerwy między zapytaniami z losowym rozrzutem. Narzędzia i API robią to za Ciebie.
Dopasuj metodę do skali
Szybki przewodnik decyzyjny:
- < 10 zapytań/tydzień → darmowy plan Thunderbit lub darmowy plan SerpApi
- 10–1 000 zapytań/tydzień → płatny plan SERP API lub
- 1 000+ zapytań/tydzień → plan enterprise SERP API albo Thunderbit Open API
Czyść i weryfikuj dane
Ceny pojawiają się z symbolami waluty, formatowaniem zależnym od lokalizacji (1.299,00 € vs $1,299.00) i czasem z przypadkowymi znakami śmieciowymi. Użyj Field AI Prompts w Thunderbit, aby normalizować dane już podczas ekstrakcji, albo wyczyść je później w pandas:
1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)
Sprawdź duplikaty między wynikami organicznymi a sponsorowanymi — często się pokrywają. Usuwaj duplikaty według krotki (title, price, seller).
Zadbaj o aspekt prawny
Scrapowanie publicznie dostępnych danych produktowych jest zazwyczaj legalne, ale otoczenie prawne szybko się zmienia. Najważniejszy ostatni rozwój: na podstawie DMCA § 1201 za obejście systemu anty-scrapingowego „SearchGuard”. To nowa ścieżka egzekwowania, która omija linie obrony ustalone we wcześniejszych sprawach, takich jak hiQ v. LinkedIn i Van Buren v. United States.
Praktyczne wskazówki:
- Pobieraj wyłącznie publicznie dostępne dane — nie loguj się, by uzyskać treści z ograniczonym dostępem
- Nie wyciągaj danych osobowych (nazw recenzentów, danych kont)
- Pamiętaj, że regulamin Google zabrania zautomatyzowanego dostępu — korzystanie z SERP API lub rozszerzenia przeglądarki zmniejsza, ale nie eliminuje szarej strefy prawnej
- W przypadku działań w UE miej na uwadze RODO, choć listingi produktowe to w zdecydowanej większości nieosobowe dane handlowe
- Jeśli budujesz komercyjny produkt na podstawie zebranych danych, rozważ konsultację z prawnikiem
Jeśli chcesz głębiej poznać , opisaliśmy to w osobnym materiale.
Którą metodę wybrać do pobierania danych z Google Shopping?
Po przetestowaniu wszystkich trzech podejść na tych samych kategoriach produktów, mój wniosek jest taki:
Jeśli jesteś użytkownikiem nietechnicznym i potrzebujesz danych szybko — wybierz Thunderbit. Otwórz Google Shopping, kliknij dwa razy, wyeksportuj. W mniej niż 5 minut będziesz mieć czysty arkusz. pozwala sprawdzić narzędzie bez zobowiązań, a funkcja scrapowania podstron daje bogatsze dane niż większość skryptów w Pythonie.
Jeśli jesteś programistą i potrzebujesz powtarzalnego, programowego dostępu — wybierz SERP API. Niezawodność jest warta kosztu za zapytanie, a Ty omijasz wszystkie problemy anti-bot. SerpApi ma najlepszą dokumentację; ScraperAPI ma najbardziej hojny darmowy plan.
Jeśli potrzebujesz maksymalnej kontroli i budujesz własny pipeline — Playwright działa, ale wchodź w to ze świadomością kosztów. Zarezerwuj dużo czasu na zarządzanie proxy, utrzymanie selektorów i obsługę CAPTCHA. W latach 2025–2026 minimalny działający zestaw obejścia to curl_cffi z imitacją Chrome + proxy residential + tempo 10–20 sekund. Zwykły skrypt requests z rotującymi user-agentami jest już praktycznie martwy.
Najlepsza metoda to ta, która dostarcza dokładne dane, nie zabierając Ci całego tygodnia. Dla większości osób to nie 60-liniowy skrypt Pythona — tylko dwa kliknięcia.
Sprawdź , jeśli potrzebujesz większej skali, albo obejrzyj nasze poradniki na , żeby zobaczyć cały proces w praktyce.
FAQ
Czy pobieranie danych z Google Shopping jest legalne?
Pobieranie publicznie dostępnych danych produktowych jest zazwyczaj legalne na podstawie precedensów takich jak hiQ v. LinkedIn i Van Buren v. United States. Jednak regulamin Google zabrania zautomatyzowanego dostępu, a pozew Google przeciwko SerpApi z grudnia 2025 roku wprowadził nową teorię obejścia zabezpieczeń w oparciu o DMCA § 1201. Korzystanie z renomowanych narzędzi i API zmniejsza ryzyko. W zastosowaniach komercyjnych warto skonsultować się z prawnikiem.
Czy mogę pobierać dane z Google Shopping bez blokady?
Tak, ale kluczowa jest metoda. SERP API automatycznie obsługują zabezpieczenia anti-bot. Thunderbit Cloud Scraping korzysta z rozproszonej infrastruktury, aby unikać blokad, a tryb Browser Scraping używa Twojej własnej sesji Chrome (co wygląda jak zwykłe przeglądanie). Samodzielne skrypty w Pythonie wymagają proxy residential, ludzkich opóźnień i zarządzania fingerprintem TLS — i nawet wtedy blokady są częste.
Jaki jest najprostszy sposób na pobranie danych z Google Shopping?
Rozszerzenie Chrome od Thunderbit. Przejdź do Google Shopping, kliknij „AI Suggest Fields”, kliknij „Scrape” i wyeksportuj do Google Sheets lub Excela. Bez kodowania, bez kluczy API, bez konfiguracji proxy. Całość zajmuje około 2 minut.
Jak często mogę pobierać dane z Google Shopping do monitorowania cen?
Z Thunderbit Scheduled Scraper możesz ustawić monitoring dzienny, tygodniowy lub w niestandardowych odstępach, opisując je zwykłym językiem. W przypadku SERP API częstotliwość zależy od limitu kredytów w planie — większość dostawców oferuje wystarczająco dużo na codzienne monitorowanie kilkuset SKU. Skrypty DIY mogą działać tak często, jak pozwala infrastruktura, ale wyższa częstotliwość oznacza więcej problemów anti-bot.
Czy mogę wyeksportować dane z Google Shopping do Google Sheets lub Excela?
Tak. Thunderbit eksportuje bezpośrednio do Google Sheets, Excela, Airtable i Notion za darmo. Skrypty Pythona mogą eksportować do CSV lub JSON, które następnie możesz zaimportować do dowolnego narzędzia arkuszowego. W przypadku stałego monitoringu zaplanowane eksporty Thunderbit do Google Sheets tworzą żywy, automatycznie aktualizowany zbiór danych.