Google Shopping obsługuje ponad . To ogromna ilość danych o cenach, trendach produktowych i sprzedawcach — wszystko dostępne od ręki w przeglądarce, zebrane z tysięcy sklepów.
Wyciągnięcie tych danych z Google Shopping do arkusza kalkulacyjnego? Tu zaczynają się schody. Spędziłem sporo czasu, testując różne podejścia — od bezkodowych rozszerzeń do przeglądarki po pełne skrypty w Pythonie — i doświadczenie waha się od „wow, to było banalnie proste” do „od trzech dni debuguję CAPTCHA i mam dość”. Większość poradników zakłada, że jesteś programistą Pythona, ale z mojego doświadczenia wynika, że ogromna część osób potrzebujących danych z Google Shopping to operatorzy ecommerce, analitycy cenowi i marketerzy, którzy po prostu chcą dostać liczby bez pisania kodu. Dlatego ten przewodnik opisuje trzy metody, od najprostszej do najbardziej technicznej, abyś mógł wybrać ścieżkę dopasowaną do swoich umiejętności i czasu.
Czym są dane z Google Shopping?
Google Shopping to wyszukiwarka produktów. Wpisujesz „bezprzewodowe słuchawki z redukcją szumów”, a Google pokazuje oferty z dziesiątek sklepów internetowych — tytuły produktów, ceny, sprzedawców, oceny, zdjęcia, linki. To żywy katalog tego, co jest aktualnie dostępne w sprzedaży w całym internecie, stale aktualizowany.
Dlaczego warto pozyskiwać dane z Google Shopping?
Pojedyncza karta produktu niewiele mówi. Setki takich rekordów, uporządkowane w arkuszu, dopiero pokazują prawdziwe wzorce.

Oto najczęstsze zastosowania, które widuję:
| Przypadek użycia | Kto zyskuje | Czego szukasz |
|---|---|---|
| Analiza cen konkurencji | Zespoły ecommerce, analitycy cenowi | Ceny konkurencji, wzorce promocji, zmiany cen w czasie |
| Wykrywanie trendów produktowych | Zespoły marketingowe, product managerowie | Nowe produkty, rosnące kategorie, tempo przyrostu opinii |
| Analiza reklam | Menedżerowie PPC, zespoły growth | Oferty sponsorowane, którzy sprzedawcy licytują, częstotliwość reklam |
| Research sprzedawców i leadów | Zespoły sprzedaży, B2B | Aktywni sprzedawcy, nowi gracze w kategorii |
| Monitorowanie MAP | Brand managerowie | Sprzedawcy łamiący zasady minimalnej ceny reklamowanej |
| Śledzenie stanów i asortymentu | Category managerowie | Dostępność produktów, luki w asortymencie |
korzysta dziś z narzędzi cenowych opartych na AI. Firmy inwestujące w inteligencję cenową raportują zwroty sięgające nawet 29x. Amazon aktualizuje ceny mniej więcej co 10 minut. Jeśli nadal sprawdzasz ceny konkurencji ręcznie, matematyka nie jest po twojej stronie.
Thunderbit to rozszerzenie Chrome AI Web Scraper, które pomaga użytkownikom biznesowym pozyskiwać dane ze stron internetowych z wykorzystaniem AI. Jest szczególnie przydatne dla operatorów ecommerce, analityków cenowych i marketerów, którzy chcą uporządkowanych danych z Google Shopping bez pisania kodu.
Jakie dane naprawdę da się pozyskać z Google Shopping?
Zanim wybierzesz narzędzie albo napiszesz choćby jedną linię kodu, warto wiedzieć dokładnie, jakie pola są dostępne — i które z nich wymagają dodatkowej pracy.
Pola z wyników wyszukiwania Google Shopping
Gdy uruchomisz wyszukiwanie w Google Shopping, każda karta produktu na stronie wyników zawiera:
| Pole | Typ | Przykład | Uwagi |
|---|---|---|---|
| Tytuł produktu | Tekst | „Sony WH-1000XM5 Wireless Headphones” | Zawsze obecny |
| Cena | Liczba | 278,00 USD | Może pokazywać cenę promocyjną i pierwotną |
| Sprzedawca / sklep | Tekst | „Best Buy” | Dla jednego produktu może być kilku sprzedawców |
| Ocena | Liczba | 4,7 | W skali 5 gwiazdek; nie zawsze widoczna |
| Liczba opinii | Liczba | 12 453 | Czasem brak dla nowszych produktów |
| URL zdjęcia produktu | URL | https://... | Przy pierwszym ładowaniu może zwracać placeholder base64 |
| Link do produktu | URL | https://... | Prowadzi do strony produktu Google lub bezpośrednio do sklepu |
| Informacje o wysyłce | Tekst | „Darmowa dostawa” | Nie zawsze obecne |
| Oznaczenie sponsorowane | Boolean | Tak/Nie | Wskazuje płatne wyświetlenie — przydatne w analizie reklam |
Pola ze stron szczegółów produktu (dane z podstron)
Jeśli klikniesz w stronę szczegółów konkretnego produktu w Google Shopping, możesz uzyskać bogatszy zestaw danych:
| Pole | Typ | Uwagi |
|---|---|---|
| Pełny opis | Tekst | Wymaga wejścia na stronę produktu |
| Wszystkie ceny sprzedawców | Liczba (wiele) | Porównanie cen obok siebie między sklepami |
| Specyfikacja | Tekst | Zależy od kategorii produktu (wymiary, waga itp.) |
| Pojedyncze treści opinii | Tekst | Pełna treść recenzji kupujących |
| Podsumowanie zalet i wad | Tekst | Google czasem generuje je automatycznie |
Dostęp do tych pól oznacza przejście do podstrony każdego produktu po zebraniu wyników wyszukiwania. Narzędzia z funkcją robią to automatycznie — poniżej pokażę cały proces.
Trzy sposoby na pozyskanie danych z Google Shopping (wybierz swoją ścieżkę)

Trzy metody, od najprostszej do najbardziej technicznej. Wybierz wiersz, który pasuje do twojej sytuacji, i przejdź dalej:
| Metoda | Poziom umiejętności | Czas konfiguracji | Obsługa antybota | Dla kogo najlepsza |
|---|---|---|---|---|
| Bez kodu (Thunderbit Chrome Extension) | Początkujący | ~2 minuty | Obsługiwane automatycznie | Ecommerce, marketerzy, jednorazowe research’e |
| Python + SERP API | Średnio zaawansowany | ~30 minut | Obsługiwane przez API | Programiści potrzebujący programowego, powtarzalnego dostępu |
| Python + Playwright (automatyzacja przeglądarki) | Zaawansowany | ~1 godzina+ | Obsługujesz samodzielnie | Niestandardowe pipeline’y, obsługa przypadków brzegowych |
Metoda 1: Pozyskiwanie danych z Google Shopping bez kodu (z Thunderbit)
- Poziom trudności: Początkujący
- Czas potrzebny: ~2–5 minut
- Czego potrzebujesz: przeglądarki Chrome, (wersja darmowa wystarczy), zapytania wyszukiwania w Google Shopping
Najkrótsza droga od „potrzebuję danych z Google Shopping” do „oto mój arkusz”. Bez kodu, bez kluczy API, bez konfiguracji proxy. Wielokrotnie prowadziłem przez ten proces nietechnicznych członków zespołu — i nikomu nie sprawiło to problemu.
Krok 1: Zainstaluj Thunderbit i otwórz Google Shopping
Zainstaluj ze sklepu Chrome Web Store i załóż darmowe konto.
Następnie przejdź do Google Shopping. Możesz wejść bezpośrednio na shopping.google.com albo skorzystać z zakładki Shopping w zwykłym wyszukiwaniu Google. Wyszukaj dowolny produkt lub kategorię, która cię interesuje — na przykład „wireless noise-cancelling headphones”.
Powinieneś zobaczyć siatkę ofert produktów wraz z cenami, sprzedawcami i ocenami.
Krok 2: Kliknij „AI Suggest Fields”, aby automatycznie wykryć kolumny
Kliknij ikonę rozszerzenia Thunderbit, aby otworzyć pasek boczny, a następnie wybierz „AI Suggest Fields.” AI skanuje stronę Google Shopping i proponuje kolumny: Product Title, Price, Seller, Rating, Review Count, Image URL, Product Link.
Sprawdź sugerowane pola. Możesz zmieniać nazwy kolumn, usuwać niepotrzebne albo dodawać własne. Jeśli chcesz doprecyzować wynik — na przykład „wyodrębnij tylko liczbową wartość ceny bez symbolu waluty” — możesz dodać do danej kolumny Field AI Prompt.
W panelu Thunderbit powinna pojawić się podglądowa struktura kolumn.
Krok 3: Kliknij „Scrape” i sprawdź wyniki
Kliknij niebieski przycisk „Scrape”. Thunderbit pobierze każdą widoczną ofertę produktu do uporządkowanej tabeli.
Wiele stron? Thunderbit automatycznie obsługuje paginację — przechodzenie między stronami albo przewijanie w celu załadowania kolejnych wyników, zależnie od układu strony. Jeśli wyników jest dużo, możesz wybrać między Cloud Scraping (szybsze, obsługuje do 50 stron jednocześnie, działa na rozproszonej infrastrukturze Thunderbit) a Browser Scraping (korzysta z twojej własnej sesji Chrome — przydatne, gdy Google pokazuje wyniki zależne od regionu lub wymaga logowania).
W moich testach pobranie 50 ofert zajmowało około 30 sekund. Ręcznie to samo zadanie — otwieranie każdej oferty, kopiowanie tytułu, ceny, sprzedawcy i oceny — zajęłoby mi ponad 20 minut.
Krok 4: Wzbogać dane, scrapując podstrony
Po pierwszym zebraniu danych kliknij „Scrape Subpages” w panelu Thunderbit. AI odwiedzi stronę szczegółów każdego produktu i dołączy do pierwotnej tabeli dodatkowe pola — pełne opisy, wszystkie ceny sprzedawców, specyfikacje i opinie.
Nie trzeba żadnej dodatkowej konfiguracji — AI samo rozpoznaje strukturę strony szczegółów i pobiera odpowiednie dane. W ten sposób zbudowałem pełną macierz cen konkurencyjnych (produkt + wszystkie ceny sprzedawców + specyfikacje) dla 40 produktów w mniej niż 5 minut.
Krok 5: Wyeksportuj do Google Sheets, Excela, Airtable lub Notion
Kliknij „Export” i wybierz miejsce docelowe — , Excel, Airtable lub Notion. Wszystko za darmo. Dostępne są też pliki CSV i JSON.
Dwa kliknięcia, aby zebrać dane, jedno kliknięcie, aby je wyeksportować. Odpowiedni skrypt w Pythonie? Około 60 linii kodu, konfiguracja proxy, obsługa CAPTCHA i ciągłe utrzymanie.
Metoda 2: Pozyskiwanie danych z Google Shopping w Pythonie + SERP API
- Poziom trudności: Średnio zaawansowany
- Czas potrzebny: ~30 minut
- Czego potrzebujesz: Python 3.10+, biblioteki
requestsipandas, klucz do SERP API (ScraperAPI, SerpApi lub podobne)
Jeśli potrzebujesz programowego, powtarzalnego dostępu do danych z Google Shopping, SERP API to najpewniejsze podejście w Pythonie. Mechanizmy antybotowe, renderowanie JavaScript, rotacja proxy — wszystko dzieje się w tle. Wysyłasz zapytanie HTTP i dostajesz z powrotem uporządkowany JSON.
Krok 1: Przygotuj środowisko Python
Zainstaluj Python 3.12 (najbezpieczniejszy domyślny wybór produkcyjny na lata 2025–2026) oraz wymagane pakiety:
1pip install requests pandas
Zarejestruj się u dostawcy SERP API. oferuje 100 darmowych wyszukiwań miesięcznie; daje 5000 darmowych kredytów. Pobierz klucz API z panelu.
Krok 2: Skonfiguruj zapytanie do API
Oto minimalny przykład z użyciem endpointu Google Shopping w ScraperAPI:
1import requests
2import pandas as pd
3API_KEY = "YOUR_API_KEY"
4query = "wireless noise cancelling headphones"
5resp = requests.get(
6 "https://api.scraperapi.com/structured/google/shopping",
7 params={"api_key": API_KEY, "query": query, "country_code": "us"}
8)
9data = resp.json()
API zwraca uporządkowany JSON z polami takimi jak title, price, link, thumbnail, source (sprzedawca) i rating.
Krok 3: Sparsuj odpowiedź JSON i wyodrębnij pola
1products = data.get("shopping_results", [])
2rows = []
3for p in products:
4 rows.append({
5 "title": p.get("title"),
6 "price": p.get("price"),
7 "seller": p.get("source"),
8 "rating": p.get("rating"),
9 "reviews": p.get("reviews"),
10 "link": p.get("link"),
11 "thumbnail": p.get("thumbnail"),
12 })
13df = pd.DataFrame(rows)
Krok 4: Wyeksportuj do CSV lub JSON
1df.to_csv("google_shopping_results.csv", index=False)
Dobre do pracy wsadowej: możesz przejść przez 50 słów kluczowych i zbudować pełny zbiór danych w jednym uruchomieniu skryptu. Minusem są koszty — SERP API naliczają opłaty za zapytanie, a przy tysiącach zapytań dziennie rachunek szybko rośnie. Więcej o cenach poniżej.
Metoda 3: Pozyskiwanie danych z Google Shopping w Pythonie + Playwright (automatyzacja przeglądarki)
- Poziom trudności: Zaawansowany
- Czas potrzebny: ~1 godzina+ (plus bieżące utrzymanie)
- Czego potrzebujesz: Python 3.10+, Playwright, proxy typu residential, cierpliwość
Podejście „pełna kontrola”. Uruchamiasz prawdziwą przeglądarkę, przechodzisz do Google Shopping i pobierasz dane z wyrenderowanej strony. Najbardziej elastyczne, ale też najbardziej kruche — systemy antybotowe Google są agresywne, a struktura strony zmienia się kilka razy w roku.
Uczciwe ostrzeżenie: rozmawiałem z użytkownikami, którzy tygodniami walczyli z CAPTCHA i blokadami IP przy tym podejściu. Da się to zrobić, ale trzeba liczyć się z regularnym utrzymaniem.
Krok 1: Skonfiguruj Playwright i proxy
1pip install playwright
2playwright install chromium
Będziesz potrzebować proxy typu residential. Adresy IP z centrów danych są blokowane niemal natychmiast — jeden z użytkowników forum ujął to dosadnie: „Wszystkie IP AWS zostaną zablokowane albo dostaną CAPTCHA po 1/2 wyników”. Usługi takie jak Bright Data, Oxylabs czy Decodo oferują pule proxy residential od około 1–5 USD/GB.
Skonfiguruj Playwright z realistycznym user-agentem i swoim proxy:
1from playwright.sync_api import sync_playwright
2with sync_playwright() as p:
3 browser = p.chromium.launch(
4 headless=True,
5 proxy={"server": "http://your-proxy:port", "username": "user", "password": "pass"}
6 )
7 context = browser.new_context(
8 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ..."
9 )
10 page = context.new_page()
Krok 2: Przejdź do Google Shopping i obsłuż zabezpieczenia antybotowe
Zbuduj adres URL Google Shopping i przejdź na stronę:
1query = "wireless noise cancelling headphones"
2url = f"https://www.google.com/search?udm=28&q={query}&gl=us&hl=en"
3page.goto(url, wait_until="networkidle")
Jeśli pojawi się europejski popup zgody na pliki cookie, obsłuż go:
1try:
2 page.click("button#L2AGLb", timeout=3000)
3except:
4 pass
Dodaj opóźnienia przypominające ludzkie działania — 2–5 sekund losowego czasu oczekiwania między ładowaniami stron. Systemy wykrywania Google wychwytują szybkie, powtarzalne wzorce żądań.
Krok 3: Przewijaj, przechodź między stronami i pobieraj dane o produktach
Google Shopping ładuje wyniki dynamicznie. Przewiń stronę, aby wymusić lazy loading, a następnie pobierz karty produktów:
1import time, random
2# Przewiń, aby wczytać wszystkie wyniki
3for _ in range(3):
4 page.evaluate("window.scrollBy(0, 1000)")
5 time.sleep(random.uniform(1.5, 3.0))
6# Pobierz karty produktów
7cards = page.query_selector_all("[jsname='ZvZkAe']")
8results = []
9for card in cards:
10 title = card.query_selector("h3")
11 price = card.query_selector("span.a8Pemb")
12 # ... pobierz pozostałe pola
13 results.append({
14 "title": title.inner_text() if title else None,
15 "price": price.inner_text() if price else None,
16 })
Ważna uwaga: powyższe selektory CSS są orientacyjne i będą się zmieniać. Google często rotuje nazwy klas. W latach 2024–2026 udokumentowano już trzy różne zestawy selektorów. Lepiej opierać się na stabilniejszych atrybutach, takich jak jsname, data-cid, tagach <h3> i img[alt], zamiast na nazwach klas.
Krok 4: Zapisz do CSV lub JSON
1import json
2from datetime import datetime
3filename = f"shopping_{datetime.now().strftime('%Y%m%d_%H%M')}.json"
4with open(filename, "w") as f:
5 json.dump(results, f, indent=2)
Licz się z regularnym utrzymaniem tego skryptu. Gdy Google zmieni strukturę strony — a robi to kilka razy w roku — selektory przestaną działać i wracasz do debugowania.
Największy problem: CAPTCHA i blokady antybotowe
Na forach powtarza się ta sama historia: „Spędziłem kilka tygodni, ale poddałem się wobec metod antybotowych Google”. CAPTCHA i blokady IP to najczęstszy powód porzucania samodzielnych scraperów Google Shopping.
Jak Google blokuje scraperów i co z tym zrobić
| Wyzwanie antybota | Co robi Google | Obejście |
|---|---|---|
| Fingerprinting IP | Blokuje adresy IP z centrów danych po kilku żądaniach | Proxy residential lub scrapowanie w przeglądarce |
| CAPTCHA | Uruchamiane przy szybkim lub zautomatyzowanym wzorcu żądań | Ograniczenie tempa (10–20 s między żądaniami), ludzkie opóźnienia, usługi rozwiązywania CAPTCHA |
| Renderowanie JavaScript | Wyniki Shopping ładują się dynamicznie przez JS | Bezgłowa przeglądarka (Playwright) lub API, które renderuje JS |
| Wykrywanie user-agenta | Blokuje typowe botowe user-agenty | Rotacja realistycznych, aktualnych stringów user-agent |
| Fingerprinting TLS | Wykrywa nietypowe sygnatury TLS | Użyj curl_cffi z imitacją przeglądarki albo prawdziwej przeglądarki |
| Blokowanie IP AWS/cloud | Blokuje znane zakresy IP dostawców chmurowych | Unikaj całkowicie adresów z centrów danych |
W styczniu 2025 Google uczynił wykonywanie JavaScript obowiązkowym dla wyników SERP i Shopping, — w tym pipeline’y używane przez SemRush i SimilarWeb. Następnie we wrześniu 2025 Google wycofał starsze adresy URL stron produktowych, przekierowując je do nowej powierzchni „Immersive Product”, która ładuje się przez asynchroniczny AJAX. Każdy poradnik napisany przed końcem 2025 roku jest dziś w dużej mierze nieaktualny.
Jak każda metoda radzi sobie z tymi wyzwaniami
SERP API załatwiają wszystko w tle — proxy, renderowanie, rozwiązywanie CAPTCHA. Nie musisz o tym myśleć.
Thunderbit Cloud Scraping korzysta z rozproszonej infrastruktury chmurowej w USA, UE i Azji, aby automatycznie obsługiwać renderowanie JS i zabezpieczenia antybotowe. Tryb Browser Scraping używa twojej własnej uwierzytelnionej sesji Chrome, co całkowicie omija wykrywanie, bo wygląda jak zwykłe przeglądanie strony przez użytkownika.
Samodzielny Playwright przerzuca cały ciężar na ciebie — zarządzanie proxy, strojenie opóźnień, rozwiązywanie CAPTCHA, utrzymanie selektorów i ciągłe monitorowanie awarii.
Prawdziwy koszt pozyskiwania danych z Google Shopping: uczciwe porównanie
„50 dolarów za około 20 tys. żądań… trochę drogo jak na mój projekt hobbystyczny.” Taka skarga pojawia się w forach bardzo często. Ale w tych rozmowach zwykle pomija się największy koszt ze wszystkich.
Tabela porównania kosztów
| Podejście | Koszt początkowy | Szacunkowy koszt za zapytanie | Nakład utrzymaniowy | Ukryte koszty |
|---|---|---|---|---|
| DIY Python (bez proxy) | Za darmo | 0 USD | WYSOKI (awarie, CAPTCHA) | Twój czas na debugowanie |
| DIY Python + proxy residential | Darmowy kod | ~1–5 USD/GB | ŚREDNI-WYSOKI | Opłaty dostawcy proxy |
| SERP API (SerpApi, ScraperAPI) | Ograniczony plan darmowy | ~0,50–5,00 USD/1 tys. zapytań | NISKI | Szybko rośnie przy dużej skali |
| Rozszerzenie Thunderbit Chrome | Plan darmowy (6 stron) | Oparte na kredytach, ~1 kredyt/wiersz | BARDZO NISKI | Płatny plan przy większym wolumenie |
| Thunderbit Open API (Extract) | Oparte na kredytach | ~20 kredytów/stronę | NISKI | Płatność za każde pobranie |
Ukryty koszt, który wszyscy ignorują: twój czas
Rozwiązanie DIY za 0 USD, które pochłania 40 godzin debugowania, nie jest darmowe. Przy stawce 50 USD/h to 2000 USD kosztu pracy — za scraper, który może znowu się zepsuć w następnym miesiącu, gdy Google zmieni DOM.

Analiza Technology Outlook od McKinsey pokazuje, że . Poniżej tego progu tworzenie rozwiązania in-house „pochłania budżet bez zwrotu z inwestycji”. Dla większości zespołów ecommerce wykonujących od kilkuset do kilku tysięcy zapytań tygodniowo narzędzie bez kodu albo SERP API jest znacznie bardziej opłacalne niż budowanie własnego rozwiązania.
Jak ustawić automatyczne monitorowanie cen w Google Shopping
Większość poradników traktuje scrapowanie jako jednorazowe zadanie. Prawdziwy przypadek użycia dla zespołów ecommerce to ciągłe, automatyczne monitorowanie. Nie potrzebujesz tylko dzisiejszych cen — potrzebujesz wczorajszych, zeszłotygodniowych i jutrzejszych.
Konfiguracja zaplanowanego scrapowania w Thunderbit
Thunderbit Scheduled Scraper pozwala opisać interwał czasu prostym językiem — „co dzień o 9:00” albo „w każdy poniedziałek i czwartek w południe” — a AI zamienia to w cykliczny harmonogram. Wprowadź adresy URL z Google Shopping, kliknij „Schedule” i gotowe.
Każde uruchomienie automatycznie eksportuje dane do Google Sheets, Airtable lub Notion. Efekt końcowy: arkusz, który codziennie uzupełnia się cenami konkurencji, gotowy do tabel przestawnych lub alertów.
Bez cron jobów. Bez zarządzania serwerem. Bez problemów z funkcjami Lambda. (Widziałem wpisy programistów, którzy przez kilka dni próbowali uruchomić Selenium na AWS Lambda — scheduler Thunderbit omija to wszystko.)
Więcej o tworzeniu znajdziesz w naszym osobnym, szczegółowym materiale.
Harmonogram w Pythonie (dla programistów)
Jeśli korzystasz z podejścia SERP API, możesz planować uruchomienia za pomocą cron jobów (Linux/Mac), Harmonogramu zadań Windows albo schedulerów chmurowych, takich jak AWS Lambda czy Google Cloud Functions. Biblioteki Pythona, np. APScheduler, też się sprawdzą.
Minus: teraz to ty odpowiadasz za monitorowanie działania skryptu, obsługę błędów, rotację proxy według harmonogramu i aktualizację selektorów, gdy Google zmieni stronę. Dla większości zespołów czas inżynierski poświęcony na utrzymanie zaplanowanego scrapera w Pythonie przewyższa koszt dedykowanego narzędzia.
Wskazówki i najlepsze praktyki przy scrapowaniu danych z Google Shopping
Niezależnie od metody, kilka zasad oszczędzi ci sporo nerwów.
Szanuj limity żądań
Nie zasypuj Google setkami szybkich żądań — zostaniesz zablokowany, a twój adres IP może pozostać oznaczony przez jakiś czas. Metody DIY: rozstawiaj żądania co 10–20 sekund z losowym rozrzutem. Narzędzia i API robią to za ciebie.
Dopasuj metodę do skali
Szybki przewodnik decyzyjny:
- < 10 zapytań/tydzień → darmowy plan Thunderbit albo darmowy plan SerpApi
- 10–1 000 zapytań/tydzień → płatny plan SERP API albo
- 1 000+ zapytań/tydzień → plan enterprise SERP API albo Thunderbit Open API
Oczyść i zweryfikuj dane
Ceny zawierają symbole walut, formatowanie zależne od regionu (1.299,00 € vs $1,299.00) i czasem przypadkowe śmieciowe znaki. Użyj Field AI Prompts w Thunderbit, aby normalizować dane już podczas ekstrakcji, albo wyczyść je później w pandas:
1df["price_num"] = df["price"].str.replace(r"[^\d.]", "", regex=True).astype(float)
Sprawdź duplikaty między wynikami organicznymi i sponsorowanymi — często się pokrywają. Usuwaj duplikaty na podstawie krotki (title, price, seller).
Zwróć uwagę na kwestie prawne
Scrapowanie publicznie dostępnych danych produktowych jest zazwyczaj legalne, ale otoczenie prawne szybko się zmienia. Najważniejszy ostatni rozwój: na podstawie DMCA § 1201 za obchodzenie systemu antyscrapingowego Google „SearchGuard”. To nowy kierunek egzekwowania prawa, który omija linie obrony ukształtowane w starszych sprawach, takich jak hiQ v. LinkedIn i Van Buren v. United States.
Praktyczne zasady:
- Pozyskuj wyłącznie publicznie dostępne dane — nie loguj się, aby uzyskać dostęp do treści ograniczonych
- Nie pobieraj danych osobowych (imion recenzentów, danych konta)
- Pamiętaj, że regulamin Google zabrania automatycznego dostępu — użycie SERP API lub rozszerzenia przeglądarki zmniejsza ryzyko, ale go całkowicie nie eliminuje
- Przy działaniach w UE pamiętaj o RODO, choć oferty produktów to w zdecydowanej większości nieosobowe dane handlowe
- Jeśli budujesz komercyjny produkt na danych z scrapingu, rozważ konsultację prawną
Głębsze omówienie znajdziesz w naszym osobnym artykule.
Którą metodę wybrać do pozyskiwania danych z Google Shopping?
Po przetestowaniu wszystkich trzech podejść na tych samych kategoriach produktów, oto do jakiego wniosku doszedłem:
Jeśli jesteś użytkownikiem nietechnicznym i potrzebujesz danych szybko — wybierz Thunderbit. Otwórz Google Shopping, kliknij dwa razy, wyeksportuj. Czysty arkusz będziesz mieć w mniej niż 5 minut. pozwala przetestować wszystko bez zobowiązań, a funkcja scrapowania podstron daje bogatsze dane niż większość skryptów w Pythonie.
Jeśli jesteś programistą i potrzebujesz powtarzalnego, programowego dostępu — użyj SERP API. Niezawodność jest warta kosztu za zapytanie, a unikasz wszystkich problemów z antybotem. SerpApi ma najlepszą dokumentację; ScraperAPI ma najbardziej hojny plan darmowy.
Jeśli potrzebujesz maksymalnej kontroli i budujesz własny pipeline — Playwright działa, ale wchodź w to świadomie. Zarezerwuj dużo czasu na zarządzanie proxy, utrzymanie selektorów i obsługę CAPTCHA. W latach 2025–2026 minimalny sensowny zestaw obejścia to curl_cffi z imitacją Chrome + proxy residential + tempo 10–20 sekund. Zwykły skrypt requests z rotacją user-agentów jest już martwy.
Najlepsza metoda to ta, która dostarcza dokładne dane, nie zabierając ci całego tygodnia. Dla większości osób to nie 60-liniowy skrypt w Pythonie — to dwa kliknięcia.
Sprawdź , jeśli potrzebujesz większej skali, albo obejrzyj nasze poradniki na , aby zobaczyć workflow w praktyce.
FAQ
Czy scrapowanie danych z Google Shopping jest legalne?
Scrapowanie publicznie dostępnych danych produktowych jest zazwyczaj legalne, zgodnie z precedensami takimi jak hiQ v. LinkedIn i Van Buren v. United States. Jednak regulamin Google zabrania automatycznego dostępu, a pozew Google przeciwko SerpApi z grudnia 2025 wprowadził nową teorię obejścia w ramach DMCA § 1201. Korzystanie z renomowanych narzędzi i API zmniejsza ryzyko. W zastosowaniach komercyjnych warto skonsultować się z prawnikiem.
Czy mogę scrapować Google Shopping bez blokady?
Tak, ale kluczowa jest metoda. SERP API automatycznie obsługują zabezpieczenia antybotowe. Cloud Scraping w Thunderbit korzysta z rozproszonej infrastruktury, aby unikać blokad, a tryb Browser Scraping używa twojej własnej sesji Chrome (co wygląda jak zwykłe przeglądanie). Samodzielne skrypty w Pythonie wymagają proxy residential, ludzkich opóźnień i zarządzania fingerprintem TLS — a i tak blokady są częste.
Jaki jest najprostszy sposób na pozyskanie danych z Google Shopping?
Rozszerzenie Chrome Thunderbit. Wejdź do Google Shopping, kliknij „AI Suggest Fields”, kliknij „Scrape” i wyeksportuj dane do Google Sheets lub Excela. Bez kodu, bez kluczy API, bez konfiguracji proxy. Cały proces zajmuje około 2 minut.
Jak często mogę scrapować Google Shopping do monitorowania cen?
W przypadku Thunderbit Scheduled Scraper możesz ustawić monitoring dzienny, tygodniowy lub w niestandardowym interwale, opisując go prostym językiem. Przy SERP API częstotliwość zależy od limitów kredytów w planie — większość dostawców oferuje wystarczająco dużo na codzienne monitorowanie kilkuset SKU. Skrypty DIY mogą działać tak często, jak pozwala infrastruktura, ale większa częstotliwość oznacza więcej problemów z antybotem.
Czy mogę wyeksportować dane z Google Shopping do Google Sheets lub Excela?
Tak. Thunderbit eksportuje bezpośrednio do Google Sheets, Excela, Airtable i Notion za darmo. Skrypty w Pythonie mogą eksportować do CSV lub JSON, które potem importujesz do dowolnego narzędzia arkuszowego. Przy stałym monitoringu zaplanowane eksporty Thunderbit do Google Sheets tworzą żywy, automatycznie aktualizujący się zbiór danych.
- Dowiedz się więcej