Amazon Scraper Python Tutorial: How to Extract Product Data

Ostatnia aktualizacja: April 30, 2026
Podsumowanie AI
Ten artykuł porównuje dwa podejścia do pobierania danych z Amazona: ręczne scrapowanie w Pythonie oraz no-code AI web scraper Thunderbit. Zawiera praktyczne przykłady, najlepsze praktyki, porównanie kosztów i wskazówki, kiedy wybrać każde z rozwiązań.

Bądźmy szczerzy — Amazon to w praktyce centrum handlowe, supermarket i sklep z elektroniką całego internetu. Jeśli zajmujesz się sprzedażą, e-commerce albo operacjami, dobrze wiesz, że to, co dzieje się na Amazonie, nie zostaje na Amazonie — wpływa na ceny, stany magazynowe, a nawet na Twój kolejny duży start produktu. Jest tylko jeden haczyk: wszystkie te cenne szczegóły produktów, ceny, oceny i recenzje są zamknięte w interfejsie stworzonym z myślą o kupujących, a nie o zespołach, które żyją danymi. Jak więc zdobyć te informacje, nie spędzając weekendów na kopiowaniu i wklejaniu jak w 1999 roku?

I tu wchodzi web scraping. W tym przewodniku pokażę Ci dwa sposoby na pobranie danych o produktach z Amazona: klasyczne podejście „zakasaj rękawy i napisz to w Pythonie” oraz nowoczesną ścieżkę „niech AI wykona ciężką pracę” z no-code web scraperem takim jak . Przejdę przez prawdziwy kod w Pythonie (wraz ze wszystkimi pułapkami i obejściami), a potem pokażę, jak Thunderbit może dostarczyć te same dane w zaledwie kilka kliknięć — bez kodowania. Niezależnie od tego, czy jesteś deweloperem, analitykiem biznesowym, czy po prostu masz dość ręcznego wprowadzania danych, znajdziesz tu coś dla siebie.

Dlaczego warto pobierać dane o produktach z Amazona? (amazon scraper python, web scraping with python)

Amazon to nie tylko największy sklep internetowy na świecie — to także największy na świecie otwarty rynek do analizy konkurencji. Przy i Amazon jest kopalnią złota dla każdego, kto chce:

amazon-scraper-use-cases-price-monitoring-lead-generation.png

  • Monitorować ceny (i dostosowywać własne w czasie rzeczywistym)
  • Analizować konkurencję (śledzić nowe premiery, oceny i recenzje)
  • Generować leady (znajdować sprzedawców, dostawców, a nawet potencjalnych partnerów)
  • Prognozować popyt (obserwując stany magazynowe i pozycje sprzedaży)
  • Wykrywać trendy rynkowe (na podstawie recenzji i wyników wyszukiwania)

I to nie jest tylko teoria — firmy naprawdę osiągają na tym konkretne wyniki. Na przykład jeden sprzedawca elektroniki wykorzystał pobrane dane o cenach z Amazona, aby , a inna marka odnotowała po zautomatyzowaniu śledzenia cen konkurencji.

Oto krótka tabela zastosowań i typowego ROI, jakiego możesz się spodziewać:

Przypadek użyciaKto korzystaTypowy ROI / korzyść
Monitorowanie cenE-commerce, operacjeWzrost marży zysku o 15%+, wzrost sprzedaży o 4%, o 30% mniej czasu analityka
Analiza konkurencjiSprzedaż, produkt, operacjeSzybsze dostosowanie cen, lepsza konkurencyjność
Badanie rynku (recenzje)Produkt, marketingSzybsze iteracje produktu, lepszy copywriting reklam, wnioski SEO
Generowanie leadówSprzedażPonad 3000 leadów/miesiąc, ponad 8 godzin oszczędności na handlowca tygodniowo
Prognozowanie zapasów i popytuOperacje, łańcuch dostaw20% mniej nadwyżek magazynowych, mniej braków towaru
Wykrywanie trendówMarketing, kadra zarządzającaWczesne wykrywanie gorących produktów i kategorii

A oto najważniejsze: raportuje dziś wymierną wartość z analityki danych. Jeśli nie scrapujesz Amazona, zostawiasz wiedzę — i pieniądze — na stole.

Przegląd: Amazon Scraper Python vs. no-code web scraper tools

Są dwa główne sposoby, by wyciągnąć dane z Amazona z przeglądarki do arkuszy lub dashboardów:

  1. Amazon Scraper Python (web scraping with python):

    Napisz własny skrypt w Pythonie, używając bibliotek takich jak Requests i BeautifulSoup. Daje Ci to pełną kontrolę, ale musisz umieć programować, poradzić sobie z zabezpieczeniami anty-bot i utrzymywać skrypt, gdy Amazon zmienia układ strony.

  2. No-code web scraper tools (takie jak Thunderbit):

    Użyj narzędzia, które pozwala wskazać, kliknąć i pobrać dane — bez programowania. Nowoczesne narzędzia, takie jak , wykorzystują nawet AI, aby zrozumieć, jakie dane pobrać, obsłużyć podstrony i paginację oraz wyeksportować wyniki prosto do Excela albo Google Sheets.

Tak to wygląda w porównaniu:

KryteriumPython ScraperNo-code (Thunderbit)
Czas konfiguracjiWysoki (instalacja, kod, debugowanie)Niski (instalacja rozszerzenia)
Wymagana wiedzaKonieczne kodowanieBrak (wskaż i kliknij)
ElastycznośćNieograniczonaWysoka w typowych przypadkach użycia
UtrzymanieNaprawiasz kod samNarzędzie aktualizuje się samo
Obsługa anty-botSam ogarniasz proxy i nagłówkiWbudowana, załatwiona za Ciebie
SkalowalnośćRęczna (wątki, proxy)Scraping w chmurze, równoległy
Eksport danychNiestandardowy (CSV, Excel, baza danych)Jedno kliknięcie do Excela, Sheets
KosztDarmowy (Twój czas + proxy)Freemium, płatne przy większej skali

W kolejnych sekcjach przeprowadzę Cię przez oba podejścia — najpierw jak zbudować Amazon scraper w Pythonie (z prawdziwym kodem), a potem jak zrobić to samo za pomocą AI web scrapera Thunderbit.

Pierwsze kroki z Amazon Scraper Python: wymagania i konfiguracja

Zanim wejdziemy w kod, skonfigurujmy środowisko.

Będziesz potrzebować:

  • Python 3.x (pobierz z )
  • Edytor kodu (ja lubię VS Code, ale każdy się nada)
  • Następujące biblioteki:
    • requests (do żądań HTTP)
    • beautifulsoup4 (do parsowania HTML)
    • lxml (szybki parser HTML)
    • pandas (do tabel danych / eksportu)
    • re (wyrażenia regularne, wbudowane)

Instalacja bibliotek:

1pip install requests beautifulsoup4 lxml pandas

Konfiguracja projektu:

  • Utwórz nowy folder na projekt.
  • Otwórz edytor, stwórz nowy plik Python (np. amazon_scraper.py).
  • Jesteś gotowy do działania!

Krok po kroku: web scraping w Pythonie dla danych o produktach z Amazona

Przejdźmy przez pobieranie danych z jednej strony produktu Amazon. (Bez obaw, za chwilę pokażę też, jak scrapować wiele produktów i stron.)

1. Wysyłanie żądań i pobieranie HTML

Najpierw pobierzmy HTML strony produktu. (Zastąp adres URL dowolnym produktem z Amazona.)

1import requests
2url = "<https://www.amazon.com/dp/B0ExampleASIN>"
3response = requests.get(url)
4html_content = response.text
5print(response.status_code)

Uwaga: Takie podstawowe żądanie Amazon prawdopodobnie zablokuje. Możesz zobaczyć błąd 503 albo CAPTCHA zamiast strony produktu. Dlaczego? Bo Amazon wie, że nie jesteś prawdziwą przeglądarką.

Jak radzić sobie z zabezpieczeniami anty-bot Amazona

Amazon nie przepada za botami. Żeby uniknąć blokady, musisz:

  • Ustawić nagłówek User-Agent (udawać Chrome albo Firefox)
  • Rotować User-Agenty (nie używać tego samego za każdym razem)
  • Ograniczać tempo żądań (dodawać losowe opóźnienia)
  • Korzystać z proxy (przy scrapingu na dużą skalę)

Oto jak ustawić nagłówki:

1headers = {
2    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64)... Safari/537.36",
3    "Accept-Language": "en-US,en;q=0.9",
4}
5response = requests.get(url, headers=headers)

Chcesz zrobić to bardziej profesjonalnie? Użyj listy User-Agentów i rotuj je przy każdym żądaniu. Przy większych projektach warto skorzystać z usługi proxy (jest ich wiele), ale przy małej skali zwykle wystarczą nagłówki i opóźnienia.

Wyodrębnianie kluczowych pól produktu

Gdy masz już HTML, pora sparsować go za pomocą BeautifulSoup.

1from bs4 import BeautifulSoup
2soup = BeautifulSoup(html_content, "lxml")

Teraz wyciągnijmy najważniejsze dane:

Tytuł produktu

1title_elem = soup.find(id="productTitle")
2product_title = title_elem.get_text(strip=True) if title_elem else None

Cena

Cena na Amazonie może znajdować się w kilku miejscach. Spróbuj tych opcji:

1price = None
2price_elem = soup.find(id="priceblock_ourprice") or soup.find(id="priceblock_dealprice")
3if price_elem:
4    price = price_elem.get_text(strip=True)
5else:
6    price_whole = soup.find("span", {"class": "a-price-whole"})
7    price_frac = soup.find("span", {"class": "a-price-fraction"})
8    if price_whole and price_frac:
9        price = price_whole.text + price_frac.text

Ocena i liczba recenzji

1rating_elem = soup.find("span", {"class": "a-icon-alt"})
2rating = rating_elem.get_text(strip=True) if rating_elem else None
3review_count_elem = soup.find(id="acrCustomerReviewText")
4reviews_text = review_count_elem.get_text(strip=True) if review_count_elem else ""
5reviews_count = reviews_text.split()[0]  # np. "1,554 ratings"

Adres URL głównego obrazu

Amazon czasem ukrywa obrazy w wysokiej rozdzielczości w JSON-ie wewnątrz HTML. Oto szybkie podejście z regexem:

1import re
2match = re.search(r'"hiRes":"(https://.*?.jpg)"', html_content)
3main_image_url = match.group(1) if match else None

Albo pobierz główny tag obrazu:

1img_tag = soup.find("img", {"id": "landingImage"})
2img_url = img_tag['src'] if img_tag else None

Szczegóły produktu

Specyfikacje, takie jak marka, waga i wymiary, zwykle znajdują się w tabeli:

1details = {}
2rows = soup.select("#productDetails_techSpec_section_1 tr")
3for row in rows:
4    header = row.find("th").get_text(strip=True)
5    value = row.find("td").get_text(strip=True)
6    details[header] = value

A jeśli Amazon używa formatu „detailBullets”:

1bullets = soup.select("#detailBullets_feature_div li")
2for li in bullets:
3    txt = li.get_text(" ", strip=True)
4    if ":" in txt:
5        key, val = txt.split(":", 1)
6        details[key.strip()] = val.strip()

Wypisz wyniki:

1print("Tytuł:", product_title)
2print("Cena:", price)
3print("Ocena:", rating, "na podstawie", reviews_count, "recenzji")
4print("Adres URL głównego obrazu:", main_image_url)
5print("Szczegóły:", details)

Scrapowanie wielu produktów i obsługa paginacji

Jeden produkt to dobrze, ale pewnie potrzebujesz całej listy. Oto jak scrapować wyniki wyszukiwania i wiele stron.

Pobieranie linków do produktów ze strony wyszukiwania

1search_url = "<https://www.amazon.com/s?k=bluetooth+headphones>"
2res = requests.get(search_url, headers=headers)
3soup = BeautifulSoup(res.text, "lxml")
4product_links = []
5for a in soup.select("h2 a.a-link-normal"):
6    href = a['href']
7    full_url = "<https://www.amazon.com>" + href
8    product_links.append(full_url)

Obsługa paginacji

Adresy wyszukiwania Amazona używają &page=2, &page=3 itd.

1for page in range(1, 6):  # scrapujemy pierwsze 5 stron
2    search_url = f"<https://www.amazon.com/s?k=bluetooth+headphones&page={page}>"
3    res = requests.get(search_url, headers=headers)
4    if res.status_code != 200:
5        break
6    soup = BeautifulSoup(res.text, "lxml")
7    # ... wyciągnij linki do produktów jak wyżej ...

Przechodzenie po stronach produktów i eksport do CSV

Zbieraj dane o produktach na liście słowników, a potem użyj pandas:

1import pandas as pd
2df = pd.DataFrame(product_data_list)  # lista słowników
3df.to_csv("amazon_products.csv", index=False)

Albo do Excela:

1df.to_excel("amazon_products.xlsx", index=False)

Najlepsze praktyki dla projektów Amazon Scraper Python

Bądźmy szczerzy — Amazon ciągle zmienia stronę i walczy ze scraperami. Oto jak utrzymać projekt w działaniu:

  • Rotuj nagłówki i User-Agenty (użyj biblioteki takiej jak fake-useragent)
  • Korzystaj z proxy przy scrapingu na dużą skalę
  • Ograniczaj tempo żądań (losowy time.sleep() między żądaniami)
  • Obsługuj błędy łagodnie (ponawiaj po 503, wycofuj się, jeśli nastąpi blokada)
  • Pisz elastyczną logikę parsowania (szukaj wielu selektorów dla każdego pola)
  • Monitoruj zmiany HTML (jeśli skrypt nagle zwraca None dla wszystkiego, sprawdź stronę)
  • Szanuj robots.txt (Amazon blokuje scraping wielu sekcji — scrapuj odpowiedzialnie)
  • Czyść dane na bieżąco (usuwaj symbole walut, przecinki, białe znaki)
  • Pozostań w kontakcie ze społecznością (fora, Stack Overflow, Reddit r/webscraping)

Lista kontrolna utrzymania scrapera:

  • [ ] Rotuj User-Agenty i nagłówki
  • [ ] Korzystaj z proxy przy skali
  • [ ] Dodawaj losowe opóźnienia
  • [ ] Modularyzuj kod, aby łatwo go aktualizować
  • [ ] Monitoruj bany i CAPTCHA
  • [ ] Regularnie eksportuj dane
  • [ ] Dokumentuj selektory i logikę

Jeśli chcesz wejść głębiej, zajrzyj do mojego .

Alternatywa bez kodu: scraping Amazon z Thunderbit AI Web Scraper

Dobrze, widziałeś już wersję w Pythonie. Ale co jeśli nie chcesz kodować — albo po prostu chcesz zdobyć dane w dwa kliknięcia i zająć się resztą życia? Wtedy wchodzi .

Thunderbit to rozszerzenie Chrome typu AI web scraper, które pozwala pobierać dane o produktach z Amazona (i dane praktycznie z każdej strony) bez kodowania. Oto dlaczego go lubię:

thunderbit-key-features-ai-web-scraper.png

  • AI Suggest Fields: Klikasz przycisk, a AI Thunderbit rozpoznaje, jakie dane są na stronie, i proponuje kolumny (np. Tytuł, Cena, Ocena itp.).
  • Natychmiastowe szablony danych: Dla Amazona dostępny jest gotowy szablon, który pobiera wszystkie typowe pola — bez konfiguracji.
  • Scraping podstron: Możesz zebrać listę produktów, a potem pozwolić Thunderbit odwiedzić stronę szczegółów każdego produktu i automatycznie pobrać więcej informacji.
  • Paginacja: Thunderbit może sam klikać kolejne strony albo obsłużyć przewijanie nieskończone.
  • Eksport do Excel, Google Sheets, Airtable, Notion: Jedno kliknięcie i dane są gotowe do użycia.
  • Darmowy plan: Przetestujesz go za darmo na kilku stronach.
  • Obsługa anty-bot za Ciebie: Ponieważ działa w przeglądarce (albo w chmurze), Amazon widzi go jak prawdziwego użytkownika.

Krok po kroku: jak używać Thunderbit do scrapowania danych o produktach z Amazona

To naprawdę proste:

  1. Zainstaluj Thunderbit:

    Pobierz i zaloguj się.

  2. Otwórz Amazon:

    Wejdź na stronę Amazona, którą chcesz scrapować (wyniki wyszukiwania, karta produktu, cokolwiek).

  3. Kliknij „AI Suggest Fields” lub użyj szablonu:

    Thunderbit zasugeruje kolumny do pobrania (albo możesz wybrać szablon Amazon Product).

  4. Sprawdź kolumny:

    W razie potrzeby dostosuj kolumny (dodaj/usuń pola, zmień nazwy itd.).

  5. Kliknij „Scrape”:

    Thunderbit pobierze dane ze strony i pokaże je w tabeli.

  6. Obsłuż podstrony i paginację:

    Jeśli scrapowałeś listę, kliknij „Scrape Subpages”, aby odwiedzić strony szczegółów każdego produktu i pobrać więcej informacji. Thunderbit może też automatycznie klikać kolejne strony.

  7. Wyeksportuj dane:

    Kliknij „Export to Excel” albo „Export to Google Sheets”. Gotowe.

  8. (Opcjonalnie) Zaplanuj scraping:

    Potrzebujesz tych danych codziennie? Użyj harmonogramu Thunderbit, aby to zautomatyzować.

To wszystko. Bez kodu, bez debugowania, bez proxy, bez bólu głowy. Jeśli chcesz zobaczyć to wizualnie, sprawdź albo .

Amazon Scraper Python vs. no-code web scraper: porównanie obok siebie

Złóżmy to wszystko w całość:

KryteriumPython ScraperThunderbit (bez kodu)
Czas konfiguracjiWysoki (instalacja, kod, debugowanie)Niski (instalacja rozszerzenia)
Wymagana wiedzaKonieczne kodowanieBrak (wskaż i kliknij)
ElastycznośćNieograniczonaWysoka w typowych przypadkach użycia
UtrzymanieNaprawiasz kod samNarzędzie aktualizuje się samo
Obsługa anty-botSam ogarniasz proxy i nagłówkiWbudowana, załatwiona za Ciebie
SkalowalnośćRęczna (wątki, proxy)Scraping w chmurze, równoległy
Eksport danychNiestandardowy (CSV, Excel, baza danych)Jedno kliknięcie do Excela, Sheets
KosztDarmowy (Twój czas + proxy)Freemium, płatne przy większej skali
Najlepsze dlaDeweloperzy, potrzeby niestandardoweUżytkownicy biznesowi, szybkie efekty

Jeśli jesteś deweloperem, który lubi grzebać w szczegółach i potrzebuje czegoś bardzo niestandardowego, Python będzie Twoim przyjacielem. Jeśli zależy Ci na szybkości, prostocie i zerowym kodowaniu, Thunderbit jest właściwym wyborem.

Kiedy wybrać Python, no-code albo AI web scraper do danych z Amazona

Wybierz Pythona, jeśli:

  • Potrzebujesz logiki niestandardowej albo chcesz zintegrować scraping z systemami backendowymi
  • Scrapujesz na bardzo dużą skalę (dziesiątki tysięcy produktów)
  • Chcesz zrozumieć, jak działa scraping od środka

Wybierz Thunderbit (no-code, AI web scraper), jeśli:

  • Chcesz szybko dostać dane, bez kodowania
  • Jesteś użytkownikiem biznesowym, analitykiem albo marketerem
  • Chcesz umożliwić swojemu zespołowi samodzielne pobieranie danych
  • Chcesz uniknąć kłopotów z proxy, zabezpieczeniami anty-bot i utrzymaniem

Użyj obu, jeśli:

  • Chcesz szybko zrobić prototyp w Thunderbit, a potem zbudować własne rozwiązanie w Pythonie do produkcji
  • Chcesz wykorzystać Thunderbit do zbierania danych, a Python do czyszczenia i analizy danych

Dla większości użytkowników biznesowych Thunderbit pokryje 90% potrzeb związanych ze scrapingiem Amazona w ułamku czasu. Dla pozostałych 10% — tych superniestandardowych, wielkoskalowych albo mocno zintegrowanych — Python nadal jest królem.

Podsumowanie i najważniejsze wnioski

Scraping danych o produktach z Amazona to supermoc dla każdego zespołu sprzedaży, e-commerce lub operacji. Niezależnie od tego, czy śledzisz ceny, analizujesz konkurencję, czy po prostu chcesz oszczędzić zespołowi niekończącego się kopiowania i wklejania, masz do dyspozycji odpowiednie rozwiązanie.

  • Scraping w Pythonie daje pełną kontrolę, ale wiąże się z krzywą uczenia i bieżącym utrzymaniem.
  • No-code web scrapery, takie jak Thunderbit, sprawiają, że pobieranie danych z Amazona jest dostępne dla każdego — bez kodowania, bez bólu głowy, po prostu wyniki.
  • Najlepsze podejście? Użyj narzędzia, które pasuje do Twoich umiejętności, terminu i celów biznesowych.

Jeśli jesteś ciekawy, wypróbuj Thunderbit — start jest darmowy, a zdziwisz się, jak szybko możesz zdobyć potrzebne dane. A jeśli jesteś deweloperem, nie bój się mieszać podejść: czasem najszybszym sposobem budowy jest pozwolenie AI zrobić za Ciebie nudną część.

FAQ

1. Dlaczego firma chciałaby scrapować dane o produktach z Amazona?

Scraping Amazona pozwala firmom monitorować ceny, analizować konkurencję, zbierać recenzje do badań produktowych, prognozować popyt i generować leady sprzedażowe. Przy ponad 600 milionach produktów i niemal 2 milionach sprzedawców na Amazonie jest to bogate źródło analizy konkurencji.

2. Jakie są główne różnice między używaniem Pythona a narzędzi no-code, takich jak Thunderbit, do scrapowania Amazona?

Scrapery w Pythonie oferują maksymalną elastyczność, ale wymagają umiejętności kodowania, czasu na konfigurację i bieżącego utrzymania. Thunderbit, no-code AI web scraper, pozwala użytkownikom pobierać dane z Amazona natychmiast przez rozszerzenie Chrome — bez kodowania, z wbudowaną obsługą anty-bot i opcjami eksportu do Excela lub Sheets.

3. Czy scrapowanie danych z Amazona jest legalne?

Regulamin Amazona zazwyczaj zabrania scrapowania, a firma aktywnie stosuje zabezpieczenia anty-bot. Mimo to wiele firm nadal scrapuje publicznie dostępne dane, dbając o odpowiedzialne działanie, np. respektowanie limitów żądań i unikanie nadmiernego ruchu.

4. Jakie dane mogę wyodrębnić z Amazona za pomocą narzędzi do web scrapingu?

Typowe pola danych obejmują tytuły produktów, ceny, oceny, liczbę recenzji, obrazy, specyfikacje produktów, dostępność, a nawet informacje o sprzedawcach. Thunderbit obsługuje też scraping podstron i paginacji, aby zebrać dane z wielu ofert i stron.

5. Kiedy powinienem wybrać scraping w Pythonie zamiast narzędzia takiego jak Thunderbit — albo odwrotnie?

Wybierz Pythona, jeśli potrzebujesz pełnej kontroli, logiki niestandardowej lub planujesz zintegrować scraping z systemami backendowymi. Wybierz Thunderbit, jeśli chcesz szybkich rezultatów bez kodowania, potrzebujesz łatwego skalowania albo jesteś użytkownikiem biznesowym szukającym rozwiązania wymagającego niewielkiej obsługi.

Chcesz iść głębiej? Sprawdź te zasoby:

Miłego scrapowania — i niech Twoje arkusze zawsze będą aktualne.

Wypróbuj AI Web Scraper Thunderbit do Amazona
Shuai Guan
Shuai Guan
Współzałożyciel i CEO @ Thunderbit. Z pasją zgłębia przecięcie AI i automatyzacji. Jest wielkim orędownikiem automatyzacji i zależy mu na tym, by była bardziej dostępna dla wszystkich. Poza technologią wyraża swoją kreatywność poprzez fotografię, opowiadając historie jednym zdjęciem naraz.
Topics
Amazon Scraper PythonNo Code Web ScraperWeb Scraping With PythonAI Web Scraper
Spis treści

Wypróbuj Thunderbit

Pobieraj leady i inne dane w zaledwie 2 kliknięcia. Napędzane przez AI.

Pobierz Thunderbit To za darmo
Wyciągaj dane z pomocą AI
Łatwo przenieś dane do Google Sheets, Airtable lub Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week