Online katalog Home Depot má miliony URL produktů — a jedny z nejpřísnějších anti-bot ochran v e-commerce. Pokud jste se někdy pokoušeli získat z HomeDepot.com ceny, specifikace nebo skladové zásoby a skončili jste na prázdné stránce nebo u záhadné hlášky „Oops!! Something went wrong“, tu frustraci už nejspíš znáte.
Posledních několik týdnů jsem testoval pět nástrojů na scrapování na stejné kategorii Home Depot i na stránce detailu produktu a porovnával jsem všechno od času nastavení přes úplnost polí až po odolnost vůči anti-bot ochranám. Není to žádný marketingový přehled funkcí. Je to praktické srovnání vedle sebe pro každého, kdo potřebuje spolehlivá produktová data z Home Depot — ať už sledujete ceny konkurence, hlídáte skladové zásoby, nebo budujete produktovou databázi pro svůj e-commerce byznys.
Proč na scrapování produktových dat z Home Depot v roce 2026 záleží
Home Depot vykázal ve fiskálním roce 2025 tržby , přičemž online prodeje tvořily 15,9 % čistých výnosů a meziročně rostly o 8,7 %. To z něj dělá jeden z největších e-commerce benchmarků v segmentu domácích potřeb a zároveň pokladnici dat pro každého, kdo dělá konkurenční analýzu.
Praktické využití je jasné:
- Konkurenční cenotvorba: Prodejci a marketplaces porovnávají aktuální cenu HD, akční cenu, promo štítky a náklady na dopravu s Lowe’s, Menards, Walmartem, Amazonem a specializovanými dodavateli.
- Monitoring zásob: Dodavatelé, reselleři a operations týmy sledují dostupnost na úrovni prodejny, štítky „limited stock“, dodací okna a možnosti vyzvednutí.
- Analýza mezer v sortimentu: Merchandising týmy porovnávají hloubku kategorie, pokrytí značek, hodnocení a počet recenzí, aby odhalily chybějící SKU nebo slabé pokrytí privátní značky.
- Průzkum trhu: Analytici mapují strukturu kategorií, sentiment v recenzích, specifikace produktů, záruky a rychlost uvádění novinek.
- Generování leadů pro dodavatele: Dodavatelé identifikují značky, kategorie, služby prodejny a produktové clustery relevantní pro řemeslníky a firmy.
Ruční sběr je v takovém měřítku peklo. zjistil, že američtí pracovníci stráví více než 9 hodin týdně opakovaným zadáváním dat, což firmám podle odhadů stojí 8 500 USD na zaměstnance ročně. Pokud analytik každé pondělí ručně kontroluje 500 SKU z Home Depot po 45 sekundách na SKU, je to přes 325 hodin ročně — a to ještě před opravou chyb.
Co lze z HomeDepot.com skutečně scrapovat (typy stránek a datová pole)
Většina průvodců ke scrapování je obecná. Neříká, co je skutečně dostupné na konkrétních typech stránek Home Depot.
Stránky výpisu produktů (PLP)
To jsou vaše stránky kategorií, oddělení, vyhledávání a značek — výchozí bod pro většinu workflow.
| Pole | Příklad |
|---|---|
| Název produktu | DEWALT 20V MAX Cordless 1/2 in. Drill/Driver Kit |
| URL detailu produktu | /p/DEWALT-20V-MAX.../204279858 |
| Náhledový obrázek | URL obrázku |
| Aktuální cena | $99.00 |
| Původní/škrtnutá cena | $129.00 |
| Promo odznak | „Save $30“ |
| Hodnocení hvězdičkami | 4.7 |
| Počet recenzí | 12,483 |
| Odznak dostupnosti | „Pickup today,“ „Delivery,“ „Limited stock“ |
| Značka | DEWALT |
| Model/SKU/Internet # | Někdy viditelné v markupů výpisu |
Veřejný index sitemap Home Depot potvrzuje rozsah pokrytí PLP — rychlá kontrola ukázala 45 000 URL výpisů produktů v jediném souboru sitemap.
Stránky detailu produktu (PDP)
Právě na PDP leží nejbohatší data. Abyste se sem dostali z výpisu, potřebujete scrapování podstránek.
| Pole | Poznámky |
|---|---|
| Plný popis | Víceodstavcový přehled produktu |
| Tabulka specifikací | Rozměry, materiál, zdroj napájení, bateriová platforma, barva, záruka, certifikace |
| Všechny produktové obrázky | URL galerie, někdy video |
| Q&A | Otázky, odpovědi, data |
| Jednotlivé recenze | Recenzent, datum, hodnocení, text, užitečné hlasy, odpovědi |
| „Frequently bought together“ | Odkazy na související produkty |
| Dostupnost podle prodejny | Závisí na vybrané prodejně/PSČ |
| Internet #, Model #, Store SKU | Klíčové identifikátory |
uvádí více než 5,4 milionu záznamů s poli jako URL, číslo modelu, SKU, ID produktu, název produktu, výrobce, finální cena, původní cena, stav zásob, kategorie, hodnocení a recenze.
Stránky kategorií, vyhledávače prodejen a recenzí
Stránky kategorií/oddělení: strom kategorií, odkazy na podkategorie, zpřesněné odkazy na kategorie, vybrané produkty, hodnoty filtrů/facetů (značka, cena, hodnocení, materiál, barva).
Stránky vyhledávače prodejen: Rychlá kontrola pro Atlantu vrátila název prodejny, číslo prodejny, adresu, vzdálenost, hlavní telefon, telefon Rental Center, telefon Pro Desk, otevírací dobu ve všední dny, nedělní hodiny a služby (Free Workshops, Rental Center, instalační služby, doručení ke krajnici, vyzvednutí v prodejně).
Sekce recenzí a Q&A: jméno recenzenta, datum, hodnocení hvězdičkami, název recenze, text recenze, užitečné hlasy, odznaky ověřeného nákupu, odpovědi prodejce/výrobce, text otázky, text odpovědi.
Ochrany proti botům u Home Depot: co v roce 2026 skutečně projde
Tady se většina obecných návodů na scrapování rozpadá.
Při testování vrátil přímý request na PDP Home Depot HTTP 403 Access Denied z AkamaiGHost. Request na kategorii vrátil brandovanou chybovou stránku s hláškou „Oops!! Something went wrong. Please refresh page.“ V hlavičkách odpovědi byly _abck, bm_sz, akavpau_prod a _bman — vše odpovídá ověřování prohlížeče ve stylu Akamai Bot Manager.
Jak vypadá selhání v praxi:
- 403 Access Denied na edge vrstvě ještě před načtením obsahu
- Blokovací/chybové stránky, které vypadají jako Home Depot, ale neobsahují žádná produktová data
- Chybějící dynamické sekce — cena, dostupnost nebo doručovací moduly se prostě nenačtou
- CAPTCHA po opakovaných requestech
- Blokace podle reputace IP z datacenter IP, sdílených VPN nebo cloud hostů
- Nesoulad relace/lokace, kdy se ceny mění podle cookies PSČ/prodejny

Spolehlivě fungují dva přístupy:
- Residential proxy + řízená browser infrastruktura: Residential nebo mobilní IP, plné renderování prohlížeče, řešení CAPTCHA a opakování pokusů. To je enterprise přístup (silná stránka Bright Data).
- Scrapování v prohlížeči v reálné uživatelské relaci: Když stránka funguje ve vašem přihlášeném Chrome, browser scraper přečte vyrenderovanou stránku s vašimi existujícími cookies, vybranou prodejnou a kontextem lokace. To je přístup pro byznys uživatele (silná stránka Thunderbit).
Žádný nástroj nemá na každé stránce Home Depot 100% úspěšnost pokaždé. Upřímná odpověď je: nejlepší nástroje dávají záložní cesty.
Jak jsem testoval: metodika porovnání nejlepších scraperů pro Home Depot
Vybral jsem jednu stránku kategorie Home Depot (Power Tools) a jednu stránku detailu produktu (oblíbená sada vrtačky/šroubováku DEWALT). Všechny pět nástrojů jsem použil na obě a zaznamenal jsem:
- Čas nastavení: minuty od otevření nástroje do prvního úspěšného výstupu
- Správně extrahovaná pole: z cílového seznamu PLP a PDP polí
- Úspěšnost paginace: dostal se na stránku 2, 3 atd.?
- Obohacení podstránek: stáhl PDP specifikace automaticky z výpisu?
- Zvládání anti-botu: vrátil skutečná data, nebo blokovací stránku?
- Celkový čas scrapování: od startu po hotový export
Takto jsem hodnotil jednotlivá kritéria:
| Kritérium | Co jsem měřil |
|---|---|
| Snadnost použití | Čas do prvního úspěšného scrapu na HD |
| Zvládání anti-botu | Úspěšnost proti ochranám HD |
| Datová pole | Úplnost vůči cílovému seznamu polí |
| Obohatení podstránek | Automaticky výpis → PDP? |
| Plánování | Vestavěné opakované scrapování? |
| Exporty | CSV, Excel, Sheets, Airtable, Notion, JSON |
| Cena (základní úroveň) | Náklady při škále 500–5 000 SKU |
| No-code vs. code | Vhodné pro byznys uživatele? |
1. Thunderbit
je rozšíření pro Chrome s AI, vytvořené pro netechnické firemní uživatele, kteří potřebují strukturovaná data z webů — bez psaní kódu, bez stavby workflow a bez správy proxy. U Home Depot to byla nejrychlejší cesta od „dívám se na stránku“ k „mám tabulku“.
Jak pracuje s Home Depot:
Thunderbit nabízí dva režimy scrapování. Cloud Scraping zpracuje až 50 stránek najednou přes cloudové servery v USA/EU/Asii — hodí se pro veřejné stránky kategorií. Browser Scraping používá vaši vlastní Chrome relaci a zachovává vybranou prodejnu, PSČ, cookies i stav přihlášení. Když cloudové IP narazí na blokace od ochrany Akamai u Home Depot, browser scraping čte stránku přesně tak, jak ji vidíte vy.
Klíčové funkce:
- AI Suggest Fields: Kliknete jedním tlačítkem na PDP Home Depot a Thunderbit navrhne sloupce pro název produktu, cenu, specifikace, recenze, obrázky, dostupnost, Internet number a další. Žádné ruční nastavování selektorů.
- Scrapování podstránek: Začněte na výpisu kategorií a Thunderbit automaticky navštíví každý produktový odkaz, aby doplnil specifikace, plné popisy, čísla modelů, obrázky a dostupnost. Žádná ruční stavba workflow.
- Plánování v přirozeném jazyce: Nastavte opakované scrapování obyčejnou angličtinou („každé pondělí v 8:00“) pro průběžné sledování cen nebo zásob.
- Bezplatné exporty: Google Sheets, Excel, CSV, JSON, Airtable, Notion — vše v ceně bez paywallu.
- Field AI Prompt: Vlastní popisky nebo kategorizace pro každý sloupec (např. „vytáhni napětí baterie ze specifikací“ nebo „zařaď jako akumulátorovou vrtačku, rázový utahovák nebo kombinovanou sadu“).
Cena: K dispozici je bezplatná verze. Kreditový model, kde 1 kredit = 1 výstupní řádek. Placené tarify začínají zhruba na 9 USD měsíčně při roční fakturaci. Aktuální informace najdete na .
Nejlepší pro: firemní uživatele, ecommerce operations, obchodní týmy a market research týmy, které potřebují data z Home Depot rychle do tabulky.
Jak AI Suggest Fields v Thunderbit funguje na Home Depot
Tady je skutečný workflow, který jsem použil:

- Otevřel jsem v Chrome stránku kategorie Home Depot
- Klikl jsem na
- Klikl jsem na AI Suggest Fields — Thunderbit navrhlo sloupce: Product Name, Price, Rating, Review Count, Product URL, Image URL, Brand, Availability
- Klikl jsem na Scrape pro extrakci výpisové stránky
- Použil jsem Scrape Subpages na sloupci Product URL — Thunderbit navštívil každou PDP a doplnil specifikace, plný popis, číslo modelu, všechny obrázky, Internet number a detaily dostupnosti
- Exportoval jsem přímo do Google Sheets
Čas nastavení: pod 8 minut od kliknutí na rozšíření po hotovou tabulku. Žádný builder workflow, žádná údržba selektorů, žádná konfigurace proxy.
Moje výsledky testu na Home Depot:
| Testovaná položka | Výsledek |
|---|---|
| Čas nastavení | ~7 minut |
| Extrahovaná pole PLP | 9/10 cílových polí |
| Obohatení PDP | ✅ Automaticky přes Scrape Subpages |
| Paginace | ✅ Zpracována automaticky |
| Úspěšnost proti anti-botu | ✅ Browser Scraping obešel blokace; Cloud fungoval na některých veřejných stránkách |
| Kontekst prodejny/lokace | ✅ Zachován přes browser session |
Hlavní omezení: Cloud Scraping může u některých stránek Home Depot narazit na blokace Akamai. Řešení je jednoduché — přepnout na Browser Scraping, který používá vaši skutečnou relaci. Pro většinu byznys uživatelů to není problém, protože už stránku stejně máte otevřenou.
2. Octoparse
je desktopová aplikace s vizuálním builderem typu point-and-click. Nepotřebujete kód, ale musíte si sestavit vícekrokový workflow — klikání na produktové karty, konfiguraci smyček paginace a ruční nastavení navigace na podstránky.
Jak pracuje s Home Depot:
Octoparse používá cloudovou extrakci s rotací IP a volitelnými doplňky pro řešení CAPTCHA. Proti ochranám Home Depot je na střední úrovni — na některých stránkách funguje, na jiných může být blokován bez proxy upgradu.
Klíčové funkce:
- Vizuální builder workflow s nahráváním klikání
- Cloudové plánování u placených tarifů
- Dostupné doplňky rotace IP a řešení CAPTCHA
- Export do CSV, Excelu, JSON a databázových konektorů
- Šablony úloh pro běžné vzory webů
Cena: Bezplatná verze s 10 úlohami a 50 tisíci datovými exporty měsíčně. Standardní tarif kolem 75–83 USD měsíčně s cloudovou extrakcí a plánováním. Profesionální tarif kolem 99 USD měsíčně s 20 cloudovými uzly. Doplňky: residential proxy cca 3 USD/GB, řešení CAPTCHA cca 1–1,50 USD za 1 000.
Nejlepší pro: uživatele, kteří jsou v pohodě s vizuálním návrhem workflow a chtějí víc ruční kontroly nad logikou scrapování.
Silné a slabé stránky Octoparse na Home Depot
Moje výsledky testu:
| Testovaná položka | Výsledek |
|---|---|
| Čas nastavení | ~35 minut (stavba workflow + testování) |
| Extrahovaná pole PLP | 8/10 cílových polí |
| Obohatení PDP | ⚠️ Vyžadovalo ruční konfiguraci smyčky klikání na podstránky |
| Paginace | ⚠️ Vyžadovalo ruční nastavení další stránky |
| Úspěšnost proti anti-botu | ⚠️ Fungovalo na některých stránkách, bez proxy doplňku blokováno na jiných |
| Kontekst prodejny/lokace | ⚠️ Možné, ale vyžaduje kroky workflow |
Octoparse je solidní volba, pokud vás baví stavět workflow a nevadí vám strávit na počátečním nastavení 30+ minut. Oproti Thunderbit je kompromis jasný: víc kontroly, víc času a méně automatického rozpoznávání polí.
3. Bright Data
je enterprise řešení. Kombinuje masivní proxy síť (400M+ residential IP), Web Scraper API s plným renderováním prohlížeče, řešení CAPTCHA a — což je nejrelevantnější — předpřipravený dataset Home Depot s .
Jak pracuje s Home Depot:
Bright Data má nejsilnější anti-bot infrastrukturu z celého seznamu. Residential proxy, mobilní IP, geotargeting, fingerprinting prohlížeče a automatické retry znamenají, že se blokuje jen zřídka. Nastavení ale není pro slabší povahy.
Klíčové funkce:
- Předpřipravený dataset Home Depot (koupíte data přímo bez scrapování)
- Web Scraper API s cenou za úspěšně získaný záznam
- 400M+ residential IP ve 195 zemích
- Plné renderování prohlížeče a řešení CAPTCHA
- Doručování do Snowflake, S3, Google Cloud, Azure, SFTP
- Formáty JSON, NDJSON, CSV, Parquet
Cena: Bez free tarifu. Web Scraper API: 3,50 USD za 1 000 úspěšných záznamů (pay-as-you-go) nebo plán Scale za 499 USD měsíčně včetně 384 000 záznamů. Minimální objednávka datasetu Home Depot: 50 USD. Residential proxy začínají kolem 4 USD/GB.
Nejlepší pro: enterprise datové týmy, velké monitoringové programy (10 000+ SKU) a organizace, které raději kupují udržované datasety než staví vlastní scrapery.
Silné a slabé stránky Bright Data na Home Depot
Moje výsledky testu:
| Testovaná položka | Výsledek |
|---|---|
| Čas nastavení | ~90 minut (konfigurace API + nastavení schématu) |
| Extrahovaná pole PLP | 10/10 cílových polí (přes dataset) |
| Obohatení PDP | ✅ Přes dataset nebo vlastní API nastavení |
| Paginace | ✅ Zajištěna infrastrukturou |
| Úspěšnost proti anti-botu | ✅ Nejsilnější — residential proxy + odblokování |
| Kontekst prodejny/lokace | ⚠️ Vyžaduje konfiguraci geotargetingu |
Pokud jste sólo analytik nebo malý tým, Bright Data je zbytečně silné dělo. Pokud ale provozujete monitoring pro 50 000 SKU s datovým inženýrským týmem, je to nejspolehlivější dostupná infrastruktura.
4. Apify
je cloudová platforma založená na actorech, kde uživatelé spouštějí předpřipravené nebo vlastní scraping skripty („actors“) v cloudu. Pro Home Depot najdete na marketplace komunitní actory — jejich kvalita a údržba se ale liší.
Jak pracuje s Home Depot:
Úspěch Apify závisí čistě na tom, kterého actora zvolíte. Testoval jsem (od 0,50 USD za 1 000 výsledků) a také product scraper actor. Výsledky byly smíšené.
Klíčové funkce:
- Velký marketplace předpřipravených actorů
- Vlastní vývoj actorů v JavaScriptu/Pythonu
- Vestavěný plánovač pro opakované běhy
- API, CSV, JSON, integrace s Google Sheets
- Správa proxy a automatizace prohlížeče
Cena: Free plán s 5 USD měsíčně v kreditech na výpočet. Starter za 49 USD měsíčně, Scale za 499 USD měsíčně. Cena konkrétních actorů se liší (některé jsou zdarma, jiné účtují cenu za výsledek).
Nejlepší pro: vývojáře, kteří chtějí plnou kontrolu nad logikou scrapování a umí hodnotit, forkovať nebo udržovat actory.
Silné a slabé stránky Apify na Home Depot
Moje výsledky testu:
| Testovaná položka | Výsledek |
|---|---|
| Čas nastavení | ~25 minut (hledání actora + konfigurace vstupů) |
| Extrahovaná pole PLP | 6/10 cílových polí (závisí na actorovi) |
| Obohatení PDP | ⚠️ Závisí na actorovi — některé to umí, jiné ne |
| Paginace | ⚠️ Závisí na actorovi |
| Úspěšnost proti anti-botu | ⚠️ Proměnlivá — jeden actor fungoval, jiný vracel blokovací stránky |
| Kontekst prodejny/lokace | ⚠️ Vyžaduje vstup PSČ/prodejny, pokud to actor podporuje |
Komunitní actor, který jsem testoval na produktová data, vytáhl základní pole, ale minul specifikace a dostupnost v prodejně. Reviews actor fungoval dobře pro text recenzí a hodnocení. Hlavní riziko: komunitní actory se mohou rozbít, jakmile Home Depot změní markup, a není jisté, že se budou udržovat.
5. ParseHub
je desktopová aplikace s vizuálním builderem point-and-click, navržená pro začátečníky. Renderuje JavaScript a zvládá některý dynamický obsah, ale s těžšími ochranami Home Depot bojuje.
Jak pracuje s Home Depot:
ParseHub načítá stránky ve vlastním prohlížeči a umožňuje vám klikat na prvky pro definici pravidel extrakce. Proti ochranám Akamai u Home Depot je ze všech nástrojů v tomto seznamu nejslabší — na některých stránkách jsem získal jen částečná data a na jiných blokovací stránku.
Klíčové funkce:
- Vizuální výběr point-and-click
- Renderování JavaScriptu
- Naplánované běhy u placených tarifů
- Rotace IP u placených tarifů
- Export do CSV, JSON
- API přístup pro programové získávání dat
Cena: Free verze s 5 projekty, 200 stránkami na běh a limitem 40 minut na běh. Standard tarif začíná na 89 USD měsíčně. Professional na 599 USD měsíčně.
Nejlepší pro: úplné začátečníky, kteří si chtějí vyzkoušet malý vizuální scrape a smíří se s omezenou úspěšností na chráněných webech.
Silné a slabé stránky ParseHub na Home Depot
Moje výsledky testu:
| Testovaná položka | Výsledek |
|---|---|
| Čas nastavení | ~30 minut |
| Extrahovaná pole PLP | 5/10 cílových polí (některé dynamické moduly se nenačetly) |
| Obohatení PDP | ⚠️ Vyžadovalo ruční sledování odkazů |
| Paginace | ⚠️ Omezení počtu stránek ve free plánu |
| Úspěšnost proti anti-botu | ❌ Blokováno ve 3 z 5 testovacích pokusů |
| Kontekst prodejny/lokace | ⚠️ Obtížné zachovat |
ParseHub je přístupný pro pochopení, jak vizuální scraping funguje, ale konkrétně pro Home Depot v roce 2026 není dost spolehlivý pro produkční monitoring. Počáteční cena 89 USD měsíčně u placených tarifů ho navíc dělá méně atraktivním, když existují free alternativy jako Thunderbit.
Porovnání vedle sebe: všech 5 scraperů pro Home Depot testovaných na stejné stránce

Úplné srovnání podle mého testování:
| Funkce | Thunderbit | Octoparse | Bright Data | Apify | ParseHub |
|---|---|---|---|---|---|
| No-Code nastavení | ✅ AI na 2 kliknutí | ✅ Vizuální builder | ⚠️ IDE + datasety | ⚠️ Actors (semi-code) | ✅ Vizuální builder |
| Anti-bot na Home Depot | ✅ Cloud + browser volby | ⚠️ Střední | ✅ Proxy síť | ⚠️ Záleží na actorovi | ❌ Slabé |
| Obohacení podstránek | ✅ Vestavěné | ⚠️ Ruční konfigurace | ⚠️ Vlastní nastavení | ⚠️ Závisí na actorovi | ⚠️ Ruční konfigurace |
| Plánované scrapování | ✅ Přirozený jazyk | ✅ Vestavěné | ✅ Vestavěné | ✅ Vestavěné | ✅ U placených tarifů |
| Export do Sheets/Airtable/Notion | ✅ Vše zdarma | ⚠️ CSV/Excel/DB | ⚠️ API/CSV | ⚠️ API/CSV/Sheets | ⚠️ CSV/JSON |
| Free verze | ✅ Ano | ✅ Omezená | ❌ Jen placená | ✅ Omezená | ✅ Omezená |
| Čas nastavení (můj test) | ~7 min | ~35 min | ~90 min | ~25 min | ~30 min |
| PLP pole (z 10) | 9 | 8 | 10 | 6 | 5 |
| Úspěšnost obohacení PDP | ✅ | ⚠️ | ✅ | ⚠️ | ⚠️ |
| Nejlepší pro | Firemní uživatele, ecommerce ops | Středně pokročilé uživatele | Enterprise/dev týmy | Vývojáře | Začátečníky |
Vítěz podle kritéria:
- Nejrychlejší první tabulka: Thunderbit
- Nejlepší no-code AI setup: Thunderbit
- Nejlepší kontrola vizuálního workflow: Octoparse
- Nejsilnější enterprise anti-bot infrastruktura: Bright Data
- Nejlepší předpřipravený dataset Home Depot: Bright Data
- Nejlepší kontrola pro vývojáře: Apify
- Nejlepší free zkušební verze pro začátečníky: ParseHub (s výhradami)
- Nejlepší průběžný monitoring s exporty do Sheets/Airtable/Notion: Thunderbit
Automatizované sledování cen a zásob: víc než jednorázový scrape
Většina e-commerce týmů nepotřebuje jednorázový scrape. Potřebují průběžné sledování — týdenní změny cen, denní stav zásob, detekci nových produktů. Tady jsou tři workflow šablony, které fungují.
Týdenní monitor cen pro 500 SKU
- Vložte do Thunderbit URL kategorií Home Depot nebo URL výsledků vyhledávání
- Použijte AI Suggest Fields pro zachycení Product Name, URL, Price, Original Price, Rating, Review Count, Availability
- Použijte Scrape Subpages pro Internet Number, Model Number, Specs
- Exportujte do Google Sheets
- Naplánujte přirozeným jazykem: „každé pondělí v 8:00“
- V Google Sheets přidejte sloupec
scrape_datea vzorecprice_delta, který porovná tento týden s minulým týdnem
Jednoduchý vzorec pro detekci změny ceny:
1=current_price - XLOOKUP(product_url, previous_week_urls, previous_week_prices)
Celé nastavení zabere asi 15 minut a běží automaticky každý týden. Porovnejte to s Bright Data (vyžaduje API setup a engineering) nebo Octoparse (vyžaduje údržbu vizuálního workflow a kontrolu rozbitých selektorů).
Denní kontrola dostupnosti zásob
Pro prioritní SKU napříč více prodejnami Home Depot:
- Nastavte prohlížeč na cílové PSČ/prodejnu
- Scrappujte pole dostupnosti PDP (in stock, limited stock, out of stock, delivery window, pickup options)
- Spojte s daty vyhledávače prodejen (název prodejny, adresa, telefon, otevírací doba)
- Exportujte do sledovací tabulky se sloupci: SKU, store_id, ZIP, availability, delivery_window, scrape_time
- Naplánujte denně
Browser Scraping je tady klíčový, protože dostupnost na úrovni prodejny závisí na cookie vybrané prodejny.
Upozornění na nové produkty v kategorii
- Každý den scrapujte stejnou kategorii
- Zachyťte Product URL, Internet Number, Product Name, Brand, Price
- Porovnejte dnešní Internet Numbers se včerejšími
- Označte nové řádky jako „nově přidané“
- Pošlete upozornění do Sheets, Airtable, Notion nebo Slacku
Plánování v přirozeném jazyce v Thunderbit a dělají tyto workflow směšně snadné na údržbu. Žádné cron joby, žádné vlastní skripty, žádné placené integrační tarify.
Který scraper pro Home Depot je pro vás ten pravý? Rychlý rozhodovací průvodce
Rozhodovací strom:
💡 „Nemám žádné zkušenosti s kódováním a data potřebuju tento týden.“ → Thunderbit. AI scrapování na dvě kliknutí, Chrome extension, bezplatné exporty do Sheets/Excelu. Nejrychlejší cesta od stránky k tabulce.
💡 „Jsem v pohodě s point-and-click workflow buildery a chci větší kontrolu.“ → Octoparse (víc funkcí, víc nastavení) nebo ParseHub (jednodušší, ale slabší proti ochranám HD).
💡 „Potřebuju enterprise data pro 10 000+ SKU s rotací proxy.“ → Bright Data. Nejsilnější infrastruktura, předpřipravené datové sady Home Depot, ale vyžaduje engineering nebo správu dodavatele.
💡 „Jsem vývojář a chci plnou kontrolu nad logikou scrapování.“ → Apify. Actor-based, skriptovatelný, velký marketplace — ale počítejte s údržbou nebo forkováním actorů, až Home Depot změní markup.
Budget guide:
| Měřítko | Nejlepší volba | Poznámky |
|---|---|---|
| 50–500 řádků, jednorázově | Thunderbit free, ParseHub free, Apify free | Anti-bot může i tak rozhodnout o úspěchu |
| 500 řádků týdně | Thunderbit, Octoparse Standard | Záleží na plánování a exportech |
| 5 000 řádků měsíčně | Thunderbit paid, Octoparse paid, Apify | Obohacením podstránek se násobí počet stránek |
| 10 000+ řádků opakovaně | Bright Data, Apify custom | Potřebujete proxy, monitoring, retry a QA |
| Miliony záznamů | Bright Data dataset/API | Nákup udržovaných dat může vyhrát nad scrapováním |
Tipy, jak scrapovat Home Depot bez blokace
Praktická doporučení z mého testování:
- Začněte v malých dávkách, než začnete škálovat. Otestujte 10 produktů, ověřte kvalitu dat a teprve potom rozšiřujte.
- Používejte Browser Scraping, když je stránka viditelná ve vaší přihlášené Chrome relaci — zachová cookies, vybranou prodejnu i kontext lokace.
- Používejte Cloud Scraping pro veřejné stránky jen tehdy, když vrací skutečná produktová data (ne blokovací stránky).
- Zachovejte lokální kontext: vybraná prodejna, PSČ a doručovací region ovlivňují cenu i dostupnost.
- Rozložte naplánované běhy v čase místo toho, abyste v jedné vlně zasáhli tisíce PDP.
- Hlídáte kvalitu výstupu, ne jen dokončení. Scraper může „uspět“, ale vrátit chybovou stránku. Kontrolujte chybějící cenová pole, neobvykle krátké HTML nebo text jako „Access Denied.“
- Detekujte blokovací stránky ověřením, že očekávaná pole (cena, název produktu, specifikace) jsou ve výstupu přítomná.
- Pro vysoký objem použijte řízenou infrastrukturu pro odblokování nebo residential proxy.
- Respektujte rate limity a nepřetěžujte servery. Scraping není totéž co DDoS.
- Právní poznámka: Scrapování veřejně viditelných produktových dat je v rámci americké judikatury obvykle řešeno odděleně od hackingu nebo přístupu k privátním datům (viz ). Přesto si projděte Podmínky použití Home Depot, vyhněte se osobním/účtovým datům, neobcházejte přístupové kontroly a pro komerční produkční použití se poraďte s právníkem.
Závěr
Který nástroj vyhraje, záleží na vašem týmu, technické zdatnosti a rozsahu.
Pro netechnické byznys uživatele, kteří potřebují spolehlivá data z Home Depot do tabulky — s AI detekcí polí, automatickým obohacením podstránek, plánováním v přirozeném jazyce a bezplatnými exporty — je Thunderbit jasný vítěz. Při scrapování přes Browser Scraping zvládl ochrany Home Depot proti botům, vytáhl nejvíc polí s nejmenším časem na nastavení a nevyžadoval žádnou údržbu workflow.
Pro enterprise provoz s podporou engineeringu nabízí Bright Data nejsilnější infrastrukturu a možnost předpřipraveného datasetu. Pro vývojáře, kteří chtějí plnou kontrolu, dává Apify flexibilitu založenou na actorech. A pro uživatele, kteří preferují vizuální workflow buildery, přináší Octoparse víc ruční kontroly za cenu delšího nastavení.
Pokud chcete vidět, jak vypadá moderní scraping Home Depot, vyzkoušejte na vlastních stránkách. Možná vás překvapí, kolik dat získáte za méně než 10 minut.
Chcete se dozvědět víc o AI web scrapingu? Podívejte se na s návody, nebo si přečtěte náš průvodce .
Často kladené otázky
1. Je legální scrapovat produktová data z Home Depot?
Scrapování veřejně viditelných produktových dat — cen, specifikací, hodnocení — je podle amerického práva obecně posuzováno jinak než přístup k soukromým nebo účtem chráněným informacím. Řada případů hiQ v. LinkedIn omezuje v některých situacích použití CFAA u veřejných webových dat. To ale neruší všechna rizika. Projděte si podmínky použití Home Depot, nescrapujte osobní ani účtová data, nepřetěžujte jejich servery a před vybudováním komerční datové pipeline si nechte poradit od právníka.
2. Který scraper pro Home Depot je nejlepší pro průběžné sledování cen?
Thunderbit je pro většinu týmů nejlepší volba, protože kombinuje AI detekci polí, vestavěné plánování v přirozeném jazyce, obohacení podstránek a bezplatné exporty přímo do Google Sheets. Týdenní monitor cen pro 500 SKU nastavíte asi za 15 minut. Octoparse i Bright Data plánování podporují také, ale s větší složitostí a vyšší cenou.
3. Můžu scrapovat skladová data na úrovni prodejen Home Depot?
Ano, ale záleží na přístupu. Dostupnost na úrovni prodejny se zobrazuje v PDP fulfillment modulech a mění se podle vybrané prodejny/PSČ. Scrapování přes prohlížeč (například režim Browser Scraping v Thunderbit) je nejspolehlivější metoda, protože čte stránku s vaší aktuální volbou prodejny. Enterprise nástroje jako Bright Data to zvládnou přes geotargeting, ale vyžadují vlastní konfiguraci.
4. Potřebuji programátorské dovednosti, abych scrapoval Home Depot?
Ne — nástroje jako Thunderbit a ParseHub jsou plně no-code. Octoparse používá vizuální builder, který vyžaduje logiku workflow, ale ne programování. Apify a Bright Data jsou techničtější, zejména u vlastních setupů, integrace API a produkčního monitoringu ve velkém.
5. Proč některé scrapery na Home Depot selhávají, ale na jiných webech fungují?
Home Depot používá agresivní detekci botů (v souladu s Akamai Bot Manager). Ověřuje reputaci IP, chování prohlížeče, cookies a dynamické renderování. Nástroje, které spoléhají na jednoduché HTTP requesty nebo datacentrové IP, často končí na 403 chybách nebo blokovacích stránkách. Nejspolehlivější přístupy používají buď infrastrukturu residential proxy (Bright Data), nebo scrapování v browser session, které přebírá skutečné cookies a stav relace uživatele (Thunderbit).
Další informace
