Tìm kiếm "amazon scraper" trên GitHub trả về khoảng . Thu hẹp phạm vi xuống các repo được đẩy trong sáu tháng gần đây, con số chỉ còn khoảng — chưa tới 20%. Phần còn lại? Là các hướng dẫn bị bỏ dở, wrapper lỗi thời và những script ngừng hoạt động ngay khi Amazon siết chặt phòng thủ.
Tôi đã dành khá nhiều thời gian đào sâu các repo Amazon scraper, đọc issue trên GitHub và theo dõi các thảo luận cộng đồng trên Reddit và Stack Overflow. Mẫu số chung rất rõ: ai đó tìm được một repo phổ biến, mất một giờ để cài đặt, chạy thử một lần rồi vấp ngay một bức tường CAPTCHA hoặc lỗi 503. Chính sách chống bot của Amazon năm 2026 không còn như cách đây chỉ hai năm — TLS fingerprinting, phân tích hành vi và việc triển khai CAPTCHA mạnh tay đã khiến lối mòn “xoay user agent rồi cầu may” gần như vô dụng. Hướng dẫn này sẽ đi vào những thực hành thực sự quan trọng nếu bạn muốn lấy dữ liệu Amazon ổn định từ một repo GitHub, và phải làm gì khi scraper của bạn hỏng — không phải là nếu, mà là khi.
Amazon Scraper trên GitHub là gì, và vì sao quá nhiều cái lại thất bại?
Một repo Amazon scraper trên GitHub thường là một script mã nguồn mở — thường viết bằng Python, Node.js hoặc dựa trên Scrapy — dùng để trích xuất dữ liệu có cấu trúc từ các trang Amazon. Những dữ liệu mục tiêu thì rất quen thuộc: tiêu đề sản phẩm, giá, ASIN, xếp hạng, số lượng đánh giá, tình trạng còn hàng, thông tin người bán, thẻ kết quả tìm kiếm và nội dung đánh giá.
Kiến trúc thường khá đơn giản:
- Một HTTP client hoặc trình duyệt không giao diện sẽ tải trang.
- Một bộ phân tích HTML hoặc JSON sẽ trích các trường dữ liệu.
- Dữ liệu được lưu vào CSV, JSON hoặc cơ sở dữ liệu.
Các repo thường rơi vào bốn nhóm:
- Thư viện Python nhẹ (ví dụ: )
- Scrapy spider (ví dụ: )
- Tự động hóa trình duyệt bằng Selenium hoặc Playwright
- Các dự án wrapper API, thực chất là giao diện cho một dịch vụ thu thập dữ liệu thương mại (ví dụ: )
Mô hình thất bại thì rất dễ đoán. Phần lớn repo hỏng vì:
- Amazon thay đổi bố cục trang hoặc các mảnh HTML
- Amazon trả về 503 hoặc CAPTCHA thay vì nội dung thật
- TLS và HTTP fingerprint của scraper không còn giống trình duyệt
- Mismatch về locale, ngôn ngữ hoặc header làm hệ thống nghi ngờ
- Người duy trì repo bỏ cuộc sau khi giải xong một use case rất hẹp ban đầu
Số sao cao và trạng thái “hiện vẫn dùng được” là hai chuyện rất khác nhau. Trong đợt kiểm tra tôi thực hiện cho bài viết này, chỉ khoảng ba trong số tám repo xuất hiện nhiều nhất có vẻ còn hoạt động rõ ràng trong năm 2026.
Hãy kiểm tra độ mới năm 2026 trước khi clone bất kỳ repo Amazon Scraper nào trên GitHub
Bước này quan trọng hơn với Amazon so với hầu hết mục tiêu khác. Chính sách phòng thủ của Amazon thay đổi nhanh hơn một website thương mại điện tử điển hình, nên một repo chạy tốt trên website giới thiệu sản phẩm có thể trở nên vô dụng trên Amazon chỉ sau vài tuần. Tuy vậy, phần lớn danh sách “best amazon scraper github” lại đề xuất repo mà không kiểm tra xem chúng còn hoạt động hay không. Người dùng mất hàng giờ để thiết lập các công cụ đã hỏng.
Cách kiểm tra một repo GitHub còn sống hay không
Trước khi git clone bất cứ thứ gì, hãy chạy qua các kiểm tra sau:
- Ngày commit cuối cùng: Bất kỳ thứ gì cũ hơn 6 tháng đều là tín hiệu cảnh báo mạnh đối với Amazon.
- Issue mở so với tỷ lệ phản hồi: Tìm trong tab Issues các từ khóa “captcha,” “503,” “blocked,” và “not working.” Nếu các báo cáo này chất đống mà không có phản hồi từ người duy trì, hãy bỏ qua.
- Sức khỏe phụ thuộc: Mở
requirements.txthoặcpackage.json. Các thư viện đã lỗi thời (ví dụrequestscũ không xử lý TLS hiện đại) là một dấu hiệu đỏ. - Phạm vi trang Amazon: Repo có xử lý trang sản phẩm, kết quả tìm kiếm VÀ đánh giá không? Hay chỉ một loại?
- Cách tiếp cận chống bot: Header cố định, không hỗ trợ proxy là cách nghĩ từ thời 2023, không sống nổi đến 2026.
Danh sách kiểm tra độ mới của Amazon Scraper trên GitHub

| Tín hiệu độ mới | Cần kiểm tra gì | Dấu hiệu đỏ 🚩 |
|---|---|---|
| Ngày commit cuối | Dòng commit hoặc ngày đẩy repo | Cũ hơn 6 tháng |
| Issue mở | Tab Issues — lọc "captcha," "503," "blocked" | Lỗi lặp lại nhưng không có phản hồi từ người duy trì |
| Sức khỏe phụ thuộc | requirements.txt / package.json | Thư viện lỗi thời, không có chiến lược TLS hiện đại |
| Phạm vi trang Amazon | README + ví dụ code | Chỉ xử lý một loại trang (ví dụ: trang sản phẩm nhưng không có tìm kiếm hoặc đánh giá) |
| Cách tiếp cận chống bot | Mã nguồn, cấu hình proxy | Chỉ có header và chuỗi UA cố định |
| Mô hình duy trì | Là scraper thật, hướng dẫn hay wrapper cho API thương mại? | Repo thực ra chỉ là front-end cho một dịch vụ trả phí |
Thực tế quá trình kiểm tra cho thấy gì
Tôi đã đối chiếu tám repo Amazon scraper xuất hiện nhiều nhất theo các tiêu chí này. Kết quả khá đáng ngại:
| Repo / Công cụ | Stars | Tín hiệu commit cuối | Phạm vi | Trạng thái 2026 | Ghi chú |
|---|---|---|---|---|---|
| oxylabs/amazon-scraper | ~2.872 | 2026-04-02 | Wrapper cho API scraper được quản lý | Còn sống, nhưng không phải DIY | Mới, nhưng thực chất là front-end cho dịch vụ được quản lý |
| omkarcloud/amazon-scraper | ~214 | 2026-02-25 | API được quản lý cho tìm kiếm, chi tiết, đánh giá | Còn sống, nhưng không phải DIY | Phủ dữ liệu tốt, nhưng là sản phẩm API chứ không phải scraper thô |
| theonlyanil/amzpy | ~110 | 2026-02-26 | Thư viện Python nhẹ | Còn sống | Repo GitHub scraper trực tiếp rõ ràng nhất dùng curl_cffi |
| philipperemy/amazon-reviews-scraper | ~134 | 2024-11-21 | Chỉ đánh giá | Hẹp nhưng dùng được | Cũ và chỉ tập trung vào review |
| python-scrapy-playbook/amazon-python-scrapy-scraper | ~74 | Commit cuối 2023; repo được đẩy 2024-08-20 | Scrapy spider + proxy middleware | Dạng hướng dẫn, đã cũ | Hữu ích để học, không phải stack sẵn sàng dùng cho 2026 |
| drawrowfly/amazon-product-api | ~744 | 2022-11-13 | Node CLI cho tìm kiếm, chi tiết, đánh giá | Rủi ro cao | Phủ rộng, nhưng mức duy trì đã quá cũ |
| tducret/amazon-scraper-python | ~881 | 2020-10-13 | Từ tìm kiếm sang CSV | Chết đối với 2026 | Từng phổ biến, nhưng rõ ràng đã lỗi thời |
| scrapehero-code/amazon-scraper | ~432 | 2020-06-21 | Hướng dẫn tìm kiếm/sản phẩm | Chết đối với 2026 | Gần như chỉ còn giá trị lưu trữ |
Các issue công khai cũng kể cùng một câu chuyện. có issue mang tiêu đề "All requests receive captcha response." có issue “Doesn't seem to be working.” có issue “Bypass Amazon protection.” Đây không phải là những trường hợp ngách hiếm gặp — đó là những thứ đầu tiên người dùng đụng phải.
Chiến lược chống chặn: Cách tránh bị block khi dùng Amazon scraper từ GitHub
Bị chặn là nỗi đau lớn nhất đối với bất kỳ ai dùng một dự án amazon scraper github. Những lời khuyên chung chung như “dùng proxy và xoay user agent” giờ không còn đủ. Bộ chống bot của Amazon giai đoạn 2025–2026 bao gồm TLS fingerprinting, phân tích hành vi và triển khai CAPTCHA mạnh tay. Bạn cần một cách tiếp cận nhiều lớp.
Khớp TLS fingerprint: Vì sao requests thuần dễ bị chặn
Đây là một trong những kỹ thuật chống chặn bị bỏ qua nhiều nhất. TLS fingerprinting hoạt động như sau: khi script của bạn mở một kết nối bảo mật đến Amazon, máy chủ có thể suy ra rất nhiều về client từ cách nó “bắt tay” — các bộ cipher được đề nghị, thứ tự extension, cài đặt HTTP/2. Trình duyệt có cấu hình TLS và HTTP/2 khá cố định, và những tổ hợp này có thể được nhận diện bằng các kỹ thuật như .
requests thuần và các thiết lập httpx thông thường có thể sao chép header, nhưng không sao chép được hành vi TLS và HTTP/2 giống Chrome. Amazon có thể phân biệt được.
giải quyết trực tiếp vấn đề này. Nó cung cấp mô phỏng trình duyệt — các target được hỗ trợ gồm chrome136, safari184 và firefox133 — để fingerprint TLS của HTTP client khớp với một trình duyệt thật. Tài liệu còn cảnh báo rõ không nên tạo chuỗi JA3 ngẫu nhiên: fingerprint trình duyệt phần lớn là cố định theo từng phiên bản, và việc sinh ngẫu nhiên vô nghĩa còn dễ bị phát hiện hơn sao chép fingerprint thật.
Dữ liệu cộng đồng cũng khớp với điều này. Một xác nhận tham số impersonate hữu ích vì nó xoay hồ sơ trình duyệt và giữ header đồng bộ. Một cho biết Amazon chặn client dựa trên TLS fingerprint “sau khoảng một hoặc hai tháng.” Một hỏi thẳng liệu Amazon có đang fingerprint python-requests hay không (câu trả lời ngầm hiểu: có).
Nếu bạn vẫn đang dùng requests thuần làm client Amazon tuyến đầu, hãy thay đổi giả định đó trước khi nâng cấp bất cứ thứ gì khác.
Xoay proxy đúng cách (không chỉ đơn giản là “dùng proxy”)
Mục đích của proxy không phải là xoay càng nhiều càng tốt. Mục đích là làm cho phiên làm việc trông có vẻ đáng tin.
Residential vs. datacenter: Proxy datacenter rẻ hơn nhưng dễ bị phát hiện hơn. Proxy residential đắt hơn nhưng Amazon khó gắn cờ hơn nhiều. bắt đầu từ 4,00 USD/GB theo kiểu trả theo mức dùng, và xuống 3,50 USD/GB ở các gói lớn hơn. bắt đầu từ 6 USD/GB. Amazon thuộc nhóm “mục tiêu tinh vi”, nơi proxy residential xứng đáng với mức phí cộng thêm.
Xoay theo từng request vs. theo từng session: Đây là chỗ mà phần lớn tutorial làm sai. Xoay proxy sau mỗi request nhưng vẫn giữ cookie và header không đổi có thể trông kém tự nhiên hơn, chứ không phải tự nhiên hơn. Mẫu an toàn hơn:
- Giữ luồng tìm kiếm → sản phẩm → đánh giá trên cùng một sticky session khi có thể
- Chỉ đổi session khi bắt đầu một hành trình tìm kiếm mới, không phải mỗi request
- Xoay giữa các session, không xoay ngẫu nhiên bên trong một phiên duyệt
Một cho biết IP ISP thông thường hoạt động kém hơn nhiều so với IP di động trên các website thương mại điện tử phổ biến. Một báo cáo bị chặn ngay cả khi đã dùng user agent luân phiên và proxy residential — một lời nhắc tốt rằng proxy thôi là chưa đủ.
Nhịp gửi request, backoff và giới hạn tốc độ
Các trang 503 của Amazon không phải là xui xẻo ngẫu nhiên. Chúng là tín hiệu phản hồi.
Một về việc scrape hơn 500 ASIN cho biết cứ đến khoảng ASIN 101 là lại nhận 503 ở đúng cùng một điểm, dù đã chèn sleep. Mẫu này đã cũ, nhưng bài học vẫn còn nguyên: lưu lượng thô từ một IP hoặc một fingerprint rồi cũng sẽ chạm ngưỡng phòng thủ.
Nhịp thực hành tốt nhất cho các scraper GitHub do bạn tự triển khai:
- Độ trễ ngẫu nhiên giữa các request (không phải khoảng cố định, vì có thể bị phát hiện)
- 2 đến 5 giây giữa các request sản phẩm công khai khi dùng HTTP client đơn giản
- Exponential backoff sau 503 hoặc CAPTCHA — lùi dần thay vì thử lại ngay
- Giảm concurrency xuống thấp hơn mức bạn nghĩ là cần
- Ghi log fail-open thay vì vòng lặp retry chặt cứng
Phần lớn repo amazon scraper github không có sẵn giới hạn tốc độ. Bạn sẽ cần tự thêm.
Điều phối header: Không chỉ là chuỗi User-Agent
Amazon kiểm tra toàn bộ bộ header, không chỉ User-Agent.
Một bộ header trình duyệt thực tế nên bao gồm:
User-AgentAcceptAccept-LanguageAccept-Encoding- Gợi ý
Sec-CH-*khi phù hợp - Hành vi kết nối nhất quán với hồ sơ trình duyệt đã chọn
Header phải khớp với locale của marketplace. Một phát hiện cùng một cấu hình bot chỉ bị nhận diện ở một số locale, và một bình luận khác chỉ ra các header liên quan vùng như Accept-Language.
Quy tắc là: header, TLS/hồ sơ trình duyệt và địa lý proxy không được mâu thuẫn với nhau. Đừng gửi header Chrome nhưng lại dùng UA của Firefox. Đừng dùng proxy Mỹ với Accept-Language: de-DE.
Xử lý CAPTCHA: Khi nào nên giải, khi nào nên lùi lại
Gặp CAPTCHA nghĩa là Amazon đã bắt đầu nghi ngờ. Giải được CAPTCHA không đồng nghĩa đặt lại điểm tin cậy của bạn.
Với các trường hợp CAPTCHA đơn lẻ, tần suất thấp:
- Gói PyPI là bộ giải CAPTCHA văn bản của Amazon viết hoàn toàn bằng Python, nhưng bản phát hành mới nhất từ tháng 5/2023 — hãy xem nó như một công cụ chiến thuật, không phải chiến lược bền vững
- niêm yết CAPTCHA Amazon ở mức 0,45 USD cho mỗi 1.000 lần giải
Với vòng lặp CAPTCHA lặp lại:
- Dừng việc giải và bắt đầu lùi lại
- CAPTCHA lặp lại nghĩa là session đã “cháy” — giải nó không khôi phục được độ tin cậy của fingerprint, lịch sử session hay uy tín IP
- Nếu CAPTCHA tập trung theo subnet proxy, vấn đề nằm ở tầng mạng chứ không phải bộ phân tích
Khi nào thực sự cần trình duyệt không giao diện, và khi nào là quá mức
Sai lầm thường gặp là chạy Playwright cho mọi thứ.
Trường hợp nên dùng trình duyệt:
- Kết quả tìm kiếm phụ thuộc vào render JavaScript hoặc trạng thái theo locale
- Luồng đánh giá chuyển hướng đến trang đăng nhập hoặc sign-in
- Những workflow mà cookie và ngữ cảnh trình duyệt quan trọng hơn tốc độ thô
Trường hợp không nên dùng trình duyệt:
- Các trang sản phẩm công khai thông thường
- Trích xuất chi tiết sản phẩm tĩnh, nơi một HTTP client giống trình duyệt là đủ
- Thu thập quy mô lớn, nơi hiệu quả tài nguyên là quan trọng
Hãy bắt đầu với client nhẹ nhất có thể hoạt động. Một về scrape ở quy mô lớn mô tả lộ trình: bắt đầu với requests, rồi đến curl_cffi, và chỉ chuyển sang trình duyệt đầy đủ khi các lựa chọn nhẹ hơn thất bại. Trình duyệt không giao diện chậm hơn rõ rệt và tốn tài nguyên hơn HTTP client khi scrape trang sản phẩm Amazon.
Ma trận quyết định chống chặn cho các dự án Amazon Scraper trên GitHub
| Kịch bản | Cách tiếp cận khuyến nghị | Vì sao |
|---|---|---|
| Trang sản phẩm công khai (quy mô nhỏ) | curl_cffi + sticky residential session | Con đường rẻ nhất nhưng vẫn trông giống trình duyệt |
| Trang kết quả tìm kiếm | Dùng curl_cffi trước, chỉ dùng Playwright nếu render hoặc state làm hỏng HTTP | Tìm kiếm phụ thuộc state và locale nhiều hơn |
| Đánh giá (cần đăng nhập) | Chế độ trình duyệt với cookie/session thật | Luồng đăng nhập và review động khó giả lập bằng HTTP thuần |
| Quy mô lớn (5k+ mỗi ngày) | API scraper được quản lý, unlocker hoặc nền tảng no-code | Code GitHub tự làm đơn lẻ trở thành vấn đề hạ tầng |
Khi dự án Amazon Scraper GitHub của bạn hỏng: hãy có kế hoạch dự phòng no-code
Mọi người làm scraper có kinh nghiệm đều có Phương án B.
Các bản cập nhật của Amazon cuối cùng cũng sẽ làm hỏng bất kỳ repo GitHub nào vào thời điểm tệ nhất có thể. Với đội ngũ thương mại điện tử, một scraper hỏng đồng nghĩa với bỏ lỡ thay đổi giá, dữ liệu đối thủ bị lỗi thời và các khoảng trống trên dashboard.
Nhiều người tìm kiếm “amazon scraper github” thực ra là người dùng doanh nghiệp — vận hành ecommerce, marketer, nhà nghiên cứu FBA — đã thử giải pháp code vì không tìm được lựa chọn tốt hơn. Dữ liệu diễn đàn cũng cho thấy sự thất vọng thực sự với chính thức của Amazon: quyền truy cập hạn chế, dữ liệu ít và các mà nhiều người bán không đáp ứng được.
Vì sao scraper Amazon trên GitHub cần được bảo trì liên tục
Đợt kiểm tra ở trên đã làm điều này trở nên rất cụ thể:
- Các repo lỗi thời tích tụ báo cáo hỏng mà không có bản sửa
- Những repo “vẫn chạy” giờ nói thẳng về biện pháp chống bot trong README
- Các thảo luận cộng đồng ngày càng xoay quanh TLS fingerprint, vòng lặp CAPTCHA và chất lượng proxy — chứ không còn là CSS selector nữa
Với người dùng doanh nghiệp, gánh nặng bảo trì đó mới là chi phí ẩn thật sự. Repo thì miễn phí. Thời gian của bạn để debug nó lúc 2 giờ sáng thì không.
Thunderbit như một lựa chọn thay thế thực tế cho Amazon Scraper
cung cấp có thể trích xuất tiêu đề, giá, ASIN, xếp hạng, thương hiệu, tình trạng còn hàng, nơi xuất xứ vận chuyển và URL gốc — mà không cần viết code.
Điều đó trông như thế này trong thực tế:
- Scrape 2 cú nhấp thay vì phải thiết lập môi trường Python, phụ thuộc và cấu hình proxy
- Template Amazon tức thì — không có overhead AI, chỉ cần trích xuất 1 lần nhấp
- Chế độ scrape bằng trình duyệt cho các trang cần đăng nhập (như trang review khiến người dùng scraper GitHub đau đầu)
- Cloud scraping cho các trang sản phẩm công khai với tốc độ cao (50 trang một lần)
- Xuất miễn phí sang Google Sheets, Airtable, Notion, Excel — không chỉ CSV/JSON
- Scheduled scraper cho việc theo dõi giá liên tục
- AI tự thích ứng với thay đổi bố cục — bạn không phải gánh bảo trì
Amazon Scraper GitHub so với Thunderbit: so sánh thẳng thắn

| Yếu tố | Scraper GitHub (ví dụ: AmzPy) | Thunderbit |
|---|---|---|
| Thời gian thiết lập | 15–60 phút (Python, phụ thuộc, proxy) | ~2 phút (cài Chrome extension) |
| Bảo trì | Bạn tự sửa khi hỏng | AI tự thích ứng với thay đổi bố cục |
| Xử lý chống bot | Tự làm (proxy, header, TLS) | Tích hợp sẵn (cloud + chế độ trình duyệt) |
| Scrape review (đã đăng nhập) | Quản lý session phức tạp | Chế độ scrape bằng trình duyệt |
| Xuất dữ liệu | Chỉ CSV/JSON | Sheets, Airtable, Notion, Excel, CSV, JSON |
| Lên lịch | Tự làm (cron, Airflow, v.v.) | Scheduled scraper tích hợp sẵn |
| Tùy biến | Cao hơn | Thấp hơn |
| Chi phí | Miễn phí (cộng thêm chi phí proxy) | Có gói miễn phí; tính theo credit |
Đánh đổi trung thực là: repo GitHub cho phép tùy biến nhiều hơn; Thunderbit cho độ tin cậy cao hơn. Nếu đội ngũ của bạn coi trọng thời gian hoạt động hơn sự linh hoạt, con đường no-code thường là lựa chọn hợp lý hơn.
Thực hành tốt nhất cho việc scrape Amazon định kỳ và theo lịch
Phần lớn các dự án amazon scraper github được xây dựng cho chạy một lần, nhưng các use case kinh doanh thực tế — theo dõi giá, kiểm tra tồn kho, phân tích đối thủ — lại cần scrape lặp lại. Repo GitHub hầu như không bao giờ có lịch chạy sẵn, buộc người dùng phải ghép cron job, Airflow hoặc workflow n8n.
Lên lịch DIY cho Amazon Scraper trên GitHub
Thiết lập lặp lại tối thiểu khả thi:
- Cron job trên Linux hoặc macOS để chạy script theo lịch
- Log chỉ thêm mới để bạn có thể debug lỗi sau đó
- Khử trùng lặp theo ASIN + timestamp để không lưu dữ liệu trùng
- Cảnh báo khi thất bại (thậm chí chỉ là email đơn giản khi exit khác 0) để biết khi nào một lần chạy hỏng lúc 3 giờ sáng
Với đội ngũ phức tạp hơn:
- n8n cho tự động hóa workflow nhẹ (thường được nhắc trong các thảo luận cộng đồng)
- Airflow cho pipeline lên lịch nặng hơn
- Trạng thái lưu trong database nếu bạn cần diff và lịch sử
Thực hành then chốt không phải là bản thân scheduler — mà là quản lý trạng thái. Theo dõi lần chạy thành công gần nhất, bộ ASIN gần nhất, giá thay đổi và các URL thất bại.
Lên lịch đơn giản hơn với Thunderbit
của Thunderbit cho phép bạn mô tả khoảng thời gian bằng tiếng Anh tự nhiên, nhập URL và bấm “Schedule.” AI sẽ chuyển ngôn ngữ tự nhiên thành lịch cron — không cần thiết lập kỹ thuật. Với các đội ngũ ecommerce không có kỹ sư nhưng cần theo dõi giá hoặc ra mắt sản phẩm đối thủ, đó là một sự giảm tải vận hành rất đáng kể.
Thực hành tốt nhất cho các lần scrape Amazon lặp lại
Những điều này đúng bất kể bạn dùng công cụ nào:
- Khử trùng lặp theo ASIN + cửa sổ timestamp — đừng lưu cùng một sản phẩm hai lần trong một lần chạy
- Lưu giá dưới dạng số, không phải chuỗi thô — giúp giảm công sức dọn dẹp về sau
- Gắn timestamp scrape vào mỗi dòng — bạn sẽ cần chúng để phân tích xu hướng
- Theo dõi delta, không chỉ trạng thái hiện tại — “giá giảm 12% so với tuần trước” hữu ích hơn nhiều so với “giá là 24,99 USD”
- Cảnh báo khi có thay đổi đáng kể — đối thủ giảm giá 15% đáng để nhận thông báo; dao động 0,5% chỉ là nhiễu
- Nghĩ về lưu trữ dữ liệu — file phẳng đủ dùng cho các lần chạy nhỏ; với 5k+ ASIN mỗi ngày, hãy cân nhắc database hoặc bảng tính đám mây
Chất lượng đầu ra so sánh trực tiếp: mỗi cách tiếp cận Amazon Scraper GitHub thực sự trả về gì
Không ai so sánh chất lượng đầu ra thực tế giữa các repo amazon scraper github. Người dùng rất quan tâm đến chất lượng dữ liệu — “công cụ nào cho dữ liệu sạch và đầy đủ nhất” — nhưng lại phải tự clone và test từng repo. Phần này lấp vào khoảng trống đó.
Các repo GitHub phổ biến thực sự trích xuất gì, và bỏ sót gì
Dựa trên ví dụ trong README, ví dụ công khai và định dạng đầu ra được ghi nhận:
| Cách tiếp cận | Nó trích xuất rõ ràng những gì | Thiếu sót / đánh đổi thường gặp |
|---|---|---|
| amzpy | Tiêu đề, giá, tiền tệ, URL hình ảnh, xếp hạng, review, biến thể, ASIN | Thiên về trang sản phẩm; ít giàu dữ liệu hơn ở phần review đầy đủ/thông số |
| tducret/amazon-scraper-python | CSV với tiêu đề, đánh giá, số review, URL sản phẩm, URL hình ảnh, ASIN | Lỗi thời, tập trung vào listing, câu chuyện chống bot yếu |
| python-scrapy-playbook scraper | Kết quả tìm kiếm, trang sản phẩm, đánh giá, pipeline CSV/JSON | Dạng hướng dẫn; phụ thuộc middleware proxy bên ngoài; thường cần dọn dữ liệu nhiều hơn |
| omkarcloud/amazon-scraper | Tìm kiếm, danh mục, chi tiết, top review, nhiều ảnh/video/thông số | Không phải scraper thô — là dịch vụ API được quản lý |
| Thunderbit Amazon template | Tiêu đề, giá, ASIN, thương hiệu, xếp hạng, review, tình trạng còn hàng, nơi xuất xứ vận chuyển, làm giàu từ trang con | Ít kiểm soát ở mức code hơn so với script tùy chỉnh |
Bảng so sánh chất lượng đầu ra

| Trường dữ liệu | AmzPy | Repo dựa trên Scrapy | Repo Selenium | Thunderbit |
|---|---|---|---|---|
| Tiêu đề sản phẩm | ✅ | ✅ | ✅ | ✅ |
| Giá (dạng số) | ⚠️ chuỗi | ✅ | ⚠️ chuỗi | ✅ (kiểu số) |
| Xếp hạng | ✅ | ✅ | ✅ | ✅ |
| Số review | ❌ | ✅ | ✅ | ✅ |
| ASIN | ✅ | ✅ | ✅ | ✅ |
| Hình ảnh sản phẩm | ❌ | ⚠️ chỉ thumbnail | ✅ | ✅ (độ phân giải cao, xuất được) |
| Thành phần/thông số | ❌ | ❌ | ❌ | ✅ (qua scrape trang con + AI) |
| Xuất sang Sheets/Airtable | ❌ | ❌ | ❌ | ✅ miễn phí |
Vì sao định dạng dữ liệu lại quan trọng với người dùng doanh nghiệp
Dữ liệu lộn xộn tạo ra công việc ẩn. Ngay cả một scraper chạy thành công vẫn có thể trở thành thất bại vận hành nếu:
- Giá là chuỗi kèm ký hiệu tiền tệ thay vì số sạch
- Giá trị thiếu không nhất quán (chuỗi rỗng so với null so với "N/A")
- Ảnh chỉ là thumbnail độ phân giải thấp
- Trường review hoặc thông số cần hậu xử lý trước khi phân tích
Với các đội vận hành ecommerce, dữ liệu sạch tác động trực tiếp đến tốc độ phân tích và ra quyết định. AI của Thunderbit định dạng dữ liệu theo kiểu — số là số, ngày là ngày, URL là URL — nên dữ liệu sẵn sàng dùng ngay. Các repo GitHub thì rất khác nhau ở điểm này, và thời gian dọn dữ liệu tăng rất nhanh.
Tóm tắt nhanh: danh sách kiểm tra thực hành tốt nhất cho Amazon Scraper trên GitHub
- Kiểm tra ngày commit cuối trước khi clone. Cũ hơn sáu tháng là tín hiệu cảnh báo mạnh đối với Amazon.
- Tìm issue có các từ khóa “captcha,” “503,” “blocked,” và “not working” trước khi cài đặt.
- Ưu tiên
curl_cffihoặc một HTTP client mô phỏng trình duyệt khác thay vìrequeststhuần. - Giữ header, hồ sơ TLS, ngôn ngữ và địa lý proxy nhất quán — không mâu thuẫn.
- Dùng sticky session cho các luồng duyệt; đừng xoay vô tội vạ mỗi request.
- Thêm nhịp gửi ngẫu nhiên và exponential backoff.
- Xem CAPTCHA lặp lại là một session đã cháy, không phải câu đố để brute-force.
- Chỉ dùng trình duyệt không giao diện khi HTTP client không thể tái tạo trang một cách đáng tin.
- Lưu checkpoint và trạng thái để các lần chạy lỗi có thể tiếp tục an toàn.
- Có phương án dự phòng — dù đó là API được quản lý hay công cụ no-code như .
Các cân nhắc pháp lý và đạo đức khi scrape Amazon năm 2026
Có vài điều đáng biết, nói ngắn gọn.
Chính sách của Amazon ngày càng hạn chế hơn. Những tín hiệu mạnh nhất:
- Các trang trợ giúp của Amazon giờ trả về trang với nội dung: “To discuss automated access to Amazon data please contact api-services-support@amazon.com.”
- của Amazon chặn rất nhiều đường dẫn động, review, profile, wishlist và offer-listing.
- phản đối trực tiếp việc truy cập bằng agent ẩn danh hoặc giả dạng, né tránh biện pháp bảo mật, và nhận diện sai một agent thành Google Chrome. Amazon cũng về vụ việc này.
- Amazon đã đối với crawler của OpenAI vào cuối năm 2025.
Rủi ro thực tế cao hơn rõ rệt khi bạn chuyển từ trang sản phẩm công khai sang luồng đã xác thực, tự động hóa giả dạng, hoặc trích xuất thương mại khối lượng lớn. Đây không phải là lời khuyên pháp lý — hãy trao đổi với đội ngũ pháp lý của bạn cho trường hợp cụ thể.
Kết luận chính: lấy dữ liệu Amazon ổn định mà không bị chặn
Theo thứ tự quan trọng:
- Kiểm tra trước khi clone. Hãy giả định phần lớn kết quả GitHub đều lỗi thời, là hướng dẫn, hoặc là wrapper cho API thương mại.
- Nâng cấp tầng mạng trước tiên. TLS fingerprinting và độ nhất quán của session quan trọng hơn CSS selector.
- Dùng sticky residential session, không phải hỗn loạn proxy ngẫu nhiên. Xoay giữa các session, không xoay bên trong một session.
- Tốc độ request như một người dùng, không phải bài kiểm tra tải. Độ trễ ngẫu nhiên và exponential backoff là bắt buộc.
- Giải CAPTCHA đơn lẻ; loại bỏ session bị thử thách lặp lại. Đừng brute-force một fingerprint đã cháy.
- Luôn có phương án dự phòng. Amazon sẽ thay đổi điều gì đó vào giữa tuần, và scraper GitHub của bạn sẽ hỏng. Một công cụ no-code được duy trì như hoặc một API được quản lý có thể giữ pipeline dữ liệu của bạn sống sót trong lúc bạn debug.
- Ưu tiên chất lượng đầu ra. Dữ liệu sạch, có kiểu rõ ràng tiết kiệm nhiều thời gian về sau hơn một scraper nhanh nhưng lộn xộn.
Nếu bạn muốn độ tin cậy hơn khả năng tùy biến, Thunderbit cung cấp một lựa chọn thay thế được duy trì — hãy xem hoặc xem các hướng dẫn trên . Các developer muốn toàn quyền kiểm soát vẫn hoàn toàn có thể dùng repo GitHub — nhưng chỉ khi áp dụng các thực hành chống chặn và bảo trì được trình bày trong hướng dẫn này.
Câu hỏi thường gặp
Có hợp pháp để scrape dữ liệu sản phẩm Amazon bằng scraper GitHub không?
Điều khoản dịch vụ của Amazon hạn chế việc thu thập dữ liệu tự động, và Amazon đã chủ động thực thi điều này thông qua thư yêu cầu chấm dứt và các biện pháp kỹ thuật đối phó (đặc biệt trong giai đoạn 2025–2026). Việc scrape dữ liệu sản phẩm công khai vẫn là vùng xám; scrape sau đăng nhập hoặc giả dạng bot thành trình duyệt thật sẽ mang rủi ro cao hơn. Đây không phải là tư vấn pháp lý — hãy hỏi đội ngũ pháp lý của bạn cho trường hợp sử dụng cụ thể.
Các repo Amazon scraper trên GitHub thường hỏng bao lâu một lần?
Rất thường xuyên. Amazon thay đổi bố cục trang, thêm lớp chống bot mới và loại bỏ endpoint theo định kỳ. Trong đợt kiểm tra cho bài viết này, chỉ khoảng 3 trong 8 repo xuất hiện nhiều nhất thực sự hoạt động rõ ràng trong năm 2026. Ngay cả các repo “vẫn chạy” cũng thường có issue mở về CAPTCHA và lỗi 503. Hãy chuẩn bị tinh thần phải gỡ lỗi hoặc cập nhật thiết lập của bạn mỗi vài tuần đến vài tháng.
Amazon scraper tốt nhất trên GitHub năm 2026 là gì?
Không có một người thắng duy nhất — điều đó phụ thuộc vào use case và mức độ thoải mái kỹ thuật của bạn. Với một scraper Python nhẹ, trực tiếp, là một trong những lựa chọn còn mới. Với phạm vi rộng hơn thông qua API được quản lý, hoạt động được nhưng không thực sự là DIY. Hãy áp dụng danh sách kiểm tra độ mới trong bài này để tự đánh giá bất kỳ repo nào trước khi quyết định dùng.
Thunderbit có thể scrape Amazon mà không cần code không?
Có. của Thunderbit có thể trích xuất tiêu đề sản phẩm, giá, ASIN, xếp hạng, thương hiệu, tình trạng còn hàng và nhiều hơn nữa chỉ với một cú nhấp. Nó hỗ trợ chế độ scrape bằng trình duyệt cho các trang cần đăng nhập, cloud scraping cho trang công khai với tốc độ cao, scheduled scraping cho các công việc lặp lại và xuất miễn phí sang Google Sheets, Airtable, Notion và Excel. Bạn có thể bắt đầu bằng cách cài .
Làm sao để tránh bị cấm IP khi scrape Amazon?
Hãy dùng cách tiếp cận nhiều lớp: (1) chuyển từ requests thuần sang client mô phỏng TLS như curl_cffi, (2) dùng proxy residential với sticky session thay vì xoay datacenter ngẫu nhiên, (3) thêm nhịp gửi ngẫu nhiên và exponential backoff, (4) giữ toàn bộ bộ header nhất quán với hồ sơ trình duyệt và locale marketplace, và (5) xem CAPTCHA lặp lại là tín hiệu để loại bỏ session, không phải câu đố để giải vô thời hạn. Xem ma trận quyết định chống chặn ở phần trước để biết chi tiết hơn.
