깨진 링크, 고립된(오펀) 페이지, 심지어 2019년에 만들어 둔 “test” 페이지가 어쩌다 Google에 색인돼 버린 상황까지. 웹사이트를 한 번이라도 운영해 봤다면 이런 골칫거리가 생각보다 자주 터진다는 걸 잘 알 거예요.
제대로 된 크롤러라면 이런 문제를 한 번에 훑어내고, 사이트 전체를 돌면서 구조를 지도처럼 그려 줍니다. 그래야 “어디를 손봐야 하는지”가 딱 보이죠. 그런데 많은 분들이 “웹 크롤러”와 “웹 스크래퍼”를 같은 뜻으로 섞어 쓰곤 하는데, 사실 둘은 역할이 확실히 다릅니다.
저는 실제 웹사이트를 대상으로 무료 크롤러 10가지를 직접 테스트해 봤습니다. 어떤 건 SEO 점검에 강했고, 어떤 건 데이터 추출 쪽이 더 잘 맞았어요. 뭐가 기대 이상이었고, 뭐가 아쉬웠는지 한 번에 정리해 드릴게요.
웹사이트 크롤러란? 핵심 개념부터 정리
먼저 가장 흔한 오해부터 풀어볼게요. 웹사이트 크롤러는 웹 스크래퍼와 같은 도구가 아닙니다. 용어가 자주 뒤섞이지만, 하는 일이 애초에 달라요. 크롤러는 사이트의 ‘지도 제작자’에 가깝습니다. 링크를 타고 사이트 구석구석을 돌아다니며 모든 페이지를 찾아내고, 사이트 구조를 맵처럼 정리하죠. 핵심 목적은 발견(discovery) 입니다. URL을 찾아내고, 구조를 파악하고, 콘텐츠를 색인할 수 있게 정돈합니다. Google 같은 검색엔진이 봇으로 하는 일이 바로 이런 크롤링이고, SEO 도구가 사이트 건강검진을 할 때도 같은 방식이 쓰입니다().
반대로 웹 스크래퍼는 ‘채굴자’에 더 가깝습니다. 사이트 전체 지도를 만드는 데 관심이 있는 게 아니라, 필요한 데이터만 골라 캐내는 데 집중하죠. 예를 들어 상품 가격, 회사명, 리뷰, 이메일처럼 특정 필드를 페이지에서 뽑아옵니다. 보통은 크롤러가 찾아낸 페이지를 바탕으로 스크래퍼가 원하는 값을 추출합니다().
비유로 정리하면:
- 크롤러: 마트의 모든 통로를 돌며 어떤 상품이 어디에 있는지 목록을 만드는 사람
- 스크래퍼: 커피 코너로 직행해서 유기농 원두 가격만 싹 적어오는 사람
이 차이가 왜 중요하냐면요. 예를 들어 SEO 점검처럼 “우리 사이트에 어떤 페이지가 있는지 전부 찾아야” 한다면 크롤러가 필요합니다. 반대로 경쟁사 사이트에서 상품 가격을 모으고 싶다면 스크래퍼가 필요하죠. 가장 이상적인 건 둘을 함께 잘 해내는 도구입니다.
온라인 웹 크롤러를 써야 하는 이유: 비즈니스 관점의 핵심 이점
그럼 “왜 굳이 크롤러를 써야 하냐”는 질문이 나오죠. 웹은 계속 커지고, 관리해야 할 페이지도 끝없이 늘어납니다. 실제로 해 사이트 최적화를 하고 있고, 어떤 SEO 도구는 하루에 까지 크롤링하기도 합니다.
크롤러로 할 수 있는 일은 이런 것들이에요.
- SEO 점검: 깨진 링크, 누락된 타이틀, 중복 콘텐츠, 고립 페이지 같은 기술 이슈를 찾아냄().
- 링크 검사 & QA: 사용자가 먼저 발견하기 전에 404나 리다이렉트 루프를 잡아냄().
- 사이트맵 생성: 검색엔진 제출용 및 기획용 XML 사이트맵을 자동 생성().
- 콘텐츠 인벤토리: 전체 페이지 목록, 계층 구조, 메타데이터를 정리.
- 컴플라이언스 & 접근성: WCAG, SEO, 법적 준수 관점에서 전 페이지 점검().
- 성능 & 보안: 느린 페이지, 과도한 이미지 용량, 보안 이슈 등을 탐지().
- AI/분석용 데이터 수집: 크롤링 결과를 분석 도구나 AI 파이프라인에 투입().
아래는 활용 사례를 직무별로 간단히 매핑한 표입니다.
| 활용 사례 | 적합한 대상 | 기대 효과 / 결과 |
|---|---|---|
| SEO & 사이트 점검 | 마케팅, SEO, 소상공인 | 기술 이슈 발견, 구조 최적화, 순위 개선 |
| 콘텐츠 인벤토리 & QA | 콘텐츠 매니저, 웹마스터 | 콘텐츠 점검/이관, 깨진 링크·이미지 탐지 |
| 리드 생성(스크래핑) | 영업, 사업개발 | 잠재고객 발굴 자동화, CRM에 최신 리드 채우기 |
| 경쟁사 인텔리전스 | 이커머스, PM | 경쟁사 가격/신상품/재고 변화 모니터링 |
| 사이트맵 & 구조 복제 | 개발자, DevOps, 컨설턴트 | 리디자인/백업을 위한 구조 복제 |
| 콘텐츠 수집/집계 | 리서처, 미디어, 분석가 | 여러 사이트 데이터 수집 후 분석/트렌드 모니터링 |
| 시장 조사 | 분석가, AI 학습팀 | 분석 또는 AI 모델 학습용 대규모 데이터셋 수집 |
()
최고의 무료 웹사이트 크롤러를 고른 기준
저는 여러 웹 크롤러 도구를 파고들면서 문서 읽고, 테스트 크롤링 돌리느라 밤을 꽤 많이 새웠습니다(커피도요). 제가 잡은 평가 기준은 아래와 같아요.
- 기술 역량: 최신 사이트(자바스크립트, 로그인, 동적 콘텐츠)를 제대로 처리하나?
- 사용 편의성: 비개발자도 쓸 수 있나, 아니면 CLI 마법이 필요한가?
- 무료 플랜 한도: 진짜 무료인가, 아니면 체험판 느낌인가?
- 접근 방식: 클라우드 도구인가, 데스크톱 앱인가, 코드 라이브러리인가?
- 차별 기능: AI 추출, 시각적 사이트맵, 이벤트 기반 크롤링 같은 강점이 있나?
각 도구를 직접 돌려보고 사용자 피드백도 확인하면서, 기능을 나란히 비교했습니다. 쓰다가 노트북을 창밖으로 던지고 싶어지는 도구는 과감히 제외했어요.
한눈에 보는 비교표: 무료 웹사이트 크롤러 10선
| 도구 & 유형 | 핵심 기능 | 추천 사용 시나리오 | 기술 요구 수준 | 무료 플랜/체험 정보 |
|---|---|---|---|---|
| BrightData (클라우드/API) | 엔터프라이즈 크롤링, 프록시, JS 렌더링, CAPTCHA 해결 | 대규모 데이터 수집 | 기술 지식 있으면 유리 | 무료 체험: 스크래퍼 3개, 각 100레코드(총 약 300레코드) |
| Crawlbase (클라우드/API) | API 크롤링, 안티봇 대응, 프록시, JS 렌더링 | 백엔드 크롤링 인프라가 필요한 개발팀 | API 연동 필요 | 무료: 7일간 약 5,000 API 호출, 이후 월 1,000회 |
| ScraperAPI (클라우드/API) | 프록시 로테이션, JS 렌더링, 비동기 크롤, 사전 구축 엔드포인트 | 개발자, 가격 모니터링, SEO 데이터 | 최소 설정 | 무료: 7일간 5,000 API 호출, 이후 월 1,000회 |
| Diffbot Crawlbot (클라우드) | AI 크롤+추출, 지식 그래프, JS 렌더링 | 대규모 구조화 데이터, AI/ML | API 연동 필요 | 무료: 월 10,000 크레딧(약 1만 페이지) |
| Screaming Frog (데스크톱) | SEO 점검, 링크/메타 분석, 사이트맵, 커스텀 추출 | SEO 점검, 사이트 운영 | 데스크톱 앱, GUI | 무료: 크롤당 500 URL, 핵심 기능 위주 |
| SiteOne Crawler (데스크톱) | SEO/성능/접근성/보안, 오프라인 내보내기, Markdown | 개발, QA, 마이그레이션, 문서화 | 데스크톱/CLI, GUI | 무료 오픈소스, GUI 리포트 기본 1,000 URL(설정 가능) |
| Crawljax (Java, 오픈소스) | JS 사이트 이벤트 기반 크롤, 정적 내보내기 | 동적 웹앱 QA/분석 | Java, CLI/설정 | 무료 오픈소스, 제한 없음 |
| Apache Nutch (Java, 오픈소스) | 분산 크롤, 플러그인 구조, Hadoop 연동, 커스텀 검색 | 커스텀 검색엔진, 대규모 크롤 | Java, 커맨드라인 | 무료 오픈소스(인프라 비용만) |
| YaCy (Java, 오픈소스) | P2P 크롤+검색, 프라이버시, 웹/인트라넷 색인 | 사내 검색, 탈중앙화 | Java, 브라우저 UI | 무료 오픈소스, 제한 없음 |
| PowerMapper (데스크톱/SaaS) | 시각적 사이트맵, 접근성, QA, 브라우저 호환성 | 에이전시, QA, 구조 시각화 | GUI, 쉬움 | 무료 체험: 30일, 스캔당 데스크톱 100페이지/온라인 10페이지 |
BrightData: 엔터프라이즈급 클라우드 웹사이트 크롤러

BrightData는 웹 크롤링 업계에서 말 그대로 ‘중장비’ 같은 존재예요. 방대한 프록시 네트워크에 자바스크립트 렌더링, CAPTCHA 처리, 커스텀 크롤을 위한 IDE까지 갖춘 클라우드 플랫폼이죠. 수백 개 이커머스 사이트 가격을 모니터링하는 급의 대규모 수집이라면 BrightData 인프라는 확실히 강력합니다().
장점:
- 안티봇이 센 사이트도 비교적 잘 뚫는 편
- 엔터프라이즈 규모로 확장하기 좋음
- 자주 쓰는 사이트용 템플릿 제공
아쉬운 점:
- 상시 무료 플랜은 없음(체험만 제공: 스크래퍼 3개, 각 100레코드)
- 단순 SEO 점검에는 스펙이 과할 수 있음
- 비개발자에겐 진입장벽(학습 곡선)이 있음
웹을 대규모로 크롤링해야 한다면 BrightData는 F1 머신 같은 선택입니다. 다만 시승 끝나면 비용은 각오해야 해요().
Crawlbase: 개발자를 위한 API 기반 무료 웹 크롤러

Crawlbase(구 ProxyCrawl)는 ‘코드로 크롤링’에 딱 맞춘 서비스입니다. URL을 API로 호출하면 HTML을 돌려주고, 프록시/지역 타깃팅/CAPTCHA 같은 귀찮은 부분은 뒤에서 알아서 처리해 줍니다().
장점:
- 성공률이 높음(99%+)
- 자바스크립트 비중 큰 사이트도 대응
- 자체 앱/워크플로에 붙이기 좋음
아쉬운 점:
- API 또는 SDK 연동이 필요
- 무료 플랜: 7일간 약 5,000회 호출, 이후 월 1,000회
프록시 운영 없이도 규모 있게 웹 크롤링(및 웹 스크래핑) 파이프라인을 만들고 싶은 개발팀이라면 Crawlbase는 꽤 안정적인 선택입니다().
ScraperAPI: 동적 페이지 크롤링을 더 쉽게

ScraperAPI는 느낌이 딱 “그냥 가져와 줘”에 가까운 API예요. URL만 던지면 프록시, 헤드리스 브라우저, 안티봇 대응을 처리해서 HTML(또는 일부 사이트는 구조화 데이터)을 반환합니다. 특히 동적 페이지에서 강점이 있고, 무료 구간도 넉넉한 편입니다().
장점:
- 개발자 입장에서 정말 간단함(사실상 API 호출 한 번)
- CAPTCHA, IP 차단, 자바스크립트 처리까지 커버
- 무료: 7일간 5,000회 호출, 이후 월 1,000회
아쉬운 점:
- 시각적인 크롤 리포트는 없음
- 링크를 따라가며 크롤링하려면 로직을 직접 짜야 함
코드베이스에 웹 크롤링을 빠르게 붙이고 싶다면 ScraperAPI는 고르기 쉬운 카드입니다.
Diffbot Crawlbot: 사이트 구조를 자동으로 이해하는 크롤러

Diffbot Crawlbot은 ‘똑똑한 크롤링’ 쪽에 가깝습니다. 단순 수집에서 끝나는 게 아니라, AI로 페이지 유형을 분류하고 기사/상품/이벤트 같은 구조화 데이터로 JSON을 만들어 줘요. 읽는 내용을 이해하는 로봇 인턴을 둔 느낌이랄까요().
장점:
- 크롤링 + AI 기반 구조화 추출을 한 번에
- 자바스크립트/동적 콘텐츠 대응
- 무료: 월 10,000 크레딧(약 1만 페이지)
아쉬운 점:
- 개발자 중심(API 연동 필요)
- 시각적 SEO 점검 도구라기보단 데이터 프로젝트용 성격이 강함
AI/분석 목적의 구조화 데이터를 대규모로 만들고 싶다면 Diffbot은 확실히 강력합니다.
Screaming Frog: 무료로 쓰는 데스크톱 SEO 크롤러

Screaming Frog는 SEO 점검용 데스크톱 크롤러의 ‘클래식’이죠. 무료 버전은 스캔당 500 URL까지 크롤링할 수 있고, 깨진 링크, 메타 태그, 중복 콘텐츠, 사이트맵 등 필요한 정보를 폭넓게 보여줍니다().
장점:
- 빠르고 꼼꼼하고, SEO 업계에서 신뢰도가 높음
- 코딩 없이 URL만 넣으면 바로 사용 가능
- 크롤당 500 URL까지 무료
아쉬운 점:
- 데스크톱 전용(클라우드 버전 없음)
- JS 렌더링, 스케줄링 같은 고급 기능은 유료 라이선스 필요
SEO를 제대로 해보려면 Screaming Frog는 거의 필수지만, 1만 페이지짜리 사이트를 무료로 전부 돌리긴 현실적으로 어렵습니다.
SiteOne Crawler: 정적 내보내기와 문서화까지 가능한 도구

SiteOne Crawler는 기술 점검용 ‘멀티툴’ 같은 느낌입니다. 오픈소스이고 크로스플랫폼을 지원하며, 크롤링/감사(audit)는 물론 문서화나 오프라인 보관을 위해 사이트를 Markdown으로 내보내는 기능까지 제공합니다().
장점:
- SEO, 성능, 접근성, 보안까지 폭넓게 점검
- 아카이빙/마이그레이션용 내보내기 지원
- 무료 오픈소스, 사용량 제한 없음
아쉬운 점:
- 일부 GUI 도구보다 기술 친화적이라 초보자에겐 어렵게 느껴질 수 있음
- GUI 리포트는 기본 1,000 URL 제한(설정으로 변경 가능)
개발자/QA/컨설턴트처럼 깊게 진단하고 싶고 오픈소스를 선호한다면 SiteOne은 숨은 강자입니다.
Crawljax: 동적 페이지를 위한 오픈소스 Java 크롤러

Crawljax는 전문 분야가 확실합니다. 클릭, 폼 입력 같은 사용자 상호작용을 시뮬레이션해서 자바스크립트 기반 웹앱을 크롤링하도록 설계됐어요. 이벤트 기반으로 움직이고, 동적 사이트를 정적 버전으로 내보내는 것도 가능합니다().
장점:
- SPA/AJAX 중심 사이트 크롤링에 강함
- 오픈소스, 확장성 좋음
- 사용량 제한 없음
아쉬운 점:
- Java 및 설정/개발 역량이 필요
- 비개발자에겐 비추천
React나 Angular 앱을 ‘실사용자처럼’ 돌아다니며 크롤링해야 한다면 Crawljax가 잘 맞습니다.
Apache Nutch: 대규모 분산 크롤링을 위한 선택

Apache Nutch는 오픈소스 크롤러의 원로급입니다. 수백만~수억 페이지를 분산 환경에서 크롤링하도록 설계돼서, 자체 검색엔진 구축이나 대규모 인덱싱에 적합합니다().
장점:
- Hadoop과 함께라면 수십억 페이지까지 확장 가능
- 설정 자유도가 높고 확장성도 좋음
- 무료 오픈소스
아쉬운 점:
- 학습 난이도가 높음(Java, 커맨드라인, 설정)
- 소규모 사이트나 가벼운 용도엔 과한 편
웹 규모로 크롤링하고 커맨드라인 작업이 익숙하다면 Nutch는 정말 강력한 선택지입니다.
YaCy: P2P 기반 웹 크롤러 겸 검색엔진
YaCy는 탈중앙화 방식이 특징인 독특한 크롤러/검색엔진입니다. 각 인스턴스가 사이트를 크롤링해 색인하고, P2P 네트워크에 참여하면 다른 사용자와 인덱스를 공유할 수도 있어요().
장점:
- 중앙 서버 없이 돌아가서 프라이버시 친화적
- 사내/인트라넷 검색 구축에 유용
- 무료 오픈소스
아쉬운 점:
- 검색 결과 품질이 네트워크 커버리지에 크게 좌우됨
- Java 및 브라우저 UI 기반 설정이 필요
탈중앙화에 관심이 있거나 “나만의 검색엔진”을 만들어 보고 싶다면 YaCy는 꽤 재미있는 선택입니다.
PowerMapper: UX/QA를 위한 시각적 사이트맵 생성기

PowerMapper는 사이트 구조를 ‘눈에 보이게’ 만드는 데 강점이 있습니다. 사이트를 크롤링해 인터랙티브 사이트맵을 만들고, 접근성/브라우저 호환성/기본 SEO 점검도 함께 제공합니다().
장점:
- 시각적 사이트맵은 에이전시/디자이너에게 특히 유용
- 접근성 및 컴플라이언스 점검 가능
- GUI 기반이라 사용이 쉬움
아쉬운 점:
- 무료는 체험판 형태(30일, 스캔당 데스크톱 100페이지/온라인 10페이지)
- 정식 버전은 유료
클라이언트에게 사이트 구조를 설명하거나 컴플라이언스 점검 결과를 보여줘야 한다면 PowerMapper가 꽤 도움이 됩니다.
내 상황에 맞는 무료 웹 크롤러 고르는 법
선택지가 많으면 오히려 더 헷갈리죠. 아래는 빠르게 고르는 가이드입니다.
- SEO 점검: Screaming Frog(소규모), PowerMapper(시각화), SiteOne(깊은 기술 점검)
- 동적 웹앱: Crawljax
- 대규모/커스텀 검색: Apache Nutch, YaCy
- API 기반 개발 작업: Crawlbase, ScraperAPI, Diffbot
- 문서화/아카이빙: SiteOne Crawler
- 엔터프라이즈급(체험 포함): BrightData, Diffbot
고를 때 체크할 포인트:
- 확장성: 사이트/작업 규모가 어느 정도인가?
- 사용 난이도: 코드를 다룰 수 있나, 아니면 클릭 기반이 필요한가?
- 내보내기: CSV/JSON 또는 다른 도구 연동이 필요한가?
- 지원: 막혔을 때 참고할 커뮤니티/문서가 충분한가?
웹 크롤링과 웹 스크래핑이 만날 때: Thunderbit이 더 똑똑한 이유
현실적으로 대부분의 사람들은 ‘예쁜 사이트맵’을 만들려고 웹 크롤링을 하진 않습니다. 보통 목표는 구조화된 데이터예요. 상품 목록, 연락처 정보, 콘텐츠 인벤토리처럼 바로 써먹을 수 있는 형태가 필요하죠. 이 지점에서 가 제대로 빛을 발합니다.
Thunderbit은 크롤러 또는 스크래퍼 중 하나가 아니라, 둘을 합쳐 놓은 AI 기반 Chrome 확장 프로그램입니다. 동작 방식은 이렇게 흘러갑니다.
- AI 크롤러: 크롤러처럼 사이트를 탐색합니다.
- 워터폴 크롤링: Thunderbit 엔진으로 페이지를 가져오기 어렵다면(강한 안티봇 등), 자동으로 서드파티 크롤링 서비스로 전환합니다. 사용자가 따로 설정할 필요가 없습니다.
- AI 데이터 구조화: HTML을 확보하면 AI가 적절한 컬럼을 제안하고, 셀렉터를 직접 작성하지 않아도 이름/가격/이메일 등 구조화 데이터를 추출합니다.
- 서브페이지 스크래핑: 각 상품 상세 페이지처럼 하위 페이지까지 자동 방문해 테이블을 더 풍부하게 채울 수 있습니다.
- 데이터 정리 & 내보내기: 요약/분류/번역까지 처리하고 Excel, Google Sheets, Airtable, Notion으로 원클릭 내보내기.
- 노코드: 브라우저만 다룰 줄 알면 됩니다. 코딩/프록시/복잡한 설정 없이 진행 가능해요.

전통적인 크롤러 대신 Thunderbit을 쓰면 좋은 경우
- URL 목록이 아니라, 바로 활용 가능한 ‘정돈된 스프레드시트’가 목적일 때
- 크롤링→추출→정리→내보내기를 한 번에 자동화하고 싶을 때
- 시간과 스트레스를 확 줄이고 싶을 때
직접 확인해 보고 싶다면 해 보세요.
결론: 무료 웹사이트 크롤러를 제대로 활용하는 방법
웹사이트 크롤러는 정말 많이 좋아졌습니다. 마케터든 개발자든, 혹은 사이트를 튼튼하게 관리하고 싶은 운영자든, 무료(또는 무료 체험)로 시작할 수 있는 선택지가 분명히 있어요. BrightData나 Diffbot 같은 엔터프라이즈급 플랫폼부터, SiteOne·Crawljax 같은 오픈소스 강자, PowerMapper 같은 시각화 도구까지—선택지는 지금이 역대급으로 다양합니다.
다만 “데이터가 필요해”에서 “여기 스프레드시트”까지 더 빠르고 한 번에 이어지는 흐름을 원한다면 Thunderbit도 고려해 볼 만합니다. 보고서가 아니라 ‘결과물’을 원하는 비즈니스 사용자를 위해 설계된 도구니까요.
이제 웹 크롤링을 시작해 볼까요? 도구 하나 골라서 스캔을 돌려보면, 그동안 놓치고 있던 문제들이 눈에 들어올 겁니다. 그리고 크롤링을 넘어 2번 클릭으로 바로 실행 가능한 데이터까지 만들고 싶다면 도 함께 확인해 보세요.
더 많은 심층 리뷰와 실전 가이드는 에서 볼 수 있습니다.
FAQ
웹사이트 크롤러와 웹 스크래퍼의 차이는 무엇인가요?
크롤러는 사이트의 모든 페이지를 찾아 구조를 정리합니다(목차를 만드는 느낌). 스크래퍼는 그 페이지들에서 가격/이메일/리뷰 같은 특정 데이터 필드를 뽑아냅니다. 크롤러는 ‘찾고’, 스크래퍼는 ‘캐냅니다’().
비개발자에게 가장 좋은 무료 웹 크롤러는 무엇인가요?
소규모 사이트의 SEO 점검이라면 Screaming Frog가 비교적 쓰기 쉽습니다. 구조를 시각적으로 보여줘야 한다면(체험 기간 동안) PowerMapper도 괜찮고요. 구조화 데이터가 목적이고 노코드/브라우저 기반 경험을 원한다면 Thunderbit이 가장 간편합니다.
웹 크롤러를 막는 웹사이트도 있나요?
있습니다. robots.txt로 제한하거나 CAPTCHA, IP 차단 같은 안티봇 장치를 두는 경우가 흔해요. ScraperAPI, Crawlbase, Thunderbit(워터폴 크롤링)은 이런 장벽을 우회할 때 도움이 될 수 있지만, 항상 책임감 있게 크롤링하고 사이트 정책을 준수해야 합니다().
무료 웹사이트 크롤러는 페이지 수나 기능 제한이 있나요?
대부분 있습니다. 예를 들어 Screaming Frog 무료 버전은 크롤당 500 URL로 제한되고, PowerMapper 체험판은 100페이지(데스크톱) 수준입니다. API 기반 도구는 월 크레딧/호출 수 제한이 흔합니다. SiteOne이나 Crawljax 같은 오픈소스는 하드 제한이 없는 편이지만, 결국 내 PC/서버 성능이 한계가 됩니다.
웹 크롤러 사용은 합법이고 개인정보 측면에서 문제 없나요?
일반적으로 공개 웹페이지를 크롤링하는 건 합법인 경우가 많지만, 사이트 이용약관과 robots.txt는 반드시 확인해야 합니다. 허가 없이 로그인/비공개 데이터를 크롤링하면 안 되고, 개인정보를 추출하는 경우 관련 법규를 준수해야 합니다().