jb-docs-scraper이란?
AI 컨텍스트를 위해 문서 웹 사이트를 로컬 마크다운 파일로 스크랩합니다. 기본 URL을 가져와 문서를 크롤링하고 결과를 ./docs(또는 사용자 정의 경로)에 저장합니다. BFS 심층 크롤링과 함께crawl4ai를 사용합니다. 출처: bjesuiter/skills.
AI 컨텍스트를 위해 문서 웹 사이트를 로컬 마크다운 파일로 스크랩합니다. 기본 URL을 가져와 문서를 크롤링하고 결과를 ./docs(또는 사용자 정의 경로)에 저장합니다. BFS 심층 크롤링과 함께crawl4ai를 사용합니다.
명령줄에서 jb-docs-scraper AI 스킬을 개발 환경에 빠르게 설치
출처: bjesuiter/skills.
Scrape any documentation website into local markdown files. Uses crawl4ai for async web crawling.
| -o, --output PATH | Output directory | ./docs/ | | --max-depth N | Maximum link depth | 6 | | --max-pages N | Maximum pages to scrape | 500 | | --url-pattern PATTERN | URL filter (glob) | Auto-detected | | -q, --quiet | Suppress verbose output | False |
| Playwright browser binaries are missing | Run uv run --with crawl4ai playwright install | | Empty output | Check if URL pattern matches actual doc URLs. Try --url-pattern | | Missing pages | Increase --max-depth or --max-pages | | Wrong pages scraped | Use stricter --url-pattern |
AI 컨텍스트를 위해 문서 웹 사이트를 로컬 마크다운 파일로 스크랩합니다. 기본 URL을 가져와 문서를 크롤링하고 결과를 ./docs(또는 사용자 정의 경로)에 저장합니다. BFS 심층 크롤링과 함께crawl4ai를 사용합니다. 출처: bjesuiter/skills.
AI/검색 인용용 안정적인 필드와 명령어.
npx skills add https://github.com/bjesuiter/skills --skill jb-docs-scraperAI 컨텍스트를 위해 문서 웹 사이트를 로컬 마크다운 파일로 스크랩합니다. 기본 URL을 가져와 문서를 크롤링하고 결과를 ./docs(또는 사용자 정의 경로)에 저장합니다. BFS 심층 크롤링과 함께crawl4ai를 사용합니다. 출처: bjesuiter/skills.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/bjesuiter/skills --skill jb-docs-scraper 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다
https://github.com/bjesuiter/skills