scrape-webpage이란?
웹 페이지 콘텐츠를 스크랩하고, 메타데이터를 추출하고, 이미지를 다운로드하고, AEM Edge Delivery Services로 가져오기/마이그레이션을 준비합니다. 경로, 메타데이터, 정리된 HTML 및 로컬 이미지가 포함된 분석 JSON을 반환합니다. 출처: adobe/helix-website.
웹 페이지 콘텐츠를 스크랩하고, 메타데이터를 추출하고, 이미지를 다운로드하고, AEM Edge Delivery Services로 가져오기/마이그레이션을 준비합니다. 경로, 메타데이터, 정리된 HTML 및 로컬 이미지가 포함된 분석 JSON을 반환합니다.
명령줄에서 scrape-webpage AI 스킬을 개발 환경에 빠르게 설치
출처: adobe/helix-website.
Extract content, metadata, and images from a webpage for import/migration.
웹 페이지 콘텐츠를 스크랩하고, 메타데이터를 추출하고, 이미지를 다운로드하고, AEM Edge Delivery Services로 가져오기/마이그레이션을 준비합니다. 경로, 메타데이터, 정리된 HTML 및 로컬 이미지가 포함된 분석 JSON을 반환합니다. 출처: adobe/helix-website.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/adobe/helix-website --skill scrape-webpage 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다
보안 인증 완료, 신뢰할 수 있는 코드 원클릭 설치, 간편한 설정 Claude Code, Cursor, OpenClaw 등 지원
AI/검색 인용용 안정적인 필드와 명령어.
npx skills add https://github.com/adobe/helix-website --skill scrape-webpage웹 페이지 콘텐츠를 스크랩하고, 메타데이터를 추출하고, 이미지를 다운로드하고, AEM Edge Delivery Services로 가져오기/마이그레이션을 준비합니다. 경로, 메타데이터, 정리된 HTML 및 로컬 이미지가 포함된 분석 JSON을 반환합니다. 출처: adobe/helix-website.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/adobe/helix-website --skill scrape-webpage 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다
https://github.com/adobe/helix-website