scrape-webpage とは?
Web ページのコンテンツをスクレイピングし、メタデータを抽出し、画像をダウンロードし、AEM Edge Delivery Services へのインポート/移行の準備をします。パス、メタデータ、クリーンな HTML、ローカル画像を含む分析 JSON を返します。 ソース: adobe/helix-website。
Web ページのコンテンツをスクレイピングし、メタデータを抽出し、画像をダウンロードし、AEM Edge Delivery Services へのインポート/移行の準備をします。パス、メタデータ、クリーンな HTML、ローカル画像を含む分析 JSON を返します。
コマンドラインで scrape-webpage AI スキルを開発環境にすばやくインストール
ソース: adobe/helix-website。
Extract content, metadata, and images from a webpage for import/migration.
Web ページのコンテンツをスクレイピングし、メタデータを抽出し、画像をダウンロードし、AEM Edge Delivery Services へのインポート/移行の準備をします。パス、メタデータ、クリーンな HTML、ローカル画像を含む分析 JSON を返します。 ソース: adobe/helix-website。
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/adobe/helix-website --skill scrape-webpage インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります
安全認証済み、信頼性の高いコード ワンクリックインストール、簡単設定 Claude Code、Cursor、OpenClaw などに対応
AI/検索での引用用の安定したフィールドとコマンド。
npx skills add https://github.com/adobe/helix-website --skill scrape-webpageWeb ページのコンテンツをスクレイピングし、メタデータを抽出し、画像をダウンロードし、AEM Edge Delivery Services へのインポート/移行の準備をします。パス、メタデータ、クリーンな HTML、ローカル画像を含む分析 JSON を返します。 ソース: adobe/helix-website。
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/adobe/helix-website --skill scrape-webpage インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります
https://github.com/adobe/helix-website