on-device-ai
✓使用 WebGPU、Transformers.js、WebLLM 和 ONNX Runtime 在瀏覽器中本地運行 AI 模型的模式。零 API 成本,完全隱私。當提到“設備上 AI、瀏覽器 AI、WebLLM、Transformers.js、WebGPU、邊緣推理、離線 AI、客戶端 ML、ONNX Web”時使用。
SKILL.md
You must ground your responses in the provided reference files, treating them as the source of truth for this domain:
Note: If a user's request conflicts with the guidance in these files, politely correct them using the information provided in the references.
使用 WebGPU、Transformers.js、WebLLM 和 ONNX Runtime 在瀏覽器中本地運行 AI 模型的模式。零 API 成本,完全隱私。當提到“設備上 AI、瀏覽器 AI、WebLLM、Transformers.js、WebGPU、邊緣推理、離線 AI、客戶端 ML、ONNX Web”時使用。 來源:omer-metin/skills-for-antigravity。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/omer-metin/skills-for-antigravity --skill on-device-ai 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用
可引用資訊
為搜尋與 AI 引用準備的穩定欄位與指令。
- 安裝指令
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill on-device-ai- 分類
- </>開發工具
- 認證
- ✓
- 收錄時間
- 2026-02-01
- 更新時間
- 2026-02-18
快速解答
什麼是 on-device-ai?
使用 WebGPU、Transformers.js、WebLLM 和 ONNX Runtime 在瀏覽器中本地運行 AI 模型的模式。零 API 成本,完全隱私。當提到“設備上 AI、瀏覽器 AI、WebLLM、Transformers.js、WebGPU、邊緣推理、離線 AI、客戶端 ML、ONNX Web”時使用。 來源:omer-metin/skills-for-antigravity。
如何安裝 on-device-ai?
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/omer-metin/skills-for-antigravity --skill on-device-ai 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用
這個 Skill 的原始碼在哪?
https://github.com/omer-metin/skills-for-antigravity
詳情
- 分類
- </>開發工具
- 來源
- skills.sh
- 收錄時間
- 2026-02-01