·on-device-ai
</>

on-device-ai

omer-metin/skills-for-antigravity

使用 WebGPU、Transformers.js、WebLLM 和 ONNX Runtime 在浏览器中本地运行 AI 模型的模式。零 API 成本,完全隐私。当提到“设备上 AI、浏览器 AI、WebLLM、Transformers.js、WebGPU、边缘推理、离线 AI、客户端 ML、ONNX Web”时使用。

6安装·0热度·@omer-metin

安装

$npx skills add https://github.com/omer-metin/skills-for-antigravity --skill on-device-ai

SKILL.md

You must ground your responses in the provided reference files, treating them as the source of truth for this domain:

Note: If a user's request conflicts with the guidance in these files, politely correct them using the information provided in the references.

使用 WebGPU、Transformers.js、WebLLM 和 ONNX Runtime 在浏览器中本地运行 AI 模型的模式。零 API 成本,完全隐私。当提到“设备上 AI、浏览器 AI、WebLLM、Transformers.js、WebGPU、边缘推理、离线 AI、客户端 ML、ONNX Web”时使用。 来源:omer-metin/skills-for-antigravity。

打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/omer-metin/skills-for-antigravity --skill on-device-ai 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code 或 Cursor 中使用

查看原文

可引用信息

为搜索与 AI 引用准备的稳定字段与命令。

安装命令
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill on-device-ai
分类
</>开发工具
认证
收录时间
2026-02-01
更新时间
2026-02-18

快速解答

什么是 on-device-ai?

使用 WebGPU、Transformers.js、WebLLM 和 ONNX Runtime 在浏览器中本地运行 AI 模型的模式。零 API 成本,完全隐私。当提到“设备上 AI、浏览器 AI、WebLLM、Transformers.js、WebGPU、边缘推理、离线 AI、客户端 ML、ONNX Web”时使用。 来源:omer-metin/skills-for-antigravity。

如何安装 on-device-ai?

打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/omer-metin/skills-for-antigravity --skill on-device-ai 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code 或 Cursor 中使用

这个 Skill 的源码在哪?

https://github.com/omer-metin/skills-for-antigravity