什么是 llm-challenge?
管理 LLM Challenge 基准测试:运行基准测试、创建/修改问题、分析结果并根据失败改进 SDK。当用户提及“llm-challenge”、“challenge”、“benchmark”或“lc”时使用。 来源:tailor-platform/sdk。
管理 LLM Challenge 基准测试:运行基准测试、创建/修改问题、分析结果并根据失败改进 SDK。当用户提及“llm-challenge”、“challenge”、“benchmark”或“lc”时使用。
通过命令行快速安装 llm-challenge AI 技能到你的开发环境
来源:tailor-platform/sdk。
Benchmark for @tailor-platform/sdk AI-friendliness. Located at llm-challenge/.
Read llm-challenge/README.md for commands, scoring, and verification details.
When AI fails a challenge, improve the SDK (JSDoc, error messages, types, CLAUDE.md) — NEVER add hints to problem.md.
管理 LLM Challenge 基准测试:运行基准测试、创建/修改问题、分析结果并根据失败改进 SDK。当用户提及“llm-challenge”、“challenge”、“benchmark”或“lc”时使用。 来源:tailor-platform/sdk。
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/tailor-platform/sdk --skill llm-challenge管理 LLM Challenge 基准测试:运行基准测试、创建/修改问题、分析结果并根据失败改进 SDK。当用户提及“llm-challenge”、“challenge”、“benchmark”或“lc”时使用。 来源:tailor-platform/sdk。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/tailor-platform/sdk --skill llm-challenge 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/tailor-platform/sdk