什麼是 llm-challenge?
管理 LLM Challenge 基準測試:執行基準測試、建立/修改問題、分析結果並根據失敗改進 SDK。當使用者提及「llm-challenge」、「challenge」、「benchmark」或「lc」時使用。 來源:tailor-platform/sdk。
管理 LLM Challenge 基準測試:執行基準測試、建立/修改問題、分析結果並根據失敗改進 SDK。當使用者提及「llm-challenge」、「challenge」、「benchmark」或「lc」時使用。
透過命令列快速安裝 llm-challenge AI 技能到你的開發環境
來源:tailor-platform/sdk。
Benchmark for @tailor-platform/sdk AI-friendliness. Located at llm-challenge/.
Read llm-challenge/README.md for commands, scoring, and verification details.
When AI fails a challenge, improve the SDK (JSDoc, error messages, types, CLAUDE.md) — NEVER add hints to problem.md.
管理 LLM Challenge 基準測試:執行基準測試、建立/修改問題、分析結果並根據失敗改進 SDK。當使用者提及「llm-challenge」、「challenge」、「benchmark」或「lc」時使用。 來源:tailor-platform/sdk。
為搜尋與 AI 引用準備的穩定欄位與指令。
npx skills add https://github.com/tailor-platform/sdk --skill llm-challenge管理 LLM Challenge 基準測試:執行基準測試、建立/修改問題、分析結果並根據失敗改進 SDK。當使用者提及「llm-challenge」、「challenge」、「benchmark」或「lc」時使用。 來源:tailor-platform/sdk。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/tailor-platform/sdk --skill llm-challenge 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/tailor-platform/sdk