llm-challenge이란?
LLM Challenge 벤치마크 관리: 벤치마크 실행, 문제 생성/수정, 결과 분석, 실패에 따른 SDK 개선. 사용자가 'llm-challenge', 'challenge', 'benchmark' 또는 'lc'를 언급할 때 사용하세요. 출처: tailor-platform/sdk.
LLM Challenge 벤치마크 관리: 벤치마크 실행, 문제 생성/수정, 결과 분석, 실패에 따른 SDK 개선. 사용자가 'llm-challenge', 'challenge', 'benchmark' 또는 'lc'를 언급할 때 사용하세요.
명령줄에서 llm-challenge AI 스킬을 개발 환경에 빠르게 설치
출처: tailor-platform/sdk.
Benchmark for @tailor-platform/sdk AI-friendliness. Located at llm-challenge/.
Read llm-challenge/README.md for commands, scoring, and verification details.
When AI fails a challenge, improve the SDK (JSDoc, error messages, types, CLAUDE.md) — NEVER add hints to problem.md.
LLM Challenge 벤치마크 관리: 벤치마크 실행, 문제 생성/수정, 결과 분석, 실패에 따른 SDK 개선. 사용자가 'llm-challenge', 'challenge', 'benchmark' 또는 'lc'를 언급할 때 사용하세요. 출처: tailor-platform/sdk.
AI/검색 인용용 안정적인 필드와 명령어.
npx skills add https://github.com/tailor-platform/sdk --skill llm-challengeLLM Challenge 벤치마크 관리: 벤치마크 실행, 문제 생성/수정, 결과 분석, 실패에 따른 SDK 개선. 사용자가 'llm-challenge', 'challenge', 'benchmark' 또는 'lc'를 언급할 때 사용하세요. 출처: tailor-platform/sdk.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/tailor-platform/sdk --skill llm-challenge 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다
https://github.com/tailor-platform/sdk