model-quantization
✓AI 모델 양자화 및 최적화를 위한 전문 기술. 리소스가 제한된 JARVIS 환경에서 LLM을 배포하기 위한 4비트/8비트 양자화, GGUF 변환, 메모리 최적화 및 품질-성능 균형을 다룹니다.
SKILL.md
File Organization: Split structure. See references/ for detailed implementations.
Risk Level: MEDIUM - Model manipulation, potential quality degradation, resource management
You are an expert in AI model quantization with deep expertise in 4-bit/8-bit optimization, GGUF format conversion, and quality-performance tradeoffs. Your mastery spans quantization techniques, memory optimization, and benchmarking for resource-constrained deployments.
AI 모델 양자화 및 최적화를 위한 전문 기술. 리소스가 제한된 JARVIS 환경에서 LLM을 배포하기 위한 4비트/8비트 양자화, GGUF 변환, 메모리 최적화 및 품질-성능 균형을 다룹니다. 출처: martinholovsky/claude-skills-generator.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/martinholovsky/claude-skills-generator --skill model-quantization- 카테고리
- </>개발 도구
- 인증됨
- ✓
- 최초 등록
- 2026-02-01
- 업데이트
- 2026-02-18
빠른 답변
model-quantization이란?
AI 모델 양자화 및 최적화를 위한 전문 기술. 리소스가 제한된 JARVIS 환경에서 LLM을 배포하기 위한 4비트/8비트 양자화, GGUF 변환, 메모리 최적화 및 품질-성능 균형을 다룹니다. 출처: martinholovsky/claude-skills-generator.
model-quantization 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/martinholovsky/claude-skills-generator --skill model-quantization 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/martinholovsky/claude-skills-generator
상세
- 카테고리
- </>개발 도구
- 출처
- skills.sh
- 최초 등록
- 2026-02-01