·llama-cpp
</>

llama-cpp

llama.cpp를 통한 보조 로컬 LLM 추론 엔진. 이 기술은 GGUF 모델을 직접 실행하거나 Kothar용 LoRA 어댑터를 로드하거나 추론 속도를 벤치마킹하거나 llama-server를 통해 모델을 제공할 때 사용해야 합니다. Ollama를 보완합니다(RLAMA 및 일반 용도로 기본으로 유지됨).

24설치·1트렌드·@tdimino

설치

$npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp

llama-cpp 설치 방법

명령줄에서 llama-cpp AI 스킬을 개발 환경에 빠르게 설치

  1. 터미널 열기: 터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다
  2. 설치 명령어 실행: 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
  3. 설치 확인: 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

출처: tdimino/claude-code-minoan.

Direct access to llama.cpp for faster inference, LoRA adapter loading, and benchmarking on Apple Silicon. Ollama remains primary for RLAMA and general use; llama.cpp is the power tool.

To avoid duplicating model files, resolve an Ollama model name to its GGUF blob path:

To start an OpenAI-compatible server (port 8081, avoids Ollama's 11434):

llama.cpp를 통한 보조 로컬 LLM 추론 엔진. 이 기술은 GGUF 모델을 직접 실행하거나 Kothar용 LoRA 어댑터를 로드하거나 추론 속도를 벤치마킹하거나 llama-server를 통해 모델을 제공할 때 사용해야 합니다. Ollama를 보완합니다(RLAMA 및 일반 용도로 기본으로 유지됨). 출처: tdimino/claude-code-minoan.

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
카테고리
</>개발 도구
인증됨
최초 등록
2026-03-01
업데이트
2026-03-10

Browse more skills from tdimino/claude-code-minoan

빠른 답변

llama-cpp이란?

llama.cpp를 통한 보조 로컬 LLM 추론 엔진. 이 기술은 GGUF 모델을 직접 실행하거나 Kothar용 LoRA 어댑터를 로드하거나 추론 속도를 벤치마킹하거나 llama-server를 통해 모델을 제공할 때 사용해야 합니다. Ollama를 보완합니다(RLAMA 및 일반 용도로 기본으로 유지됨). 출처: tdimino/claude-code-minoan.

llama-cpp 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/tdimino/claude-code-minoan