MLX を使用した Apple Silicon 上での LLM の実行と微調整。 Mac 上でローカルでモデルを操作する場合、Hugging Face モデルを MLX 形式に変換する場合、Apple Silicon 上の LoRA/QLoRA で微調整する場合、または HTTP API 経由でモデルを提供する場合に使用します。
SKILL.md
MLX-LM is a Python package for running large language models on Apple Silicon, leveraging the MLX framework for optimized performance with unified memory architecture.
| Memory | Separate CPU/GPU copies | Unified memory, no copies | | Optimization | Generic Metal backend | Apple Silicon native | | Model loading | Slower, more memory | Lazy loading, efficient | | Quantization | Limited support | Built-in 4/8-bit |
MLX arrays live in shared memory, accessible by both CPU and GPU without data transfer overhead.
MLX を使用した Apple Silicon 上での LLM の実行と微調整。 Mac 上でローカルでモデルを操作する場合、Hugging Face モデルを MLX 形式に変換する場合、Apple Silicon 上の LoRA/QLoRA で微調整する場合、または HTTP API 経由でモデルを提供する場合に使用します。 ソース: itsmostafa/llm-engineering-skills。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill mlx- カテゴリ
- </>開発ツール
- 認証済み
- ✓
- 初回登録
- 2026-02-11
- 更新日
- 2026-02-18
クイックアンサー
mlx とは?
MLX を使用した Apple Silicon 上での LLM の実行と微調整。 Mac 上でローカルでモデルを操作する場合、Hugging Face モデルを MLX 形式に変換する場合、Apple Silicon 上の LoRA/QLoRA で微調整する場合、または HTTP API 経由でモデルを提供する場合に使用します。 ソース: itsmostafa/llm-engineering-skills。
mlx のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill mlx インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/itsmostafa/llm-engineering-skills
詳細
- カテゴリ
- </>開発ツール
- ソース
- skills.sh
- 初回登録
- 2026-02-11