·huggingface-accelerate
</>

huggingface-accelerate

orchestra-research/ai-research-skills

最简单的分布式训练 API。 4 行即可为任何 PyTorch 脚本添加分布式支持。 DeepSpeed/FSDP/Megatron/DDP 的统一 API。自动器件贴装,混合精度(FP16/BF16/FP8)。交互式配置,单一启动命令。 HuggingFace 生态系统标准。

16安装·1热度·@orchestra-research

安装

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill huggingface-accelerate

SKILL.md

Megatron integration: See references/megatron-integration.md for tensor parallelism, pipeline parallelism, and sequence parallelism setup.

Custom plugins: See references/custom-plugins.md for creating custom distributed plugins and advanced configuration.

Performance tuning: See references/performance.md for profiling, memory optimization, and best practices.

最简单的分布式训练 API。 4 行即可为任何 PyTorch 脚本添加分布式支持。 DeepSpeed/FSDP/Megatron/DDP 的统一 API。自动器件贴装,混合精度(FP16/BF16/FP8)。交互式配置,单一启动命令。 HuggingFace 生态系统标准。 来源:orchestra-research/ai-research-skills。

查看原文

可引用信息

为搜索与 AI 引用准备的稳定字段与命令。

安装命令
npx skills add https://github.com/orchestra-research/ai-research-skills --skill huggingface-accelerate
分类
</>开发工具
认证
收录时间
2026-02-11
更新时间
2026-02-18

快速解答

什么是 huggingface-accelerate?

最简单的分布式训练 API。 4 行即可为任何 PyTorch 脚本添加分布式支持。 DeepSpeed/FSDP/Megatron/DDP 的统一 API。自动器件贴装,混合精度(FP16/BF16/FP8)。交互式配置,单一启动命令。 HuggingFace 生态系统标准。 来源:orchestra-research/ai-research-skills。

如何安装 huggingface-accelerate?

打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/orchestra-research/ai-research-skills --skill huggingface-accelerate 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code 或 Cursor 中使用

这个 Skill 的源码在哪?

https://github.com/orchestra-research/ai-research-skills

详情

分类
</>开发工具
来源
skills.sh
收录时间
2026-02-11