·torch_npu

Huawei Ascend Extension für PyTorch (torch_npu) Umgebungsprüfung, Bereitstellung und Leitfaden zur Leistungsfähigkeit. Wird automatisch angewendet, wenn Benutzer @torch_npu, Ascend NPU, CANN verwenden oder PyTorch auf NPU migrieren müssen; Wenn Benutzer @torch_npu_doc verwenden, werden projektspezifische Erklärungen zur chinesischen Dokumentationsfunktion basierend auf kompetenzbasierten Referenzdokumenten bereitgestellt.

14Installationen·1Trend·@ascend-ai-coding

Installation

$npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill torch_npu

So installieren Sie torch_npu

Installieren Sie den KI-Skill torch_npu schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill torch_npu
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: ascend-ai-coding/awesome-ascend-skills.

检查 PyTorch 与 Python 版本是否在配套范围内(参见 README.zh.md 中的「PyTorch与Python版本配套表」):

| 设备与内存 | torch.npu:设备管理、devicecount、currentdevice、setdevice、synchronize、Stream/Event、内存统计与分配(memoryallocated、emptycache、MemPool 等)。 | | 张量/存储 | tensor.npu()、tensor.isnpu、NPU Storage、序列化 torch.save/load 支持 NPU,DDP/多进程 reductions。 | | 训练/优化 | torch.npu.amp 混合精度、torchnpu.optim、FSDP 补丁(ShardedGradScaler)、梯度检查点默认 NPU。 |

| 分布式 | torchnpu.distributed:HCCL/LCCL 后端、ishcclavailable、reinitprocessgroup、RPC、symmetric memory、DTensor 规则。 | | 扩展 API | torchnpu.contrib:NMS、IoU 系列、ROIAlign、DCN、FusedAttention、自定义模块(如 DropoutWithByteMask)等。 | | 图与编译 | NPU Graph(npugraphify)、Dynamo、Inductor、torch.compile 支持 NPU。 |

Huawei Ascend Extension für PyTorch (torch_npu) Umgebungsprüfung, Bereitstellung und Leitfaden zur Leistungsfähigkeit. Wird automatisch angewendet, wenn Benutzer @torch_npu, Ascend NPU, CANN verwenden oder PyTorch auf NPU migrieren müssen; Wenn Benutzer @torch_npu_doc verwenden, werden projektspezifische Erklärungen zur chinesischen Dokumentationsfunktion basierend auf kompetenzbasierten Referenzdokumenten bereitgestellt. Quelle: ascend-ai-coding/awesome-ascend-skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill torch_npu
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-03-09
Aktualisiert
2026-03-11

Browse more skills from ascend-ai-coding/awesome-ascend-skills

Schnelle Antworten

Was ist torch_npu?

Huawei Ascend Extension für PyTorch (torch_npu) Umgebungsprüfung, Bereitstellung und Leitfaden zur Leistungsfähigkeit. Wird automatisch angewendet, wenn Benutzer @torch_npu, Ascend NPU, CANN verwenden oder PyTorch auf NPU migrieren müssen; Wenn Benutzer @torch_npu_doc verwenden, werden projektspezifische Erklärungen zur chinesischen Dokumentationsfunktion basierend auf kompetenzbasierten Referenzdokumenten bereitgestellt. Quelle: ascend-ai-coding/awesome-ascend-skills.

Wie installiere ich torch_npu?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill torch_npu Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/ascend-ai-coding/awesome-ascend-skills