·llm-api-benchmark
</>

llm-api-benchmark

Cette compétence doit être utilisée lorsque l'utilisateur demande de « comparer l'API LLM », « tester la vitesse de l'API », « mesurer le temps de réponse », « vérifier la latence de l'API », « tester le TPS », « évaluer le point de terminaison », « comparer les performances des points de terminaison », « évaluer les métriques de performance de l'API LLM ». (TTFT, TPS, latence).

14Installations·0Tendance·@ridewind

Installation

$npx skills add https://github.com/ridewind/my-skills --skill llm-api-benchmark

Comment installer llm-api-benchmark

Installez rapidement le skill IA llm-api-benchmark dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/ridewind/my-skills --skill llm-api-benchmark
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : ridewind/my-skills.

| quick | 快速测试 | 10 tokens | | standard | 中等长度 | 20 tokens | | long | 长输出测试 | 100+ tokens | | throughput | 高吞吐测试 | 300-500 tokens | | code | 代码生成(默认) | 500-1000 tokens | | json | JSON 输出测试 | 30 tokens |

| Task Type | Description | Target Output | Use Case |

| counting | 数字序列生成 | 50 tokens | TTFT 测试(最稳定) | | structured-list | 结构化列表 | 100-150 tokens | 中等负载测试 | | code-review | 代码审查报告 | 300-400 tokens | 代码工作负载 | | implementation | 完整代码实现(默认) | 500-700 tokens | 吞吐量测试 | | comprehensive | 综合分析报告 | 800-1000 tokens | 真实工作负载 |

Cette compétence doit être utilisée lorsque l'utilisateur demande de « comparer l'API LLM », « tester la vitesse de l'API », « mesurer le temps de réponse », « vérifier la latence de l'API », « tester le TPS », « évaluer le point de terminaison », « comparer les performances des points de terminaison », « évaluer les métriques de performance de l'API LLM ». (TTFT, TPS, latence). Source : ridewind/my-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/ridewind/my-skills --skill llm-api-benchmark
Catégorie
</>Développement
Vérifié
Première apparition
2026-03-07
Mis à jour
2026-03-10

Browse more skills from ridewind/my-skills

Réponses rapides

Qu'est-ce que llm-api-benchmark ?

Cette compétence doit être utilisée lorsque l'utilisateur demande de « comparer l'API LLM », « tester la vitesse de l'API », « mesurer le temps de réponse », « vérifier la latence de l'API », « tester le TPS », « évaluer le point de terminaison », « comparer les performances des points de terminaison », « évaluer les métriques de performance de l'API LLM ». (TTFT, TPS, latence). Source : ridewind/my-skills.

Comment installer llm-api-benchmark ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/ridewind/my-skills --skill llm-api-benchmark Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/ridewind/my-skills

Détails

Catégorie
</>Développement
Source
skills.sh
Première apparition
2026-03-07