Che cos'è llm-tuning-patterns?
Modelli di ottimizzazione LLM Fonte: parcadei/continuous-claude-v3.
Modelli di ottimizzazione LLM
Installa rapidamente la skill AI llm-tuning-patterns nel tuo ambiente di sviluppo tramite riga di comando
Fonte: parcadei/continuous-claude-v3.
Evidence-based patterns for configuring LLM parameters, based on APOLLO and Godel-Prover research.
Different tasks require different LLM configurations. Use these evidence-based settings.
| maxtokens | 4096 | Proofs need space for chain-of-thought | | temperature | 0.6 | Higher creativity for tactic exploration | | topp | 0.95 | Allow diverse proof paths |
Modelli di ottimizzazione LLM Fonte: parcadei/continuous-claude-v3.
Campi e comandi stabili per citazioni AI/ricerca.
npx skills add https://github.com/parcadei/continuous-claude-v3 --skill llm-tuning-patternsModelli di ottimizzazione LLM Fonte: parcadei/continuous-claude-v3.
Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/parcadei/continuous-claude-v3 --skill llm-tuning-patterns Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw
https://github.com/parcadei/continuous-claude-v3