faion-llm-integration
✓LLM-APIs: OpenAI, Claude, Gemini, lokale LLMs, Prompt Engineering, Funktionsaufruf.
Installation
SKILL.md
Entry point: /faion-net — invoke this skill for automatic routing to the appropriate domain.
Handles direct integration with LLM APIs. Covers OpenAI, Claude, Gemini, local models, prompt engineering, and output structuring.
| LLM APIs | OpenAI (GPT-4o, o1), Claude (Opus 4.5, Sonnet 4), Gemini (Pro, Flash) | | Prompt Engineering | Few-shot, CoT, chain-of-thought techniques | | Structured Output | JSON mode, function calling, tool use | | Guardrails | Content safety, validation, error handling | | Local LLMs | Ollama integration, privacy-focused deployments |
LLM-APIs: OpenAI, Claude, Gemini, lokale LLMs, Prompt Engineering, Funktionsaufruf. Quelle: faionfaion/faion-network.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/faionfaion/faion-network --skill faion-llm-integration- Quelle
- faionfaion/faion-network
- Kategorie
- </>Entwicklung
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist faion-llm-integration?
LLM-APIs: OpenAI, Claude, Gemini, lokale LLMs, Prompt Engineering, Funktionsaufruf. Quelle: faionfaion/faion-network.
Wie installiere ich faion-llm-integration?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/faionfaion/faion-network --skill faion-llm-integration Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/faionfaion/faion-network
Details
- Kategorie
- </>Entwicklung
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-01