·multi-llm-consult
</>

multi-llm-consult

nickcrew/claude-ctx-plugin

Konsultieren Sie externe LLMs (Gemini, OpenAI/Codex, Qwen) für Zweitmeinungen, alternative Pläne, unabhängige Überprüfungen oder delegierte Aufgaben. Verwenden Sie diese Option, wenn ein Benutzer nach der Perspektive eines anderen Modells fragt, Antworten vergleichen möchte oder die Delegierung einer Unteraufgabe an Gemini/Codex/Qwen beantragt.

10Installationen·1Trend·@nickcrew

Installation

$npx skills add https://github.com/nickcrew/claude-ctx-plugin --skill multi-llm-consult

SKILL.md

Use a bundled script to query external LLM providers with a sanitized prompt and return a concise comparison.

Konsultieren Sie externe LLMs (Gemini, OpenAI/Codex, Qwen) für Zweitmeinungen, alternative Pläne, unabhängige Überprüfungen oder delegierte Aufgaben. Verwenden Sie diese Option, wenn ein Benutzer nach der Perspektive eines anderen Modells fragt, Antworten vergleichen möchte oder die Delegierung einer Unteraufgabe an Gemini/Codex/Qwen beantragt. Quelle: nickcrew/claude-ctx-plugin.

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/nickcrew/claude-ctx-plugin --skill multi-llm-consult Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Sicherheitszertifiziert für sicheren, zuverlässigen Code Ein-Klick-Installation und vereinfachte Einrichtung Kompatibel mit Claude Code, Cursor und mehr

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/nickcrew/claude-ctx-plugin --skill multi-llm-consult
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist multi-llm-consult?

Konsultieren Sie externe LLMs (Gemini, OpenAI/Codex, Qwen) für Zweitmeinungen, alternative Pläne, unabhängige Überprüfungen oder delegierte Aufgaben. Verwenden Sie diese Option, wenn ein Benutzer nach der Perspektive eines anderen Modells fragt, Antworten vergleichen möchte oder die Delegierung einer Unteraufgabe an Gemini/Codex/Qwen beantragt. Quelle: nickcrew/claude-ctx-plugin.

Wie installiere ich multi-llm-consult?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/nickcrew/claude-ctx-plugin --skill multi-llm-consult Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/nickcrew/claude-ctx-plugin