·agentbox-inference
</>

agentbox-inference

LLM-Inferenz über kostenpflichtige API: OpenAI-kompatible Chat-Abschlüsse, die über x402-Anbieter weitergeleitet werden. Unterstützt Kimi K2.5, MiniMax M2.5. Verwendet das x_paid-Tool für automatische USDC-Mikrozahlungen (0,001–0,003 USD/Anruf). Wird verwendet, wenn: (1) Text mit einem bestimmten Modell generiert wird, (2) Chat-Vervollständigungen über einen Pay-per-Request-LLM-Endpunkt ausgeführt werden, (3) Ausgaben verschiedener Modelle verglichen werden.

21Installationen·1Trend·@cascade-protocol

Installation

$npx skills add https://github.com/cascade-protocol/agentbox --skill agentbox-inference

So installieren Sie agentbox-inference

Installieren Sie den KI-Skill agentbox-inference schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/cascade-protocol/agentbox --skill agentbox-inference
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: cascade-protocol/agentbox.

Paid OpenAI-compatible chat completions API at https://inference.x402.agentbox.fyi. Costs $0.001-$0.003 USDC per call via x402 on Solana. Use the xpayment tool for all requests.

| model | string | yes | Model ID (see table below) | | messages | array | yes | Array of {role, content} objects | | maxtokens | integer | no | Maximum tokens to generate | | temperature | number | no | Sampling temperature (0-2) | | topp | number | no | Nucleus sampling (0-1) |

| moonshotai/kimi-k2.5 | $0.003 | High-quality output, large context (262K) | | minimax/minimax-m2.5 | $0.002 | Balanced quality/cost |

LLM-Inferenz über kostenpflichtige API: OpenAI-kompatible Chat-Abschlüsse, die über x402-Anbieter weitergeleitet werden. Unterstützt Kimi K2.5, MiniMax M2.5. Verwendet das x_paid-Tool für automatische USDC-Mikrozahlungen (0,001–0,003 USD/Anruf). Wird verwendet, wenn: (1) Text mit einem bestimmten Modell generiert wird, (2) Chat-Vervollständigungen über einen Pay-per-Request-LLM-Endpunkt ausgeführt werden, (3) Ausgaben verschiedener Modelle verglichen werden. Quelle: cascade-protocol/agentbox.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/cascade-protocol/agentbox --skill agentbox-inference
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-03-07
Aktualisiert
2026-03-10

Browse more skills from cascade-protocol/agentbox

Schnelle Antworten

Was ist agentbox-inference?

LLM-Inferenz über kostenpflichtige API: OpenAI-kompatible Chat-Abschlüsse, die über x402-Anbieter weitergeleitet werden. Unterstützt Kimi K2.5, MiniMax M2.5. Verwendet das x_paid-Tool für automatische USDC-Mikrozahlungen (0,001–0,003 USD/Anruf). Wird verwendet, wenn: (1) Text mit einem bestimmten Modell generiert wird, (2) Chat-Vervollständigungen über einen Pay-per-Request-LLM-Endpunkt ausgeführt werden, (3) Ausgaben verschiedener Modelle verglichen werden. Quelle: cascade-protocol/agentbox.

Wie installiere ich agentbox-inference?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/cascade-protocol/agentbox --skill agentbox-inference Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/cascade-protocol/agentbox

Details

Kategorie
</>Entwicklung
Quelle
skills.sh
Erstes Auftreten
2026-03-07