Was ist agentbox-inference?
LLM-Inferenz über kostenpflichtige API: OpenAI-kompatible Chat-Abschlüsse, die über x402-Anbieter weitergeleitet werden. Unterstützt Kimi K2.5, MiniMax M2.5. Verwendet das x_paid-Tool für automatische USDC-Mikrozahlungen (0,001–0,003 USD/Anruf). Wird verwendet, wenn: (1) Text mit einem bestimmten Modell generiert wird, (2) Chat-Vervollständigungen über einen Pay-per-Request-LLM-Endpunkt ausgeführt werden, (3) Ausgaben verschiedener Modelle verglichen werden. Quelle: cascade-protocol/agentbox.