什么是 agentbox-inference?
通过付费 API 进行 LLM 推理:通过 x402 提供商代理的 OpenAI 兼容聊天完成。支持Kimi K2.5、MiniMax M2.5。使用 x_ payment 工具进行自动 USDC 小额支付(每次调用 0.001-0.003 美元)。在以下情况下使用:(1) 使用特定模型生成文本,(2) 通过按请求付费的 LLM 端点运行聊天完成,(3) 比较模型之间的输出。 来源:cascade-protocol/agentbox。
通过付费 API 进行 LLM 推理:通过 x402 提供商代理的 OpenAI 兼容聊天完成。支持Kimi K2.5、MiniMax M2.5。使用 x_ payment 工具进行自动 USDC 小额支付(每次调用 0.001-0.003 美元)。在以下情况下使用:(1) 使用特定模型生成文本,(2) 通过按请求付费的 LLM 端点运行聊天完成,(3) 比较模型之间的输出。
通过命令行快速安装 agentbox-inference AI 技能到你的开发环境
来源:cascade-protocol/agentbox。
Paid OpenAI-compatible chat completions API at https://inference.x402.agentbox.fyi. Costs $0.001-$0.003 USDC per call via x402 on Solana. Use the xpayment tool for all requests.
| model | string | yes | Model ID (see table below) | | messages | array | yes | Array of {role, content} objects | | maxtokens | integer | no | Maximum tokens to generate | | temperature | number | no | Sampling temperature (0-2) | | topp | number | no | Nucleus sampling (0-1) |
| moonshotai/kimi-k2.5 | $0.003 | High-quality output, large context (262K) | | minimax/minimax-m2.5 | $0.002 | Balanced quality/cost |
通过付费 API 进行 LLM 推理:通过 x402 提供商代理的 OpenAI 兼容聊天完成。支持Kimi K2.5、MiniMax M2.5。使用 x_ payment 工具进行自动 USDC 小额支付(每次调用 0.001-0.003 美元)。在以下情况下使用:(1) 使用特定模型生成文本,(2) 通过按请求付费的 LLM 端点运行聊天完成,(3) 比较模型之间的输出。 来源:cascade-protocol/agentbox。
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/cascade-protocol/agentbox --skill agentbox-inference通过付费 API 进行 LLM 推理:通过 x402 提供商代理的 OpenAI 兼容聊天完成。支持Kimi K2.5、MiniMax M2.5。使用 x_ payment 工具进行自动 USDC 小额支付(每次调用 0.001-0.003 美元)。在以下情况下使用:(1) 使用特定模型生成文本,(2) 通过按请求付费的 LLM 端点运行聊天完成,(3) 比较模型之间的输出。 来源:cascade-protocol/agentbox。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/cascade-protocol/agentbox --skill agentbox-inference 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/cascade-protocol/agentbox