摘要:当你把同一套模型权重交给不同的推理栈,结果真的“同人不同命”。OpenRouter刚刚发布的「:exacto精准工具调用端点」正是为此而生:它会把请求路由到在真实流量中“工具调用成功率更高”的提供商,让代理式、工具密集型工作流更稳、更准。同时,他们还上线了两款
OpenRouter 推出「:exacto 精准工具调用端点」+ 两款 GPT‑5 图像模型与新隐形模型 Andromeda Alpha 全解
当你把同一套模型权重交给不同的推理栈,结果真的“同人不同命”。OpenRouter刚刚发布的「:exacto精准工具调用端点」正是为此而生:它会把请求路由到在真实流量中“工具调用成功率更高”的提供商,让代理式、工具密集型工作流更稳、更准。同时,他们还上线了两款图像模型GPT‑5 Image / GPT‑5 Image mini,以及一款专注视觉理解的隐形模型Andromeda Alpha(注意:该模型的提示与响应会被提供方记录,用于改进服务)。
“我们每月观测到数十亿次请求,得以识别不同提供商在工具调用上的实际差异,从而为工具密集型场景精选更可靠的路由。”——OpenRouter团队
同一模型在不同提供商处的推理质量会因为解码细节、系统提示注入、拦截/恢复策略、工具调用规范化流程等而出现可感知差异。:exacto通过“精心挑选的提供商白名单”来提升工具调用的整体成功率与稳定性。
设计目标:在保持模型权重不变的前提下,优化“工具调用准确率与可靠性”。工作方式:你只需在支持模型的slug后面添加后缀「:exacto」,OpenRouter会只在“通过真实数据与基准评测验证”的提供商中进行路由,无需额外配置偏好。适用场景:代理式工作流、函数/工具密集型任务、使用[MCP](Model Context Protocol,一种多工具代理连接协议 "MCP") 的应用等。 > 参考资料:文档:Exacto Variant 公告:Provider Variance: Introducing Exacto 工具调用文档:Tool & Function Calling
模型:exacto路由写法适用方向KimiK2moonshotai/kimi-k2-0905:exacto中文综合、工具代理DeepSeekv3.1Terminusdeepseek/deepseek-v3.1-terminus:exacto推理/工具调用GLM4.6z-ai/glm-4.6:exacto中文/多语混合GPT?OSS120Bopenai/gpt-oss-120b:exacto开源系大模型代理Qwen3Coderqwen/qwen3-coder:exacto代码/工具调用官方称在内部评测与开源基准(如 LiveMCPBench、tau2‑Bench)以及真实流量上,:exacto能显著减少工具调用失败,更可靠地触发正确工具。
import OpenAI from "openai";const client = new OpenAI({baseURL: "https://openRouter.ai/api/v1",apiKey: process.env.OPENROUTER_API_KEY,});const completion = await client.chat.completions.create({model: "moonshotai/kimi-k2-0905:exacto",messages: [{role: "user",content: "为 :exacto 发布写一个精简的更新日志。",},],});你也可以在 models 数组里指定回退模型;凡是带:exacto 的模型在被选中时会强制使用精选提供商路由。
实操优化建议:
设计“结构化、带校验规则”的工具参数(如 enum、pattern、minimum/maximum)以减少歧义。在系统提示中明确“何时调用工具/何时自行回答”的决策准则,避免过度或不足调用。对链式工具调用,分步描述需求;使用中间态总结字段帮助模型保持上下文一致性。结合评测:Tool Calling Demo+自建回归集,持续监测工具调用的精确率/召回率。如果你在用 [MCP](Model Context Protocol,一种多工具代理连接协议"MCP")或其他代理框架,建议直接把核心模型切到对应的 :exacto 变体,以在真实生产流量中获得更稳定的工具决策行为。
示例:在有“日历/检索/数据库”三类工具的多工具代理中,:exacto通常会更少出现“该调用工具却没调/不该调却乱调”的失配现象,减少你为兜底逻辑付出的工程复杂度
GPT‑5 Image 与 GPT‑5 Image Mini 全面解读GPT-5 Image将OpenAI最先进的语言模型与最先进的图像生成功能相结合。它在推理、代码质量和用户体验方面做出了重大改进,同时结合了GPT Image 1的高级指令遵循、文本渲染和详细的图像编辑。
模型地址:openai/gpt-5-image 上下文与输出:总上下文 400,000 tokens,最大输出 128,000 tokens 定价:文本 $10/百万输入tokens、$10/百万输出tokens;图像$0.01/千输入imgs、$0.04/千输出imgs;Web Search $10/千 能力侧写:在 GPT‑5 语言能力之上,融合先进图像生成;继承 GPT Image 1的“强指令跟随、清晰可控的文字渲染、细粒度编辑”能力,用于复杂视觉创作与精修 性能观测(OpenRouter 页面): 吞吐:约 26 tok/s 延迟:性能页平均 ~9.96 s;提供商面板展示 ~21.51 s(不同统计口径可能存在差异) 支持参数:Tools / Tool Choice、Structured Outputs、Response Format、Seed、Max Tokens、Temperature、Top P、Stop、Frequency/Penalty、Logit Bias、Logprobs等 数据策略(OpenAI 提供商,OpenRouter 代管审核):不用于训练(Prompt Training=false);提示/响应日志会被保留(保留期未知);需要提供用户 ID(用于匿名化合规与计费);内容审核由OpenRouter管理。 支持参数速览:Structured Outputs、Response Format、Seed、Max Tokens、Temperature、Top P、Stop、Frequency/Presence Penalty、Logit Bias、Logprobs/Top Logprobs、Tools、Tool Choice 等。 性能与稳定性(以OpenRouter公共面板为准,统计口径可能不同): 吞吐:Avg ~26 tok/s(Performance 面板)/ ~29.05 tps(Providers 面板) 延迟:Avg ~10.11 s(模型内部延迟);端到端 E2E Avg ~82.69 s(含排队/路由/图像处理) 可用性:Uptime 100%(随时间波动) 计费与缓存:文本 $10/M 输入、$10/M 输出;图像 $0.01/K 输入、$0.04/K输出;Web Search $10/K;Cache Read $1.25/M(Cache Write/音频暂未提供)。 应用场景示例: 高精度文生图与分镜创作(支持更可控的指令跟随与文字渲染) 细粒度图像编辑(Prompt+局部约束,复杂改图任务的稳定性更强) 文档/界面截图理解与标注(与 GPT‑5 语言能力协同,长文脉冲更稳) 工业/医疗/电商等需要“解释+可控生成”的多模态场景 GPT‑5 Image Mini:高效低延迟的规模化之选
来源:浅聊AI
