摘要:预测未来是很难的,特别是正向预测(预测什么会成功/流行),我之前的正向预测正确率很明显是低于50%的。(负向预测倒是容易很多,只不过价值很低。)
预测未来是很难的,特别是正向预测(预测什么会成功/流行),我之前的正向预测正确率很明显是低于50%的。(负向预测倒是容易很多,只不过价值很低。)
而本文特地又增加了(不靠谱)的说明,大家需要进一步修正预期。
在正文之前,先讨论一下我对未来小半年的预判。
未来半年的进展大概率不是突然上升一个台阶,而是渐进优化。目前看到有两个方面还能提升:Coding能力/基于Coding的Agent能力,对于GUI的理解和操作。
所以现在觉得AI Coding工具还不够好的同学可以等半年再看。
Altman在8月份接受CNBC采访时,提到记忆能力是ChatGPT(产品)的关键,还提到与以往的大版本相比GPT-6 可能会更快到来。我去研究了原视频,但其中Altman并没有说GPT-6会在模型层面做Memory功能。
从目前国内LLM应用创业者的状态来看,重视Memory是一种共识。
但真的Agentic的、通用的Memory方案要实现很困难,虽然说不是毫无希望,但认真设计后会发现复杂度仍然很高,会让不少人放弃启动。靠Claude Code来模拟一个Agentic的Memory能做个demo,但仍然距离类人的Memory能力有差距。
这时候就得套用那个经典句式了:模型层是否做不出来一个更通用的Memory功能?途径就是训练模型使用一些Recall/Update(Read/Write)工具来实现Agentic Memory。
我不知道读者如何判断这个路线的可能性。但我觉得是可以的。考虑到目前大家已经开始重视Memory,并且这件事从RL post-train的角度来说似乎并非高不可攀。虽然Reward 不好做,但要记得:Deep Research的Reward也不好做。
而且要说的话,除了Memory之外,现在还真的很难拿出什么功能提升来支撑大家对这个版本号的预期。Coding和GUI的渐进提升肯定是不够的。
对于模型厂来说,攻关通用Memory功能在我看来并不算很难。如果 Moonshot 未来推出一个具备不错 Memory 功能的开源模型,我也不会惊讶。
来源:晚晚的星河日记一点号