摘要:硅谷AI圈最近有个挺有意思的事儿,巨头们都在往大模型里砸钱,OpenAI、GoogleDeepMind这些主儿,几十亿美元扔进去,就为了让模型规模再大一点,好像规模上去了,AI就能变成超级智能似的。
硅谷AI圈最近有个挺有意思的事儿,巨头们都在往大模型里砸钱,OpenAI、GoogleDeepMind这些主儿,几十亿美元扔进去,就为了让模型规模再大一点,好像规模上去了,AI就能变成超级智能似的。
但就在大家都盯着算力的时候,硅谷冒出个叫ThinkingMachinesLab的公司,想法跟巨头们完全不一样。
我刚开始听到“AI不用大模型也能成超级智能”这话,还觉得有点玄乎,但听这家公司的研究员拉斐尔・拉法洛夫掰扯完现有AI的毛病,好像又有点道理。
拉法洛夫在旧金山TEDAI大会上说,第一个超级智能得是“超人的学习者”,能自己适应环境、提理论、做实验,还能不断迭代。
这话直接跟巨头们的“规模至上”对着干了。
OpenAI、GoogleDeepMind这些巨头的思路,其实挺好理解的过去几年,大模型确实越做越强,GPT系列、DeepMind的AlphaFold,都是靠规模堆出来的。
2024年有份AI行业报告里说,OpenAI搞GPT-5的时候,算力投入比GPT-4还多3倍。
这种“越大越好”的想法,在AI圈里一度没人敢质疑,但ThinkingMachinesLab偏不这么想。
这家公司是前OpenAI首席技术官米拉・穆拉蒂联合搞的,去年刚拿到20亿种子轮融资,估值直接冲到120亿,这在AI初创公司里算是个奇迹了。
米拉・穆拉蒂的名头肯定帮了不少忙,毕竟她在OpenAI搞过GPT-3、GPT-4,业内没人不认识,资本愿意信她,也正常。
拉法洛夫最戳中我的一点,是他敢说现有AI的“坏话”。
他说现在最牛的AI编码助手,每天都跟“第一天上班”似的,昨天学的东西今天就忘,处理不确定代码的时候,总用try/except块凑数,跟用胶带补破洞似的,只顾着眼前能用,不管长远。
这话真没说错,我之前跟做编程的朋友聊,他也吐槽过AI助手“记不住事”,写个复杂代码还得反复提醒,不然就跑偏。
本来想,AI只要规模够大,总能慢慢解决“忘事”的问题吧?但后来发现,拉法洛夫说的不是规模的事,是学习方式的事。
他说“学习是聪明人会做的事情,训练是我们现在正在做的事情”,这话一下子点透了现在的AI只是在“训练”,不是在“学习”。
这家公司想搞的“元学习”,就是让AI“学习如何学习”。
简单说,就是不让AI只盯着单个问题解,而是让它像学生一样,从课本里一点点积累知识,慢慢学会自己迁移知识。
比如给AI一本研究生水平的教科书,让它逐章学,从基础题练起,跟我们上学时的节奏差不多。
拉法洛夫还举了拓扑学的例子,说数学家搞拓扑学,不是为了解决欧几里得几何的某个题,是觉得这门学问本身重要。
AI的学习也该这样,不能为了解题而解题,得积累真正有用的抽象概念。
这个思路挺反常规的,毕竟现在AI圈都在比谁的模型能解更难的题,没人想着让AI先“打好基础”。
更有意思的是,拉法洛夫说搞元学习不用新的模型架构,“现有核心架构已经到位,缺的是正确的数据和目标”。
这话跟行业里的普遍想法不一样,很多人觉得要突破AI瓶颈,必须搞出新架构。
但他觉得问题不在架构,在怎么用就像同样的电脑,有人用来打游戏,有人用来做科研,关键看怎么用,不是电脑本身不行。
虽然元学习的想法听着挺好,但这家公司的日子可不好过。
首先是人才问题,去年10月,联合创始人安德鲁・塔洛克突然离开,回了Meta。
之前《华尔街日报》就报道过,其他科技巨头正拿着高薪挖他们的人,AI圈的人才本来就少,初创公司想留住人太难了。
2024年第三季度有份AI人才报告,说头部公司给顶级研究员的薪资涨了40%,初创公司的人才流失率比前年高了15%。
这么看,ThinkingMachinesLab留不住人,也不是偶然。
毕竟巨头给的钱更多,平台更大,研究员难免会动心。
除了人才,产品落地也是个难题。
去年10月他们推出了个叫Tinker的产品,是个微调开源语言模型的API,说白了就是帮人调模型的工具。
但现在市面上做这个的不少,HuggingFace、AWS都有类似服务,Tinker想杀出重围,还得有点真本事。
拉法洛夫自己也承认,想实现元学习的目标,“得在内存、工程、数据、优化上搞出不少突破”,而且他没说啥时候能搞成AGI,不像有些公司,动不动就说“几年内实现AGI”。
这种不画饼的态度,反而让人觉得更靠谱毕竟AI这行,吹得越狠,越容易翻车。
还有个争议点,拉法洛夫觉得现在的大模型再怎么扩规模,也成不了真AGI。
他说“一两年后现在的编码助手会过时”,但过时不代表变成AGI。
这话戳中了很多人的疑问:大模型确实越来越强,但它们真的在“变智能”,还是只是“记题记得更多”?
我倒觉得,不管元学习最后成不成,这家公司的存在都是好事。
毕竟AI行业不能只走一条路,巨头们追规模,总得有人试试别的方向。
要是所有人都盯着同一条路,万一走不通,整个行业都得绕远路。
现在想想,拉法洛夫对超级智能的定义也挺有意思。
他说超级智能不是“上帝级的推理者”,不是能解所有数学题的机器,而是能自己探索、学习、获取信息的系统,能理解世界、用电脑、做研究、控机器人。
这种“动态”的智能,比“静态”的解题机器,更像我们说的“智能”。
当然,元学习这条路肯定不好走。
内存不够、数据不好找、工程难度大,每一个都是坎。
但要是真能成,AI可能就不是现在这样“记不住事”的助手了,说不定真能变成能自己思考、自己进步的系统。
最后再多说一句,AI行业从来不是“一家独大”的游戏。
巨头有巨头的玩法,初创公司有初创公司的新思路。
ThinkingMachinesLab敢挑战主流,不管最后结果如何,这种勇气都值得佩服。
毕竟,真正的突破,往往都是从“反常规”开始的。
来源:冷秋月一点号
