AI基础研究太慢?对比应用内卷困境,深扎根基才能破局

B站影视 内地电影 2025-09-16 14:43 1

摘要:有这个时间我们不如多搞点应用,比如优化下直播带货的AI推荐,或者做个更智能的扫地机器人,既赚钱又能看到实效。

平时刷到AI写文案、画插画,有时甚至能帮医生看片子,总觉得这技术已经够牛了。

跟我们之前花大价钱、耗十几年去啃认知神经科学、数学这些“硬骨头”,比起来,AI技术快速而且适用。

有这个时间我们不如多搞点应用,比如优化下直播带货的AI推荐,或者做个更智能的扫地机器人,既赚钱又能看到实效。

毕竟现在市场节奏这么快,如果等基础研究出成果,说不定新的技术风口都过了。

但这话说的,太片面了,咱们仔细想想,现在咱们用的AI,不管是做推荐还是搞识别,底层框架大多是谷歌的TensorFlow、Meta的PyTorch。

核心算法比如Transformer,也不是咱们原创的,就像盖房子,应用是装修,基础研究是地基和建材。

装修得再漂亮,要是建材和地基都靠别人供应,哪天人家断货或者涨价,这房子要么没法扩建,要么直接塌了。

去年有个做AI医疗的团队,想优化肿瘤识别模型,结果发现底层的特征提取算法有漏洞,只能等着国外团队更新框架,这就是没自己基础的被动。

而且短期的应用红利终会枯竭,比如现在很多AI应用都陷入了“内卷”,无非是在现有框架里调参数。

要想做出真正能解决复杂问题的AI,比如理解人类情感的陪伴机器人、能自主研发新药的AI,没有基础理论突破根本没戏。

我始终觉得,短期的快钱是“浮财”,只有基础扎得深,才能在AI这条路上走得稳、走得远。

有人可能会觉得,AI基础研究搞这么多学科交叉,又是认知神经科学,又是统计学,还有数学的各种分支,是不是为了显得“高大上”。

毕竟AI本质是计算机技术,把心理学、物理学扯进来,会不会反而分散精力。

但事实恰恰相反,AI的“卡脖子”问题,本质就是单学科解决不了的。

比如现在AI不会“举一反三”,教它识别猫,换个角度拍的猫它就不认了,这就是因为它没理解“猫”的本质特征。

而这个“理解”能力,就得靠认知心理学和认知神经科学来帮衬。

去年有个团队从人类“工作记忆”模型里找灵感,给AI加了个“短期特征存储模块”,一下子就让AI的泛化能力提升了20%,这就是交叉的力量。

再说说数学,咱们总说AI“不可解释”,比如它判断一个人有疾病风险,却讲不出理由,这其实是因为现在的AI算法大多依赖统计拟合,缺乏严谨的数学理论支撑。

要是能把几何拓扑、随机分析这些数学工具用透,说不定就能给AI装上“透明的大脑”,让它的决策能被验证、被改进。

我身边有个数学博士转行做AI,他觉得以前觉得数学太抽象,现在才发现,AI的每一步进步,都得踩着数学的台阶走。

这话一点不假,多学科不是凑数,是给AI搭起了向上爬的梯子。

咱们常听人说“中国AI应用世界领先”,比如移动支付的AI风控、短视频的推荐算法,确实做得不错。

可能有人会觉得,既然应用这么强,基础研究慢慢补就行,反正现在能靠应用赚钱,等赚够了再回头搞基础也不迟。

但这种先应用后基础的思路,其实有风险,咱们现在AI应用的热闹,很多是建立在别人的基础上的。

去年国外某公司限制了AI芯片的出口,咱们不少做大模型的企业立马就慌了,这就是基础薄弱的代价。

而且,基础研究不是“想补就能补”的,它需要长期积累,培养一个能搞AI基础数学的人才,至少得十年八年,等咱们意识到要补的时候,差距可能已经拉得更大了。

所以我觉得,破局的关键不在“等”,而在“早”。

一方面,高校得改改培养模式,比如在数学专业里加认知神经课程,让学生从小就有交叉思维。

另一方面,企业也别只盯着短期利润,拿出一部分钱支持基础研究,比如和高校合作搞AI基础算法实验室。

毕竟,AI的未来不是靠借别人的梯子爬上去的,而是得自己搭起从基础到应用的完整楼梯,这才是中国AI未来发展的真正底气。

来源:ho侯神

相关推荐