人才培养进入转折点、知识不等于智能、大模型风起云涌……百位顶尖学者浦江论剑,为中国AI标注新坐标

B站影视 2024-12-15 21:06 2

摘要:李萌特别指出,年初的 Sora 惊艳登场,OpenAI 的草莓系列和谷歌的 Gemini 犹抱琵琶,OpenAI 对未来发展进行了五级分类,慢思考推理模型推出,李飞飞的 AI Agent 和空间智能开创了认知的新高度,诺贝尔物理奖化学奖授予人工智能领域。

“2024 年是人工智能大模型高歌猛进的一年,值得记住的一年。大模型风起云涌,能力一节高过一节,应用一浪超过一浪,不断突破天花板。”

在近日举行首届浦江 AI 学术年会开幕式上,中国可持续发展研究会理事长、十四届全国政协委员、科技部原副部长李萌这样总结过去一年 AI 领域的发展态势。

李萌特别指出,年初的 Sora 惊艳登场,OpenAI 的草莓系列和谷歌的 Gemini 犹抱琵琶,OpenAI 对未来发展进行了五级分类,慢思考推理模型推出,李飞飞的 AI Agent 和空间智能开创了认知的新高度,诺贝尔物理奖化学奖授予人工智能领域。

“在中国,2024 年多模态大模型百舸争流,与世界顶尖水平的差距快速缩小,垂直大模型在各个产业渗透扩大。华为昇思开源共建框架取得重要进展,数字人悉数登场,具身智能落地的呼声迭起,人形机器人你追我赶。场景驱动受到了各地的追捧,带动各行各业先用起来,形成早应用早受益的氛围。”

接下来 2025 年,人工智能会发生怎样的变化?在首届浦江 AI 学术年会,全球人工智能领域的顶尖专家、学者以及行业领袖汇聚一堂,就 AI 的前沿发展趋势、关键技术挑战、创新协作机制、产业应用实践等重要议题展开了深入探讨。

人才培养是通向 AI 强国的关键之路

作为本届浦江 AI 学术年会的大会主席,清华大学交叉信息研究院院长及人工智能学院院长、上海期智研究院院长姚期智对中国 AI 人才发展态势发表了重要观察。“我们知道要做出一流的结果,必须要有一流的人才队伍,包括人工智能核心技术方面以及人工智能+的交叉人才。”姚期智表示。

他分享了一个令人振奋的发现,在清华大学新的人工智能学院招聘过程中,不仅吸引到了众多国际顶尖大学和 AI 实验室青年人才的申请,更可喜的是成功引进了多位国内大学毕业的杰出人才。“这些人的创新成就和工作成果,和我们能够从海外引进的不相上下。这在过去是比较少见的。”姚期智认为,这标志着中国在 AI 高端人才培养方面已经进入了一个转折点。

“能够产生一流的博士生,不只是说有了这些源源不断地生力军可以给我们各个实验室,而且他其实代表的是在指导这些博士生科研团队跟师资已经到了世界最高的水平。”姚期智强调,这也验证了一些国际调研报告的发现,即中国的人工智能研究,尤其是在高校方面已经达到了很高的水平。

不过,姚期智也指出人才培养的下一个挑战:“我们下一步怎么样把年轻的,刚刚进入独立研究的人才,能够让他们有一个相当于在国外博士后的能力,就是我们怎么样培养好的博士后,这个是我们这一阶段要努力的。”他认为,一旦解决了博士后阶段的培养问题,这些人才的后续发展就主要取决于他们自己,科研机构只需要提供良好的环境和充足的经费支持。

姚期智特别强调引进人才只是第一步,更重要的是要让人才能够扎根、成长。“真正有抱负的青年科学家他们关注的不只是短期薪水、资源,而是要有一个长期的能够发展的机会。”他呼吁各大高校、科研机构的领导者要将人才的进一步培养作为重要使命。

从科研范式到工程实践多维发展

“过去十年人工智能在发展,但对‘智能’这个事情都没有界定清楚,把智能跟知识完全混淆在一起。”香港大学计算与数据科学学院院长、AI 讲座教授马毅强调,真正的智能应该是能够有自纠正、能改进自己记忆的、获得新知识的能力。

马毅进一步阐述了智能的本质:“任何可预测的有规律的事情,从数学表象上,高维的数据、有规律的数据一定有低维机构,分布不会是随机的,不会在大的高维空间中任何地方都可以的。所以同一的数学问题,就是在这些高维数据里面怎么学到它的地位解构。”

他特别强调了未来两个重要方向:“第一个是,下一代智能系统一定是有自主连续增量学习的系统,更加接近于自然界的动物、人的学习。第二,必须要取代 BP(反向传播算法,深度学习的核心算法),因为自然界做不了这个事,这也是为什么现在 AI 训练需要消耗如此巨大的计算资源。”

中国工程院院士、同济大学校长郑庆华则从工程智能的角度提供了新的视角。他提出工程智能是连接科学智能与产业应用的重要桥梁,并详细阐述了工程智能模型的三大特点:“第一,模型要具有实践性,或者是要有可行性。因为工程需要考虑成本、环境、时空条件,这些约束性限制条件。第二,工程模型面对的问题是一个实际的多场景,以及多学科交叉的问题。第三,工程模型需要有可靠性,得出的结论需要可解释、可证明、可推理。”

刚刚开始,突破与挑战并存

关于 2025 年人工智能的发展和走向,上海 AI 实验室主任助理、领军科学家乔宇提出三个期待:“第一,多模态大模型的涌现能力能够像语言一样取得重要的突破。第二,具身智能的 ScalingLaw 能不能做到场景泛化、任务泛化、跨文体的泛化。第三,希望能够看到安全和发展更加统筹协调发展的路径。”

北京大学智能学院副院长、教授陈宝权强调了“白盒”模型的重要性,他表示:“我特别认可‘白盒’。我们构建一个世界描述的时候是人的智能,我看到了这个世界,人来分解,它的几何是什么样子,它的过程,我把牛顿定力引过来,这都是人的智能逼近现实世界。”他认为有了深度学习、大模型以后,逼近的过程如果把“白盒”和数据的学习结合起来,就可以通过学习的方式来推动逼近,代替人的工作。

阶跃星辰首席科学家张祥雨对未来发展提出了具体期待:“第一,在新范式的加持下,希望看到 ScalingLaw 跟智能程度能够再次成正比。第二,多模态大模型能够真正做到理解和生成的一体化,能够在视觉空间完成人类具有的视觉推理。第三,期待明年我们能出一个真正的 AI Native,能解决大家真实需求的产品。”

另一个引人注目的观点来自人民网董事长叶蓁蓁。他从中国传统文化视角出发,创新性地提出了“知、行、思、悟”四个维度来理解人工智能的发展阶段。他以金庸武侠小说中的人物为例,生动地阐述了不同阶段 AI 的特点:“今天的大模型都处在王语嫣的阶段,读了万卷书,而手无缚鸡之力。具身智能则需要像少林小沙弥一样进行实践训练,而最理想的状态是要达到扫地僧的‘知行合一’境界。”

“我们还刚刚开始,还没怎么入门。技术的发展给我们带来很多进步,但很可能我们在道理这件事情上,实际上过去十年可能没有进步,反而有点退步。”马毅教授的这番话引发了与会者的深思。他进一步指出,要在人工智能领域取得突破,不能人云亦云,要敢于特立独行,就像 1956 年那批在达特茅斯开会的年轻人一样,要敢于走出不一样的路。

安全与伦理不容忽视

随着 AI 技术快速发展,安全与伦理问题日益凸显。叶蓁蓁提到了一个令人警醒的案例:“今年一个 14 岁的少年在跟 AI 长时间聊天之后自杀了,这是历史上第一起因为 AI 而致死的案件。”这个案例引发了与会专家对 AI 情感互动能力的深入思考。叶蓁蓁强调,未来 AI 发展不仅要提升智商,还要重视情商的培养,要在社会计算、情感计算等领域加大研发力度。

技术创新与安全发展的平衡问题也得到了广泛关注。上海AI实验室主任、首席科学家、清华大学惠妍讲席教授周伯文介绍了实验室在安全领域的探索:“实验室按照通专融合 AGI 路径,在第一阶段构建并发布了强推理模型书生 InternThinker,自主构造大规模高智力密度数据生成,具备代码、数学等多场景泛化能力。”他还特别提到了“AI-45 度平衡律”的重要性,强调要在推动技术创新的同时,始终把安全放在首位。

人工智能正在以前所未有的速度改变着世界。正如李萌所说:“中国 AI 界努力大幅度的提升了我们的能力、水平和地位,为充分发挥人工智能引领新质生产力发展的作用做出了重要的贡献。”在这场技术变革的浪潮中,浦江 AI 学术年会的举办无疑具有里程碑意义。它不仅是一次高水平的学术交流,更是一次关于人工智能未来发展方向的深度思考。

来源:周到客户端

相关推荐