更大的AI风暴即将到来,随之而来的还有巨大弊端,学术界如何应对

B站影视 2025-01-08 19:16 3

摘要:科技日新月异,AI正在以锐不可当的态势席卷各行各业,在不少行业甚至取代人工,夺人饭碗,为大众带来便捷的同时也引发不少恐慌。

来源:深究科学作者:林 岩

导读

科技日新月异,AI正在以锐不可当的态势席卷各行各业,在不少行业甚至取代人工,夺人饭碗,为大众带来便捷的同时也引发不少恐慌。

如今,AI公司正致力于赋予机器无限接近人类级别的智能,即通用人工智能(AGI),以更大程度地发挥AI的造利价值,但其中潜藏着的风险不容小觑。

在科学界,亦是如此,AI如同一把双刃剑,在助力科学大迈进的同时,也威胁着传统的学术界。

在可预见的未来,更强大的AI即将到来,应如何应对AI产生的“弊”?

01

更高级别的AI正加速到来

2024年9月份,OpenAI的首席执行官Sam Altman表示,“也许在几千天之后,我们就能拥有超级智能;也许需要更长时间,但我确信我们会到达那个境界。”

而就在不到两周前,最先进的大型语言模型(LLM)o1横空出世。

曾经只存在于科幻片中的大型语言模型,近几年却如雨后春笋般迅速崛起,AI公司正在不遗余力地为AI赋予人类所拥有的各种认知能力,以便更好的吸引关注和投资,获取盈利。

越来越先进的AI技术正闯入人们的生活,比如最近短视频中很火的AI一键羊毛卷、AI解说、AI主持......

全世界正在朝通用人工智能迈进,这是一种更高级别、接近人类智能的AI。

但是AI急速发展给世界带来巨大便捷的同时,却又伴随着可怕的风险,具体有哪些风险?目前这些问题并不容易回答,尤其是考虑到大部分相关工作都在企业进行,研究成果并不都公开发表。02

距离通用人工智能还有很长路要走

尽管大型语言模型在生成计算机代码、总结学术论文和回答数学问题等方面表现出广泛的能力,但它们的工作方式存在根本性局限,主要依赖吞噬大量数据并据此预测序列中的下一个“标记”。这只能生成解决问题的合理答案,而非真正解决问题。

前谷歌软件工程师François Chollet和亚利桑那州立大学坦佩分校的计算机科学家Subbarao Kambhampati测试了o1在需要抽象推理和规划的任务中的表现,发现它离通用人工智能还有一定差距。一些研究者认为,如果要实现通用人工智能,AI系统需要连贯的“世界模型”,即它们可以用来测试假设、推理、规划和将在一个领域学到的知识泛化到无限其他情境的周围环境表示。

科学界普遍认为,像o1、谷歌的Gemini和旧金山Anthropic公司开发的Claude等大型语言模型尚未实现通用人工智能。

也有观点坚持大型语言模型永远无法实现通用人工智能,而要实现人类级别的智能,AI需要另一种技术。

一些研究者认为,AI的下一次突破可能不是来自最大的系统,而是来自更小、更节能的AI。

伦敦大学学院的理论神经科学家Karl Friston表示,如果未来的智能系统具备决定从环境中采样哪些方面的能力,而不是简单地吞噬所有输入的信息,那么它们训练所需的数据量可能会更少。

加拿大蒙特利尔大学的Yoshua Bengio团队则正在探索能够更好支持连贯世界模型构建和使用此类模型进行推理的替代AI架构。

这些尝试对于验证系统的真正能力、确保它们符合技术公司的说法以及确定开发所需的突破至关重要。

3

携手监督,取长避短

2021年,美国政府机构(不包括国防部)为AI研发提供了15亿美元资金,而欧盟委员会每年花费约10亿欧元(10.5亿美元)。

图片来自scientificamerican.com

政府可以通过整合资源等方式更大规模地资助AI研究。相比之下,2021年,全球公司在AI研究上的支出超过3400亿美元。总部位于荷兰海牙的非营利组织欧洲人工智能研究实验室联合会建议建造一个“AI领域的CERN”,以吸引与AI公司同样水平的人才,从而创造一个前沿的研究环境。

很难预测通用人工智能何时会到来——估计从几年后到十年或更长时间不等。但考虑到投资规模,AI无疑将取得巨大进步,其中许多进步的可能来自工业界。

为了确保这些进步是有益的,政府、工业界、研究资助者和学界需认识到他们各自的互补优势,携手监督,在通用人工智能的发展中将“弊”降低到最少范围,并整合所有知识,以确保AI研究的应用是稳健的,尽可能减轻其可能存在的风险。

More-powerful AI is coming. Academia and industry must oversee it — together

来源:人工智能学家

相关推荐