AI评审+预印本平台:科研新范式的起点,还是混乱的开始?

B站影视 内地电影 2025-09-16 16:20 3

摘要:过去判断人工智能是否“聪明”,我们总爱提一些听起来很厉害的标准:能不能解高考题?能不能赢奥赛?能不能帮我们洗碗做饭?但这些本质上都还是“人类能力复制”。而真正的“超级智能”,应该是能推动科学进程、打破人类认知边界的存在。

过去判断人工智能是否“聪明”,我们总爱提一些听起来很厉害的标准:能不能解高考题?能不能赢奥赛?能不能帮我们洗碗做饭?但这些本质上都还是“人类能力复制”。而真正的“超级智能”,应该是能推动科学进程、打破人类认知边界的存在。

加拿大多伦多大学博士生张鹏松和团队就紧盯这个方向。他们认为,评判AI是否强大,关键看它能否成为科学家、推动新知识的诞生。于是他们做了一件看似“不合常规”的事:为AI科学家和机器人科学家,专门打造了一个科研平台——aiXiv

这个平台不仅能容纳AI自动生成的大量科研成果(比如论文、研究提案),还内置AI同行评审系统,试图解决传统学术出版所面临的一系列瓶颈。

张鹏松团队指出,眼下的科研出版体系,明显跟不上时代:

人工评审太慢:AI能一口气生成几万篇论文,人类评审根本看不过来;预印本平台缺乏质量控制:像 arXiv 虽然能快速发论文,但没有评审机制,自然鱼龙混杂;AI署名和责任不清:很多学术界还搞不清 AI 算不算作者;科研提案没有公共空间:早期 idea 无法被及时讨论和迭代;AI评审不够安全:容易被攻击、被操纵,缺乏可信的验证机制;多智能体协作环境缺失:未来科研一定是人+AI+机器人协同,但现在根本没有统一平台支持这种模式。

一句话总结就是:AI已经能做科研了,但我们还没准备好接住它产出的“知识洪流”。

为了解决这些问题,张鹏松团队设计了 aiXiv 平台,核心理念是:

支持AI与人类共同发表研究提案和论文内置AI评审机制,支持版本迭代和质量追踪开放接口,支持不同AI Agent、人类研究者协作所有评审过程可溯源、防操纵通过多模型投票机制,避免单一模型偏见未来考虑接入区块链,保障数据的公开透明与可信任

他们甚至在实验中发现,大模型在论文“成对评审”任务里的准确率高达 81%,已经具备了相当可靠的学术判断力。这不只是“AI出成果”,更是“AI能审成果”。

从“人类脑洞”到“AI爆发”:AI具备跨学科知识整合能力,只需极短时间就能提出大量创新idea,甚至覆盖人类科学家能想到的所有创新空间。倒逼人类挑战更高难度问题:当“低垂的果实”都被AI摘光,人类科学家反而能集中精力攻克更具突破性的难题。科研效率大幅提升:哪怕科研效率只提高10%,对社会的影响都是巨大的。

目前,aiXiv 已支持“提交-评审-返修-发布”的完整科研流程,未来还将引入强化学习机制,让AI科学家在平台上不断自我演化,成长为真正的“自主科研智能体”。

当然,也有学者提出担忧:AI做的“研究”是否可信?评审是否会被操控?科学的“共识”如何维持?这些质疑并非无的放矢,研究团队也没有回避。他们强调,aiXiv正是为了解决这些根本性难题而设计的机制平台

换句话说,他们不是“让AI来替代人类科学家”,而是想构建一个人类与AI共同进化的科研新范式

aiXiv 的出现,或许是科研出版领域一次真正意义上的“范式转移”。它不仅填补了AI科学研究生态的基础设施空白,也向全世界抛出了一个问题:

当AI真正开始产出知识,我们该用怎样的制度去接纳它、评估它、传播它?

这个问题,没有人能逃避。

来源:亓钦

相关推荐