摘要:AI 有望帮助科学家用更少的钱做更多、更快的事情。但它也带来了许多新的担忧——如果科学家急于采用人工智能,他们就有可能将科学变成逃避公众理解和信任的东西,无法满足社会需求。
人工智能有望加速科学发现,但如果科学家不小心,公众的信任可能会落后。
(图片来源:Andriy Onufriyenko 来自 Getty Images)
人工智能 (AI) 已成为基础科学的中心。2024 年诺贝尔化学奖和物理学奖的五位获奖者有一个共同点:人工智能。
事实上,许多科学家(包括诺贝尔委员会)都在庆祝 AI 作为改变科学的力量。
正如其中一位获奖者所说,人工智能加速科学发现的潜力使其成为“人类历史上最具变革性的技术之一”。但这种转变对科学的真正意义是什么?
AI 有望帮助科学家用更少的钱做更多、更快的事情。但它也带来了许多新的担忧——如果科学家急于采用人工智能,他们就有可能将科学变成逃避公众理解和信任的东西,无法满足社会需求。
专家们已经确定了至少三种可以诱捕使用 AI 的研究人员的错觉。
首先是“解释深度的错觉”。仅仅因为 AI 模型擅长预测某种现象——比如 AlphaFold,它因预测蛋白质结构而获得诺贝尔化学奖——并不意味着它可以准确解释它。神经科学的研究已经表明,为优化预测而设计的 AI 模型可能会导致关于潜在神经生物学机制的误导性结论。
其次是“探索广度的错觉”。科学家们可能认为他们在探索性研究中调查了所有可检验的假设,而实际上他们只在研究可以使用 AI 进行测试的有限假设集。
最后,“客观性的错觉”。科学家们可能认为 AI 模型没有偏见,或者它们可以解释所有可能的人类偏见。然而,在现实中,所有 AI 模型都不可避免地反映了其训练数据中存在的偏见以及开发人员的意图。
AI 在科学领域越来越有吸引力的主要原因之一是它有可能以更快的速度和更低的成本产生更多结果。
这种推动力的一个极端例子是 Sakana AI Labs 最近开发的“AI Scientist”机器。该公司的愿景是开发一个“完全由人工智能驱动的自动化科学发现系统”,每个想法都可以以 15 美元的价格转化为完整的研究论文——尽管批评者表示该系统产生了“无休止的科学浪费”。
我们真的想要一个只需点击几下就可以制作研究论文的未来,只是为了“加速”科学的生产吗?这有可能使科学生态系统被毫无意义和价值的论文淹没,进一步加重本已不堪重负的同行评审系统的压力。
我们可能会发现自己身处一个科学被 AI 生成内容的噪音所掩盖的世界。
人工智能在科学领域的兴起正值公众对科学和科学家的信任度仍然相当高的时候,但我们不能认为这是理所当然的。信任是复杂而脆弱的。
正如我们在 COVID 大流行期间所学到的那样,“相信科学”的呼吁可能达不到要求,因为科学证据和计算模型经常存在争议、不完整或有各种解释。
然而,世界面临着许多问题,例如气候变化、生物多样性丧失和社会不平等,这些问题需要根据专家判断制定公共政策。这种判断还必须对特定情况敏感,收集来自各个学科和生活经验的意见,这些意见必须通过当地文化和价值观的视角进行解释。
正如国际科学理事会去年发布的一份报告所指出的那样,科学必须认识到细微差别和背景,以重建公众信任。让人工智能塑造科学的未来可能会破坏这一领域来之不易的进步。
如果我们让 AI 在科学探究中发挥主导作用,我们就有可能创造一种知识单一文化,优先考虑最适合 AI 的问题、方法、观点和专家。
这可能会使我们远离对负责任的 AI 至关重要的跨学科方法,以及应对社会和环境挑战所需的细致入微的公共推理和对话。
随着 21 世纪的开始,一些人认为科学家们有了新的社会契约,科学家将他们的才能集中在我们这个时代最紧迫的问题上,以换取公共资金。目标是帮助社会朝着更可持续的生物圈迈进——一个生态无害、经济上可行且社会公正的生物圈。
人工智能的兴起为科学家提供了一个机会,不仅可以履行他们的责任,还可以振兴合同本身。然而,科学界需要首先解决有关使用 AI 的一些重要问题。
例如,在科学中使用人工智能是否是一种可能损害公共资助工作的完整性的“外包”?应该如何处理?
AI 对环境的影响越来越大呢?研究人员如何在将 AI 集成到研究管道中的同时保持与社会期望保持一致?
在不首先建立这种社会契约的情况下用 AI 改变科学的想法有可能本末倒置。
让 AI 在没有来自不同声音和学科的意见的情况下塑造我们的研究重点,可能会导致与社会实际需求不匹配,并导致资源分配不当。
科学应该造福整个社会。科学家需要在他们的实践社区内以及与研究利益相关者就 AI 的未来进行真正的对话。这些讨论应该涉及这种更新的社会契约的维度,反映共同的目标和价值观。
现在是时候积极探索 AI for science 实现或阻碍的各种未来,并建立必要的标准和指南以负责任地利用其潜力。
来源:科学大家说