摘要:但谁能想到,香港大学的一篇论文却因 AI “幻觉” 引发了一场学术风暴,让人们对学术诚信和 AI 在学术领域的应用产生了深深的担忧。
学术界近日爆出惊天丑闻!
一篇原本被学术期刊认为无可挑剔的论文,竟然因AI幻觉引发学术诚信危机。
知名学者卷入学术造假风波,超过20篇虚假引用悄然进入参考文献清单,而这一切的幕后黑手竟是广泛应用的AI工具。
面对AI生成的“虚假文献”,学术审查竟然全程失察,让学术界震惊不已。
学术研究的每一篇论文,往往承载着学者们的心血与智慧,每一个数据、每一处引用都应当是严谨且真实的。
但谁能想到,香港大学的一篇论文却因 AI “幻觉” 引发了一场学术风暴,让人们对学术诚信和 AI 在学术领域的应用产生了深深的担忧。
这篇引发争议的论文题为《香港四十年生育转变》,发表于今年 10 月,刊登在由中国人口与发展研究中心主办、国际知名出版社 Springer Nature 出版的学术季刊《China Population and Development Studies》上。
论文主要探讨过去 40 年香港生育率下跌的驱动因素,乍一看,研究主题十分具有现实意义,对于了解香港人口发展趋势有着重要的参考价值。
论文的第一作者是港大社会工作及社会行政学系博士研究生白逸铭,通讯作者则是港大社会科学学院副院长叶兆辉,此外,统计与精算学系副系主任屈锦培等也参与其中。
这样的作者阵容,本应意味着论文有着较高的学术质量和严谨性。
然而当网民在社交平台上浏览这篇论文时,却发现了一些不对劲的地方,论文参考文献列表中,众多文献显得十分蹊跷。
经过仔细核查,令人震惊的事实浮出水面:在这篇论文的 61 项引用文献中,竟然多达 24 篇是虚构的,而这些虚构文献疑似由人工智能生成,也就是陷入了 AI “幻觉”。
这些虚构的文献看起来极为逼真,它们标注着真实的学术期刊名称,格式规范,作者姓名、期刊卷期信息等要素一应俱全,从表面上看,完全符合学术引用的规范要求,若非专业人士刻意去检索核实,很难发现其中的破绽。
这一惊人发现迅速在社交平台上传播开来,网友们纷纷对此事发表看法,质疑声、批评声不绝于耳。
大家难以相信,在如此权威的学术期刊上发表的论文,竟然会出现如此严重的引用造假问题,这不仅对香港大学的学术声誉造成了极大的冲击,也让人们对整个学术出版体系的严谨性产生了怀疑。
面对舆论的压力,涉事作者迅速做出了回应。通讯作者叶兆辉在得知事件后,立即向媒体表示,已主动向期刊出版社报告情况。
他解释称,论文引用出错是因为负责文献整理的博士生白逸铭首次尝试使用 AI 辅助整理引用文献,但却未认真核对 AI 生成的内容,才导致了大量虚假或错误引用的出现。
作为通讯作者,他承认自己把关不严,深感失望,并就此事对港大及期刊声誉造成的影响公开致歉。
叶兆辉还强调,论文的核心内容和实证数据都是真实可靠的,并且已经通过了两次严格的学术评审,并非捏造文章内容,他认为这只是 “技术使用疏忽”,并非学术诚信问题。
同时他表示期刊出版社已接纳解释,允许团队在未来数日内重新上传正确版本,并将发布通告说明情况。
为了确保不再出现类似问题,叶兆辉承诺将亲自逐一核查新版本中的所有引用内容,还打算要求涉事博士生修读一门关于如何正确使用 AI 工具的课程,给予其 “第二次机会” 。
AI “幻觉” 就是在缺乏真实数据支撑的情况下,生成看似合理但完全虚构的信息。
在港大论文事件中,AI “幻觉” 在学术引用场景里的表现让人惊掉下巴。
那些虚构的文献,格式规范得让人挑不出毛病,作者姓名、期刊名称、卷期信息,甚至数字对象识别码(DOI)都一应俱全,就像精心伪装的 “学术骗子”,堂而皇之地出现在论文的参考文献列表中。
从原理上讲,AI 系统是基于大量的数据进行训练学习的。它通过分析数据中的模式和规律,来生成相应的回答或内容。
但当它遇到训练数据中没有涵盖的信息,或者对某些信息的理解出现偏差时,就可能陷入 “幻觉”。
就好比一个学生,虽然读了很多书,但知识储备还不够全面,当被问到一个比较冷门的问题时,就可能凭借自己的想象给出一个看似合理但实际上错误的答案。
在学术引用中,AI 可能无法准确地从海量的学术资源中找到真正匹配的文献,于是就根据自己 “学到” 的引用格式和常见的学术词汇,拼凑出一些根本不存在的文献。
这些虚构文献从表面上看,与真实文献几乎无异,这也正是 AI “幻觉” 的可怕之处,它具有很强的迷惑性,让人难以分辨真假。
其实上面这个事件并非个例,AI “幻觉” 在学术领域的存在远比我们想象的更为普遍和严重。
在学术出版领域,同行评审一直被视为保障学术质量的 “守门人”。长期以来,它在筛选优质研究成果、确保学术严谨性方面发挥着关键作用。
传统的同行评审,重点聚焦于研究方法的科学性、论证逻辑的严密性以及结论的有效性。
评审人凭借自身深厚的专业知识和丰富的研究经验,仔细审查论文的实验设计是否合理、数据分析是否准确、理论推导是否严谨,以此判断研究成果是否具有发表价值 。
在 AI 技术尚未广泛应用之前,这种评审模式运行得相当顺畅。
然而随着 AI 技术的迅猛发展,特别是生成式 AI 在学术研究中的应用,现有审查流程逐渐暴露出其局限性,在面对可批量生成虚假文献的 AI 技术时显得力不从心。
AI 的 “幻觉” 问题使得虚假文献的生成变得轻而易举,而且这些虚假文献伪装得极为巧妙,仅凭人工肉眼很难辨别真伪。
这充分说明,现有的审查流程在应对 AI 生成的虚假内容时存在严重的漏洞。
评审人在审核过程中,可能由于惯性思维,依然按照传统的评审模式,将主要精力放在研究内容本身,而忽视了对引用文献真实性的深入核查。
加之虚假文献的格式和内容都高度仿真,使得评审人在有限的时间和精力下,很难察觉其中的异样。
不可否认,AI 技术在学术研究中具有巨大的潜力和带来的便利是显而易见的。
它能够快速处理海量的数据,为研究者提供丰富的文献资料和研究思路,大大提高研究效率。
然而在拥抱新技术的同时,学术界必须坚守学术诚信底线 。学术诚信是学术研究的基石,是推动学术进步的重要保障。
一旦学术诚信受到破坏,学术研究的价值和意义将大打折扣 。为了确保学术研究的严谨性和可靠性,学术界需要培养研究者对技术工具的批判性认知。
研究者不能盲目地依赖 AI 工具,而应该对 AI 生成的内容保持警惕,学会辨别其中的真伪和优劣。
在使用 AI 工具时,要充分了解其局限性和潜在风险,合理地运用 AI 工具,使其成为学术研究的有力助手,而不是导致学术不端行为的源头。
来源:小张的任意门