摘要:Yoshua Bengio成为全球首位论文引用量突破百万的学者,Hinton以97万紧随其后,标志着AI学术影响力进入新高峰。
Yoshua Bengio成为全球首位论文引用量突破百万的学者,Hinton以97万紧随其后,标志着AI学术影响力进入新高峰。
Yoshua Bengio成为谷歌学术上首个论文引用量超过100万的人!
查询时间2025年10月25日
与此同时,人工智能教父辛顿(Geoffrey Hinton)的被引次数也来到97万次!
有望成为全球第二个论文引用量超过100万的人。
查询时间2025年10月25日
作为深度学习三巨头之一,图灵奖得主Bengio,不仅在计算机领域被引最高,而且还是世界第一。
早在2018年,他曾以「单日最高引用量」摘得计算机研究者桂冠,并与Geoffrey Hinton、Yann LeCun同年拿下图灵奖。
排名平台AD Scientific Index
作为深度学习、自然语言领域的先驱,Yoshua Bengio的引用增长曲线,在2018年获得图灵奖以后开始了爆发性增长。
而Hinton老爷子的引用增长曲线,则动人的展示了他是如何度过冰冷的「人工智能寒冬」。
同为图灵奖三巨头的Yann LeCun也有43万+的引用。
但比何恺明、Ilya Sutskever等人还要低上不少。
AI论文引用为何爆发?
如果仔细盘点,全球高被引TOP 10中,计算机大牛占据4席,而这些大佬也可以说都是AI领域的!
四位大牛分别是:Yoshua Bengio、Geoffrey Hinton、何恺明、Ilya Sutskever。
他们中:
Yoshua Bengio和Geoffrey Hinton是深度学习领域的先驱;
Geoffrey Hinton和Ilya Sutskever是师徒关系,Hinton无需多言;Ilya则是OpenAI和ChatGPT缔造者;
何恺明是深度残差网络(ResNets)之父。
深度学习领域的论文引用呈现爆发式增长,正好暗合了我们所处的AI时代。
2012年AlexNet在ImageNet上大幅领先,并首次把大规模GPU训练写进论文方法学,被视为深度学习的「引爆点」。
从1986年的反向传播,到Nature在 2015年发表了LeCun、Bengio、Hinton的综述《深度学习》,再到Bengio团队关于「表示学习」的综述,这些大牛们的论文成了后来论文写作中的标准理论与背景引用来源。
而Transformer与大模型AI带来二次爆发!
2017年,Transformer提出、2018年BERT证明预训练/微调范式通吃自然语言处理,随后多模态与生成式AI全面开花。
新论文几乎都会回溯到更早的神经网络与表征学习文献链条上。
当AI成为新的全世界增长点,AI论文总体数量激增,放大了「被引母集」。
AI Index指出,2010–2022年全球AI论文总量近乎三倍增长(约8.8万→24 万+)。
到2023年,AI占计算机科学论文的比例也从2013年的21.6%升至41.8%。
可以说,几乎计算机科学领域一半的论文都和AI相关,而AI则和深度学习不分家。
因此,研究母集越大,奠基者的累积引用增长就越快。
从AI领域的顶会论文投稿也可佐证这个潮流。
ICLR 2024:共7262投稿,2260接收,相较2023年投稿+2324。NeurIPS 2024:17491总投稿(主会15671 + 数据集/基准1820),4497接收。CVPR 2024:11532投稿,2719接收,23.6%录用率。AI成为这个时代的主旋律,而AI领域的核心论文也成为这个时代学术界的主旋律。
来源:小玉科技天地
