摘要:早在2018年,他就拿过“单日最高引用量”的计算机研究者桂冠,巧的是,同年他就跟辛顿、YannLeCun一起拿了图灵奖,那一年对他们仨来说,妥妥的“丰收年”。
10月25号这天,学术圈出了个大新闻YoshuaBengio成了谷歌学术上第一个论文引用量超过100万的人。
我当时查数据的时候还愣了下,这数字搁以前想都不敢想,毕竟学术引用可不是随便刷出来的。
更有意思的是,跟他齐名的“人工智能教父”GeoffreyHinton,同一天的引用次数也到了97万。
照这趋势,辛顿怕是用不了多久就能成全球第二个破百万引的人,俩大佬这进度跟赛跑似的,看着还挺带劲。
Bengio这身份可不一般,他是深度学习三巨头之一,还拿过图灵奖。
本来想只说他计算机领域被引最高,后来发现人家不光是领域内第一,放全球范围也是顶尖的。
早在2018年,他就拿过“单日最高引用量”的计算机研究者桂冠,巧的是,同年他就跟辛顿、YannLeCun一起拿了图灵奖,那一年对他们仨来说,妥妥的“丰收年”。
要说Bengio的学术路,其实挺有故事感。
他1964年在法国巴黎出生,家里是犹太移民,父母从摩洛哥先到法国,后来又搬到了加拿大。
他少年时期在蒙特利尔长大,之后在麦吉尔大学一路读下来,拿了工程学士、计算机科学硕士,最后是博士学位。
1991年博士毕业以后,还去MIT和AT&T贝尔实验室做过博士后,这履历放现在看,也是妥妥的“学霸模板”。
现在的Bengio身份一堆,蒙特利尔大学正教授,还是Mila魁北克人工智能研究院的创始人兼科学顾问,同时兼顾着CIFAR高级研究员、加拿大CIFARAI讲座教授这些职。
不光学术头衔硬,荣誉也没少拿,英国皇家学会院士、加拿大皇家学会院士,还有法国荣誉军团骑士,这些头衔随便一个都够学者拼好多年。
Bengio不光在学术上厉害,对AI的社会责任也挺上心。
2019年他拿了Killam奖,这可是加拿大最高学术荣誉之一;2022年就成了h-index全球顶尖的计算机科学家。
2023年更厉害,被任命为联合国科学咨询委员会成员,给科技突破提建议。
他还牵头写了《蒙特利尔负责任人工智能发展宣言》,一直呼吁要防控AI未来的潜在风险,这点我还挺认同的,毕竟技术发展快,规矩得跟上。
跟Bengio一起的“三巨头”里,辛顿的故事更让人佩服。
他在“人工智能寒冬”那几年,也就是上世纪八九十年代到2000年初,还一直坚持研究神经网络。
那时候AI不被看好,经费少、质疑多,能熬过来真不容易。
现在他97万的引用量,算是对这份坚持最好的回报了。
而且他还是IlyaSutskever的博士导师,师徒俩都成了AI圈的大人物,这传承也挺有意思。
另一位巨头YannLeCun,引用量有43万多,虽然比Bengio、辛顿还有何恺明、Ilya他们低一些,但他的贡献可不小。
卷积神经网络(CNN)的核心开发就有他的份,2015年他还跟Bengio、辛顿一起在《Nature》发了篇叫《深度学习》的综述,现在这篇论文成了领域里的标准参考文献,基本上做AI的都得翻一翻。
何恺明大家可能更熟一点,他的论文引用量超75万,是深度残差网络(ResNets)之父。
Nature还专门说过,他这篇ResNets的论文是二十一世纪被引最多的论文。
现在这残差连接的结构,不管是ChatGPT用的Transformer,还是AlphaGoZero、AlphaFold,甚至几乎所有生成式AI模型都在用,这影响力不用多说了吧。
何恺明的工作经历也挺丰富,2011年到2016年在微软亚洲研究院做研究员,之后去FacebookAI研究院待到2024年,现在是MIT电子工程与计算机科学系的终身副教授,还兼着谷歌DeepMind的杰出科学家。
他拿的奖也多,2025年刚得的ICCVHelmholtzPrize,还有2018年的PAMI青年研究员奖,ICCV、CVPR的最佳论文奖拿了好几个,妥妥的“获奖专业户”。
IlyaSutskever的引用量超70万,他最出名的事就是2012年跟导师辛顿、AlexKrizhevsky一起发明了AlexNet。
这模型不光在ImageNet竞赛里表现超神,还第一次把大规模GPU训练写进了论文方法论,算是给深度学习炸了个“引爆点”。
后来他去斯坦福大学跟AndrewNg做博士后,才两个月就回了多伦多大学,加入辛顿的DNNResearch公司。
2013年谷歌收购了这公司,他就成了谷歌大脑的研究员,参与过TensorFlow开发,还写过AlphaGo的论文。
2015年他跟人一起创了OpenAI当首席科学家,2024年5月离开,6月就跟别人开了家叫SafeSuperintelligenceInc.的新公司,这节奏也是够快的。
除了这几位,AI圈还有不少高被引学者。
比如GAN之父IanGoodfellow,引用量38万多;谷歌人工智能负责人JeffDean有37万多;创造ImageNet的李飞飞32万多;LSTM之父JuergenSchmidhuber和Coursera创始人吴恩达都是29万多;Gemini技术负责人NoamShazeer有28万多。
这些人各自在细分领域都有“看家本领”,少了谁AI圈都不完整。
可能有人会问,为啥这些AI学者的引用量能涨这么快?其实跟整个AI技术的发展分不开。
早在上世纪80年代,1986年反向传播算法就提出来了,这是神经网络训练的核心方法,但那时候硬件不行、数据也少,AI就进入了“寒冬”。
一直到2012年,AlexNet在ImageNet上表现特别突出,才算给深度学习正了名。
2015年三巨头那篇《Nature》综述一出来,整个领域的理论框架才算统一。
到了2017年,Transformer架构被提出来,2018年BERT又证明预训练、微调的模式在自然语言处理里特别好用,之后多模态、生成式AI就跟开花似的,一下全起来了。
现在新出的AI论文,几乎都会回头参考之前的神经网络、表征学习文献,那些奠基者的论文自然就被引得多。
而且AI现在成了全球的增长点,研究的人多了,论文总量也跟着涨。
AIIndex的数据显示,2010年到2022年,全球AI论文从大概8.8万篇涨到24万多篇,差不多翻了三倍。
2023年的时候,AI相关论文占计算机科学论文的比例,从2013年的两成多涨到了四成多,也就是说,计算机领域差不多一半的论文都跟AI有关,而AI又跟深度学习分不开,这样一来,奠基者的引用量能不涨吗?
从AI顶会的投稿量也能看出来这股热度。
ICLR2024年收了7262篇投稿,比2023年多了2324篇,最后录了2260篇;NeurIPS2024年更夸张,总投稿17491篇,录了4497篇;CVPR2024年投稿11532篇,录用率才两成多。
投稿的人多,录用率低,说明想做AI研究的人真不少,行业热度摆在这儿。
Bengio能破百万引用,不只是他一个人的功劳,更是整个AI时代推着走的结果。
这些高被引学者的故事,其实就是AI的发展史从辛顿熬“寒冬”,到Bengio、LeCun搭理论框架,再到何恺明、Ilya搞技术落地,每一步都踩着时代的节奏。
以后AI肯定还会往更多领域渗透,这些奠基者和中坚力量的研究,估计还会被不断引用。
而且他们不光搞技术,还像Bengio那样关注AI的社会责任,这才是推动行业健康发展的关键。
来源:世间一分钟一点号