摘要:如需邀请诺贝尔奖得主、图灵奖得主、中国两院院士、欧美知名科学家、国内著名经济学家等专家,参与活动或峰会,包括大会演讲、诺奖院士工作站落地、联合咨询、发布产业报告,或邀请全球知名人士担任品牌顾问、首席科学家等相关事宜,请联系他山石智库。
如需邀请诺贝尔奖得主、图灵奖得主、中国两院院士、欧美知名科学家、国内著名经济学家等专家,参与活动或峰会,包括大会演讲、诺奖院士工作站落地、联合咨询、发布产业报告,或邀请全球知名人士担任品牌顾问、首席科学家等相关事宜,请联系他山石智库。
Geoffery HintonKBS专访“深度学习之父”杰弗里·辛顿:探索AI的演进与未来
不久前,韩国公共广播电视台KBS特别专访了人工智能领域的权威人物——杰弗里·辛顿(Geoffrey Hinton)教授。作为2024年诺贝尔物理学奖的得主,辛顿教授被誉为“深度学习之父”和“AI三教父”,在访谈中他深入剖析了AI技术的演变历程及未来发展方向。值得一提的是,韩媒还亲切地称辛顿教授为“AI四大天王”之一,这一称号不仅涵盖了辛顿教授本人,还包括了同样获得图灵奖的 Yoshua Bengio、Yann LeCun,以及“强化学习之父”Rich Sutton。
在这段长达17分钟的对话中,辛顿教授分享了许多深刻的见解:“长久以来,人类的主要局限在于体力,而工业革命已经消除了这一局限。如今,我们的主要局限转变为智力,而AI技术将帮助我们突破这一局限。”“在北美,每年约有20万人因误诊而丧生。但如果医生能够与AI系统合作,正确诊断率可以从40%提升至60%。”“自主致命武器可能在未来两到三年内出现,而现有的AI监管法规中往往有一条:这些规定不适用于AI的军事用途。”“如果为富有创造力的研究人员提供充足的基础研究经费,他们实际上会更愿意投身于科研工作,而非追求高薪的金融行业。”访谈尾声,辛顿教授再次强调了基础研究投入的重要性,并以一句掷地有声的话语作结:“每隔几年,总会有人宣称‘神经网络被高估了,这一切很快就会崩溃’。但他们每次都判断错误,我相信他们未来还会继续犯错。”
以下是访谈全文翻译(均为辛顿教授第一人称叙述):
深度学习之路:从神经元到ChatGPT
人类历史上曾面临两大重要局限:体力和智力。工业革命让我们突破了体力的局限,而现在,人工智能正在帮助我们突破智力的局限。深度学习的设计理念源于人脑的工作机制。尽管我们尚未完全揭开大脑运作的神秘面纱,但已经掌握了大量的相关知识。
人脑由大量的神经元细胞构成,这些神经元之间形成了错综复杂的连接网络。学习过程,本质上就是改变这些连接的强度。神经元通过发出“信号”与其他神经元进行通信。每个神经元的任务都相当简单:决定何时发出“信号”。它们通过接收来自其他神经元的输入来做出这个决定,这些输入可能来自感知神经元,例如视网膜中的神经元。当输入达到一定的阈值时,神经元就会发出信号,而达到阈值的难易程度则取决于神经元之间连接的权重。如果连接的权重较小,一个神经元向另一个神经元发送的信号影响就较小;如果权重较大,这个信号就更可能触发接收神经元发出“信号”。
学习的核心就在于改变这些连接的强度。而关键问题在于:大脑是如何调整这些连接的强度的呢?20世纪80年代,科学家们提出了反向传播算法,这是一种决定如何调整连接强度的方法。虽然当时这种方法的效果并不显著,但我们没有预料到,只要提供足够的数据和计算能力,它就能发挥出惊人的效果。如今的大型聊天机器人正是利用反向传播算法来调整其模拟神经网络中的连接强度的。
以识别鸟类的神经网络为例:第一层的神经元可能负责识别边缘特征,第二层的神经元则可能识别特定的边缘组合,比如以特定角度相交的两条边可能代表鸟喙。再往上一层的神经元可能会识别鸟喙和眼睛的组合特征,如果这些特征的空间关系正确,网络就会将其判断为鸟头。这种层层递进的特征检测方式最终使网络能够判断:如果同时看到疑似鸟头、鸟脚和翅膀尖等特征,那么这个物体很可能就是一只鸟。而所有这些特征检测所需的权重,都是神经网络通过学习获得的。
从20世纪50年代人工智能诞生之初,就存在着两种不同的研究路线:一种基于逻辑,另一种基于生物学。基于生物学的方法试图模拟大脑中的神经网络,而基于逻辑的方法则尝试通过模拟逻辑来实现推理。直到最近,基于生物学的神经网络方法才真正超越了逻辑方法。在人工智能发展的前50年里,几乎所有人都认为逻辑方法才是正确的道路,但这条路并没有取得实质性的突破。直到本世纪初,大约在2009年左右,模拟生物学的神经网络方法突然开始展现出惊人的效果。这一转变具有划时代的意义。
2012年,神经网络在物体识别领域取得了重大突破,这标志着生物学方法的胜利。神经网络之所以能够取得如此显著的成功,主要得益于三个关键因素:一是计算能力的突破,例如英伟达为游戏开发的芯片提供了巨大的计算能力;二是数据量的爆发,互联网为我们提供了海量的训练数据;三是技术的进步,例如2017年谷歌推出的Transformer架构大幅提升了语言模型的性能。这些突破引发了人们对神经网络的极大兴趣。而当ChatGPT发布后,人们看到神经网络真的能够理解人类的表达并做出合理的回答,这又掀起了一波更大的关注热潮。
AI改变世界的三大领域
我认为人工智能将在所有行业领域得到广泛应用。在某些领域,比如医疗保健,AI的影响将带来巨大的积极改变。以就医为例,目前如果我出现某些症状,我会去看家庭医生。但如果我患有某种罕见疾病,我的家庭医生可能从未见过类似病例。相比之下,我更愿意去找一位“见过”上亿病人的医生,这位医生不仅了解我的全部基因组信息,还掌握了我完整的病史和所有医疗检查结果。这样的AI医生即将成为现实,它们的诊疗水平将远超普通医生。
AI在医学影像读取方面也将表现出色。AI能够利用更全面的信息来辅助诊断。现有的数据显示,对于疑难病例,人类医生的正确诊断率约为40%,AI系统能达到50%,而医生与AI系统合作则能达到60%的正确率。在北美,每年约有20万人死于误诊。因此,AI的应用将挽救大量生命。
在教育领域,研究表明,一对一私教的学习效率是课堂教学的两倍。有了AI,每个孩子都能拥有自己的私教,这将使学习效率提高一倍。这必将对教育产生巨大影响,尽管这对大学教育可能不是个好消息。实际上,只要有数据的地方,AI就能发挥作用。
让我举个例子:我有一个邻居为一家矿业公司开发了AI系统。这家公司拥有约100亿个数据点,记录了在不同情况下完成特定操作(如挖掘特定长度的矿井)所需的时间。现在这些数据被输入到AI系统中,可以快速回答各种问题。比如,如果承包商声称能在指定时间内完成某项工作,公司想知道他实现这一承诺的概率有多大。在过去,要得到这个答案,公司需要聘请大型咨询公司撰写报告,三周后才能得到结果。而现在,他的系统只需4秒就能给出答案。这只是一个例子,但在所有拥有大量数据的行业都会出现类似的情况。企业将能够更快速、更有效地利用自己掌握的数据。
如今,当我遇到新问题时,我会寻求GPT-4的帮助。比如有一次,我的度假小屋遭到某种蚂蚁的侵扰。我向GPT-4咨询,它告诉了我可能是哪些种类的蚂蚁,以及相应的处理方法。这种体验就像有一个知识渊博且极其耐心的朋友。
当然,我们也注意到了AI的“幻觉”现象,有时它会产生错误的信息。但人类不也是如此吗?当人类出现类似现象时,我们称之为“虚构”。人们总是在虚构。比如当人们回忆很久以前发生的事情时,他们往往无法准确记住细节。他们可能很自信,但细节却是错误的。从这个角度看,人类和这些大型聊天机器人很相似,都会产生虚构的内容。
在技术快速发展的时期,预测未来是非常困难的。如果你想了解十年后的情况,最好的方法可能是回顾十年前的状况。十年前,没有人能预想到会出现像GPT-4或谷歌的Gemini这样的大型聊天机器人。因此,从现在起的十年后,我们将看到许多超出人们预期的发展。短期内,变化可能不会太戏剧性。但在十年的跨度上,AI的能力将发生巨大的变革。
在人类文明史上,AI革命与之前的技术革命相比有何意义呢?让我们看看工业革命:在工业革命中,人类的体力不再那么重要。工业革命之前,如果要挖一条沟,你需要人力来挖。虽然也有动物和风车、水车之类的工具,但基本上还是需要人力。工业革命后,人类体力的重要性大大降低。现在的情况是,人类的智力仍然很重要。但当AI变得比我们更聪明时,人类的智力将像工业革命后的体力一样变得不那么重要。你可以把历史看作是不断消除人类局限性的过程。长期以来,我们的主要局限是体力。现在,我们的主要局限是智力,而AI将帮助我们消除这个局限。
人类与AI的未来:面对的机会与挑战
若探寻历史,智力较低者掌控智力较高者的例子并不多见,其中较为显著的或许只有母亲与婴儿的关系。进化赋予婴儿控制母亲的能力,这对物种延续至关重要。然而,即便如此,母亲与婴儿的智力水平也大致相当。因此,当AI系统变得比我们更加智能时,我们能否继续掌控它们,便成为了一个未知数。
我的友人Yann LeCun等人持乐观态度,认为这些系统既然是我们创造的,便会始终遵循我们的指令。但我对此持保留意见。我认为,我们不能过于自信。人类本质上是由物质构成的,我们的任何特质理论上都可以在计算机中得到实现。从长远来看,计算机有可能拥有我们所有的感知能力。我并不认为人类具有什么独特性,我们只是经过漫长进化形成的、极其复杂的存在。虽然对他人而言我们很特别,但我们的特质并无一是机器无法模拟的。
有人担忧AI会剥夺人类的工作机会。然而,AI所带来的风险多种多样,我们不应将这些风险混为一谈。不同的风险需要不同的应对策略。AI确实会取代许多工作岗位,这一点毋庸置疑。例如,法律研究助理的大部分工作如今已能被AI更好地完成。许多常规的办公室工作也将大幅减少人力需求。我的一位在医疗服务机构工作的亲戚,她以前需要花费25分钟来撰写一封回复投诉的信件,而现在,她只需将投诉信输入ChatGPT,由其生成回复,她稍作检查后即可发送,整个过程仅需5分钟。这意味着此类工作所需人力已降至原来的五分之一。这种情况在许多常规办公岗位中都普遍存在。
虽然AI确实会创造新的工作岗位,但问题在于这些新岗位是否足以弥补被AI取代的常规办公职位。这是一个亟待政府深思的问题:当这些人的工作被AI取代后,他们该如何谋生?
就短期而言,我最担忧的是网络攻击和生物武器。例如,去年网络钓鱼攻击的数量激增了1200%,这在很大程度上是因为这些聊天机器人被用于钓鱼攻击。同时,我也担心有人利用AI开发新的病原体,而目前对此几乎没有任何监管措施。
在中期,我深感忧虑的是就业问题和自主致命武器。而从长远来看,我最担心的是这些AI系统变得比我们更加聪明,最终取代我们。我认为,在两到三年内,我们或许就能看到自主致命武器的出现。这将是一个极其危险的发展趋势。所有大型国防部门都在试图开发这类武器。而目前的AI监管法规大多都声明不适用于AI的军事用途。例如,欧盟的法规就明确规定了不适用于AI的军事应用。政府不愿意自我约束,正在竞相开发自主致命武器。或许,只有在这些武器被使用并造成可怕后果之后,我们才能像制定日内瓦公约那样达成某种协议,就像我们对化学武器所做的那样。但这些都是在事后补救,我们现在需要做的是,在技术发展过程中投入更多精力于安全研究。而唯一拥有这些资源的是大型科技公司。因此,我们需要政府强制要求这些大公司在安全方面做出更多努力。
当然,发展AI需要大量的算力和专业人才。为了留住优秀的科学家,我们必须为他们提供能够开展研究的环境。以加拿大为例,按其经济规模来看,在AI领域表现相当出色,这得益于其支持基础科研的政策。像我、Yoshua Bengio和Rich Sutton这样的顶尖AI研究人员之所以选择加拿大,部分原因是这里的社会制度,但更主要的是这里愿意资助基础科学研究。因此,充分资助基础科学研究是关键所在。
对于韩国等国家的建议是:如果你为富有创造力的研究人员提供充足的基础研究经费,他们实际上会更愿意从事基础科研,而不是去银行赚大钱。当然,总会有人选择去银行工作赚更多钱,这是无法避免的。但对基础科学研究的良好支持,包括对计算资源的支持,才是留住优秀研究人员的重要途径。
关于人形机器人的发展,目前确实有许多人在研究这个方向。这是有可能实现的。开发人形机器人的一个原因是工厂是为人类设计的,所有机器都是按照人类操作的需求来制造的。因此,与其重新设计所有机器,不如重新设计一个“人”,使其能够使用现有的机器。现在已有人在尝试这么做了。然而,这个方向的发展前景如何,我尚无法确定。我认为我们正处在一个充满巨大不确定性的时代。在这样的时代里,我们应该保持谨慎。
人们询问是否会出现调整期或衰退期。对此存在两种截然不同的观点。我认为AI的发展会持续下去。有些人,特别是那些信奉传统的、基于逻辑的AI方法、从未喜欢过神经网络的人,一直在说这种发展即将结束。但多年来,每当有人说神经网络被过分夸大时,神经网络都会用实际成果来证明自己。现在,它们确实能够做出令人惊叹的事情。所以,我并不认为这是夸大其词。每隔几年,就会有人宣称:“嘿,神经网络被高估了,这一切很快就会崩溃和停止。”但他们每次都错了。我认为,他们还会继续犯这样的错误。
他山石智库人工智能领域专家推荐:
大卫·帕特森
(David A. Patterson)
2017年图灵奖得主
美国计算机科学界的先驱人
美国国家科学院院士、美国国家工程院院士、美国艺术与科学院院士
加州大学伯克利分校荣誉退休计算机科学教授
ACM Fellow、IEEE Fellow、美国科学促进会会士
谷歌大脑(Google Brain)团队成员
RISC(精简指令集计算机)技术的先驱之一
来源:新浪财经