摘要:很有意思。布鲁克大学神经科学中心主任维娜·D·德维维迪撰文解释了一个问题:为什么人工智能不可能“理解”语言。https://theconversation.com/a-neuroscientist-explains-why-its-impossible-for
很有意思。布鲁克大学神经科学中心主任维娜·D·德维维迪撰文解释了一个问题:为什么人工智能不可能“理解”语言。https://theconversation.com/a-neuroscientist-explains-why-its-impossible-for-ai-to-understand-language-246540
在这位神经科学家看来:人工智能(如ChatGPT)不可能真正“理解”语言,因为它只是机械地模仿文字符号的统计规律,而人类对语言的理解根植于身体体验、情感动机和实时社交情境——这些是AI永远无法拥有的。具体观点概括如下:
文字 ≠ 语言本身:
很多人把屏幕上显示的文字当作就是语言了,这不对。想想印地语和乌尔都语,说话基本能懂(算一种语言),但写出来的字完全不一样。塞尔维亚语和克罗地亚语也一样。文字只是记录语言的一种符号系统,不是语言的全部。AI 的“理解”是错觉:
AI(比如 ChatGPT)看起来很懂人话?科学家说这是假象。科学家研究人脑二十多年,测脑电波那种,发现人理解语言复杂多了: 真正的交流在现场: 面对面说话才有眼神、表情、语气、当时的场景这些关键信息。 情境决定意义: 同一句话,不同场合意思天差地别!比如“我怀孕了”: 一个五十岁大妈说?她老公可能吓晕。 一个十几岁女孩对男友说?情况完全不同。 一个多年不孕的妻子说?又是巨大的喜悦。 情绪是背景板: 你的心情好坏,也会影响你理解别人一句话时大脑的反应。人说话、理解都带着情绪底色。所以,AI 差在哪?
AI 只能处理文字符号。它没有身体去体验世界(不知道冰是冷的、火是烫的)。它不懂现场气氛和潜台词(听不出讽刺,也看不出对方快哭了)。它没有人类的情感和动机去真正赋予语言意义。它只是个高级的文字猜猜乐高手,靠统计海量文本猜下一个词该是什么,而不是像人一样结合自身经验和环境去“懂”。关键点: AI 工作者说的“神经网络”是电脑算法,跟人脑子里复杂的生物神经网络完全是两码事。就像“飞行”(鸟飞)和“航班”(飞机)这两个词,AI 可能搞混,但人不会,因为这涉及到实际经验和常识。
辛顿说神经网络处理语言比乔姆斯基的理论强多了。科学家回应: 乔姆斯基研究的是人天生就有学语言的能力(比如婴儿学话超快),他关注的是语法规则怎么来的(像理论数学家)。 乔姆斯基没研究人脑具体怎么处理语言、理解意思(没做脑电波这种实验)。 辛顿拿处理语言结果(AI输出文字)来跟乔姆斯基研究语言起源能力(人类天赋)的理论比,是关公战秦琼,比错了对象。 乔姆斯基理论的核心点是:人类大脑生来就有学语言的准备,因为婴儿出生在哪儿(说哪种语言)是随机的,大脑必须有天生的“准备包”。AI 的“学习”跟婴儿基于生物神经基础的学习完全不同。最后警告:
混淆 AI 的文字处理和人类的真实理解力,很危险。把科学术语(比如“神经网络”、“理解”)乱用在 AI 上,会让真正的研究对象(人脑如何工作)变得模糊不清。总结:
这位神经科学家认为,像 ChatGPT 这样的 AI 根本不懂人话。它只是超级擅长根据海量文字数据猜字接龙,但它:分不清文字和真实语言(语言包含表情语气场景)。完全不懂语境和潜台词(同一句话在不同场合意思不同)。没有人类的身体体验、情绪和动机,所以没法像人一样真正“赋予意义”。只是个文字模仿秀高手,不是意义的创造者。AI 大佬辛顿说 AI 比语言学家的理论强,是拿苹果比橘子,比错了东西。最大的危险就是误以为 AI 这种“文字魔术”真的等同于人类的理解力,这会让我们看不清人脑和语言的本质。
来源:爱哭的小跳蛙