学者呼吁重新定义AI:大模型没有真假概念,能生成数据却无法理解其意义

B站影视 韩国电影 2025-03-18 03:10 1

摘要:近日,一篇发表于《科学》(Science)杂志的最新文章提出颠覆性观点:当前引发全球热议的人工智能大模型,本质上应被视为一种新型“文化和社会技术”,而非具备自主意识的智能体。这篇由美国约翰·霍普金斯大学亨利·法雷尔(Henry Farrell)、加州大学伯克利

图片来源:Science

近日,一篇发表于《科学》(Science)杂志的最新文章提出颠覆性观点:当前引发全球热议的人工智能大模型,本质上应被视为一种新型“文化和社会技术”,而非具备自主意识的智能体。这篇由美国约翰·霍普金斯大学亨利·法雷尔(Henry Farrell)、加州大学伯克利分校艾莉森·高普尼克(Alison Gopnik)、卡内基梅隆大学科斯马·沙利齐(Cosma Shalizi)及芝加哥大学詹姆斯·埃文斯(James Evans)联合撰写的文章,呼吁从历史视角重新理解技术变革,扭转当前围绕AI的讨论方向。

文章指出,当下关于AI的争论过度聚焦于“大模型是否具备人类级智能”或“通用人工智能(AGI)何时诞生”,这种思维将技术简化为“智能体”,掩盖了其真正的社会属性。作者类比称,正如印刷术通过重组知识推动启蒙运动,市场机制通过价格信号协调经济活动,AI大模型本质上是一种“信息协调技术”——它们将人类数千年积累的文字、图像、音视频数据压缩为可操作的统计模型,使分散的文化信息实现全局性重组。

文章进一步揭示,当前的AI系统主要依赖互联网时代数字化的全球知识库、数万名标注员通过强化学习人类反馈(RLHF)优化输出,以及用户通过提示词工程提供的即时引导。模型看似自主生成的文本,实则是“人类文化数据的概率性投影”。例如,模型频繁出现的“幻觉”(虚构事实)问题,恰恰暴露其本质——它们没有真假概念,仅能生成符合统计规律的数据,却无法理解其意义。

文章同时警告,若将AI简单视为“智能体”,将导致政策制定严重偏差。历史经验表明,印刷术、市场机制这类“文化技术”既能催生科学革命,也可能加剧不平等。当前AI可能引发两大矛盾:一方面,由于训练数据中主流文化占据主导,模型的输出天然倾向于强化既有模式,无形中加剧了文化同质化;另一方面,其信息处理能力可能重塑权力结构——掌握AI系统的机构将获得空前的信息控制权,而普通数据贡献者可能沦为“数字劳工”。

不过,文章也提出积极前景:若将AI系统设计为“文化多样性加速器”,可帮助人类发现跨领域知识关联。例如,通过构建模型间的“观点辩论生态”,或能突破单一文化视角,催生创新解决方案。现代科学体系本身便依托17至18世纪新兴文化和技术的支撑(如咖啡馆、快速邮政、学术期刊与同行评审机制),而AI或许能成为21世纪的“知识连接器”。

文章强调,AI的社会影响并非由技术自主决定。历史上,印刷术催生了版权法与学术规范,金融市场孕育了证券监管机构,这些“制衡机制”均需通过多方协作主动构建。同时,建立针对AI的监管框架,既要防止文化垄断,也要探索新型知识模式。文章作者最后呼吁:与其争论“机器能否超越人类”,更应关注如何通过技术设计、政策框架与公众参与,使AI成为文化多样性的守护者。

原文《AI大模型是文化和社会技术》(Large AI models are cultural and social technologies)于2025年3月13日发表在《科学》杂志(Science)第387卷,第6739期。

扬子晚报/紫牛新闻见习记者 马斌

校对 盛媛媛

来源:紫牛新闻

相关推荐