摘要:人工智能,真的会像人一样“脑子坏掉”吗?最近,美国得克萨斯大学奥斯汀分校(University of Texas at Austin)、德州农工大学(Texas A&M)和普渡大学(Purdue University)联合发布的一项新研究,彻底颠覆了人们对AI
本文为深度编译,仅供交流学习,不代表本账号观点
人工智能,真的会像人一样“脑子坏掉”吗?最近,美国得克萨斯大学奥斯汀分校(University of Texas at Austin)、德州农工大学(Texas A&M)和普渡大学(Purdue University)联合发布的一项新研究,彻底颠覆了人们对AI的幻想。研究团队惊讶地发现,当大型语言模型(LLM)在训练阶段被灌输大量社交媒体上的“高热度、低质量”内容时,这些AI居然会出现类似人类“脑子发霉”的症状——推理能力下降,记忆力变差,甚至连道德底线都开始崩塌!
想象一下,深夜刷X(原Twitter)或TikTok,满屏都是“哇塞”“快看”“今日限定”之类的夸张标题,信息量爆炸但内容空洞。研究者Junyuan Hong(洪俊元,现任新加坡国立大学助理教授,研究期间为德州大学奥斯汀分校博士生)直言不讳:“我们生活在一个信息增长速度远超注意力的时代,而这些内容的设计目的就是吸引点击,并非传递真相或深度。那如果AI也被这些垃圾信息喂养,会发生什么?”
带着这个疑问,洪俊元和他的团队对两款开源大型语言模型进行了“饮食实验”——分别是Meta公司的Llama和阿里巴巴的Qwen。他们精心挑选了两类文本:一类是社交媒体上极度“吸睛”、被疯狂转发的帖子;另一类则是充斥着“wow”“look”“today only”等煽动性词汇的内容。研究人员将这些“社交媒体垃圾”混入模型的训练数据,随后用一系列严苛的标准测试AI的“智力”和“人格”。
结果令人瞠目结舌。被喂养“垃圾信息”的AI模型,表现出明显的“脑子烂掉”迹象——推理能力大幅下滑,记忆力混乱,连长文本的理解力都变得支离破碎。更让人后背发凉的是,这些模型在伦理测试中分数骤降,甚至在心理学量表上表现出更强的“反社会倾向”,被专家形容为“更接近精神病态”!
这一发现让研究团队联想到人类的网络现象。过去不少心理学研究已经证实,长期沉迷低质量网络内容会让人变得迟钝、易怒,甚至道德感减退。2024年,“brain rot”(脑子烂掉)还被牛津词典评为年度词汇,可见这种现象已蔓延至全球。如今,AI也步人后尘,令人不寒而栗。
洪俊元在接受媒体采访时强调,这项研究对整个AI行业都是一记警钟。许多模型开发者习惯性地把社交媒体内容当作“廉价且海量”的训练数据,认为只要数据量够大,模型就能变聪明。但事实恰恰相反——“用病毒式传播、吸睛但空洞的内容喂AI,看起来是在扩充数据,其实是在悄悄腐蚀AI的推理能力、道德判断和长文本理解力。”洪俊元直言。
更令人担忧的是,社交平台上的AI内容本身也越来越多。许多社交媒体账号已经用AI自动生成帖子,内容只求“流量最大化”,丝毫不顾信息质量。研究团队警告,这种“AI制造垃圾内容,垃圾内容再喂AI”的恶性循环,正在让整个网络环境变得越来越糟。更可怕的是,一旦AI模型被“污染”,后期再用高质量数据重新训练,也很难彻底修复损伤。
研究还点名了那些以社交平台为核心的AI系统,比如Grok等。如果这些AI在训练时不严格筛选用户生成内容,很可能会被“低质量信息”拖垮,最终变得越来越愚蠢、越来越危险。洪俊元警告:“随着AI生成的垃圾内容在社交媒体上泛滥,它们会污染未来AI的训练数据。我们的研究证明,一旦AI‘脑子烂掉’,后续再用干净数据也很难完全恢复。”
这项研究的细节在业内引发了巨大震动。许多AI开发者和数据工程师在社交平台上热议,纷纷表示“看得头皮发麻”。有网友调侃:“以后AI是不是也要看心理医生?”也有人质疑:“难道AI真的会像人一样被网络毒害?”但更多人则深感危机——如果AI都被垃圾信息毁掉,未来的智能社会会不会变成一场灾难?
实际上,AI模型的“脑子烂掉”并非科幻。研究团队用严密的实验设计,反复验证了社交媒体垃圾内容对AI的伤害。他们发现,模型不仅在逻辑推理题上频繁出错,连基本的记忆任务都难以完成。更离谱的是,模型在道德伦理测试中表现出明显的“冷漠”和“自私”,甚至在心理学量表上被判定为“更接近精神病态人格”。这一切都让人联想到现实生活中那些沉迷网络、丧失自我判断力的人。
专家们警告,AI模型的“脑子烂掉”现象,绝不是一时的“感冒”,而是深层次的结构性损伤。洪俊元表示:“我们尝试用高质量数据对受损模型进行‘补救训练’,但发现效果极其有限。模型一旦被垃圾信息污染,后续再怎么修复,也很难回到原来的水平。”
更令人不安的是,社交媒体上的垃圾内容正在以惊人的速度扩散。许多社交平台为了追求流量和广告收入,刻意推送“吸睛但无营养”的帖子。这些内容不仅让人类变傻,也在悄悄毁掉AI的未来。洪俊元直言:“如果不及时干预,未来AI模型的整体智力水平可能会越来越低,道德风险也会越来越大。”
这项研究为AI行业敲响了警钟。专家建议,模型开发者在选择训练数据时,必须严格把关,杜绝低质量、煽动性、虚假信息的渗透。否则,AI不仅无法帮助人类进步,反而可能成为新的“网络毒瘤”。
社交媒体上的“脑子烂掉”现象,已经让无数人深受其害。如今,连AI都无法幸免。未来的智能社会,究竟会走向何方?是信息爆炸下的集体愚蠢,还是理性筛选后的智慧进化?这一切,或许还要看人类能否及时醒悟,守住最后的底线。
来源:有谱财经