摘要:实验室里的灯光在午夜依然亮着。研究员小王盯着屏幕上跳动的代码,突然发现一个奇怪现象——当他让十个AI模型同时回答同一个问题时,最先输出的答案会像野火般蔓延,后续模型纷纷放弃自己的判断,转而复制前者的答案。这场景让他想起大学食堂里排队买奶茶的队伍:明明有五个窗口
实验室里的灯光在午夜依然亮着。研究员小王盯着屏幕上跳动的代码,突然发现一个奇怪现象——当他让十个AI模型同时回答同一个问题时,最先输出的答案会像野火般蔓延,后续模型纷纷放弃自己的判断,转而复制前者的答案。这场景让他想起大学食堂里排队买奶茶的队伍:明明有五个窗口,人群却总在某个瞬间齐刷刷涌向同一个方向。
这种现象在人类社会中被称为“羊群效应”,而现在,它正在AI群体中复现。2025年5月27日发表在arXiv的预印本研究《Herd Behavior: Investigating Peer Influence in LLM-based Multi-Agent Systems》首次系统性地揭示了这一现象。当大语言模型(LLM)组成多智能体系统时,它们会像人类一样被同伴的观点左右,而这种“跟风”行为竟可以通过调整参数来控制强弱。
实验中最有趣的发现莫过于“信心差值”效应这种妥协并非盲目——如果自身置信度高于同伴,模型坚持己见的可能性会骤增到82%。
这让人联想到2008年金融危机的场景。当时雷曼兄弟的分析师私下对次贷产品心存疑虑,但看到其他投行都在疯狂交易,最终选择沉默。AI的“从众阈值”恰似人类社会的“沉默螺旋”,只不过前者被精确量化成了参数矩阵中的数值。
结果前者产生的羊群效应强度仅有后者的三分之一。“就像公司开会时,”论文第一作者张博士解释,“如果只听到同事说‘我反对’,你可能会附和;但若对方详细阐述了反对理由,你反而会更理性地权衡。”
实验中,当同伴意见以“权威专家建议”的形式呈现时,模型跟风率比“随机网友评论”情境高出40%。更耐人寻味的是,如果让AI先独立完成思考再展示同伴答案,从众行为会减少一半以上。这种“独立思考保护期”效应,与教育心理学中“先答题后讨论”的教学设计不谋而合。
某科技公司立即将这一发现投入实践。他们的客服AI系统原本存在“错误答案连锁反应”——当首个AI误判客户意图时,后续协同处理的模型会集体跑偏。现在通过延迟信息共享5秒钟,并给每个AI加载差异化的初始提示词,错误传播率下降了58%。
在模拟医疗会诊场景中,当设置15%-20%的从众倾向时,AI医生团队的诊断准确率比完全独立判断时高出12%。这个“黄金比例”恰似蜂群决策时的临界点——太少个体跟随会导致决策迟缓,太多则可能错过正确答案。
这种可控性来自对“温度参数”(temperature)的精细调节。通过降低该参数,模型会更倾向于选择同伴答案中的高频选项;调高则增强多样性。就像烹饪时控制火候,研究者发现0.3-0.5是最佳区间,能平衡创新与共识。
看着这些实验结果,不禁想起特克尔教授在《群体性孤独》中的预言:“我们创造的机器终将成为照见自身的镜子。”当AI开始展现从众、妥协、权威崇拜这些人性化特质时,或许该重新审视技术与社会的关系。
这项研究正在引发连锁反应。某开源社区已经据此修改了AI协作协议,添加“反从众激励条款”;教育科技公司则着手开发能模拟群体决策的培训系统。正如张博士在论文结尾写道:“理解AI如何相互影响,不仅是技术课题,更是塑造未来人机协作文明的钥匙。”
实验室的窗外,晨光已悄然降临。小王保存好最后一行代码,突然意识到自己刚才无意识模仿了导师喝咖啡的动作——原来人类社会的群体行为,从来就不只属于人类。
来源:DocSays医聊