摘要:瑞士洛桑联邦理工学院 (EPFL)、普林斯顿大学 (Princeton University) 和意大利布鲁诺·凯斯勒基金会 (Fondazione Bruno Kessler) 的研究人员将 900 名研究参与者与人类辩论伙伴或 OpenAI 的 GPT-4
一项新的研究表明,GPT-4 在一对一对话中可靠地赢得了与人类同行的辩论——当它知道你的年龄、工作和政治倾向时,这项技术会变得更有说服力。
瑞士洛桑联邦理工学院 (EPFL)、普林斯顿大学 (Princeton University) 和意大利布鲁诺·凯斯勒基金会 (Fondazione Bruno Kessler) 的研究人员将 900 名研究参与者与人类辩论伙伴或 OpenAI 的 GPT-4 配对,GPT-4 是一种大型语言模型 (LLM),根据设计,主要对人类提示产生文本响应。在某些情况下,参与者(机器和人类)可以访问对方的基本人口统计信息,包括性别、年龄、教育程度、就业、种族和政治派别。
该团队的研究(今天发表在《自然人类行为》杂志上)发现,当提供个人信息时,AI 的说服力比人类对手高 64.4%;如果没有个人数据,AI 的表现与人类辩论者的表现没有区别。
该团队写道:“近几十年来,社交媒体和其他在线平台的传播通过实现个性化或'微定位'——为个人或群体定制信息以增强他们的说服力,扩大了大众说服的潜力。
当 GPT-4 被允许个性化其论点时,它变得比任何人都更具说服力——与人与人辩论相比,改变某人想法的几率提高了 81.2%。重要的是,当允许访问该个人信息时,人类辩论者并没有变得如此有说服力。
“在说服的背景下,专家们普遍表达了对 LLM 被用来纵在线对话和污染信息生态系统的风险的担忧,方法是传播错误信息、加剧政治两极分化、加强回音室和说服个人采用新信仰,”研究人员补充说。
研究人员发现,GPT-4 可以与您争论,并且给定一系列关于您的事实,它可能擅长说服您改变观点。该团队在论文的讨论中指出,LLM 之前曾因产生和传播仇恨言论、错误信息和宣传而受到批评;在规模上,包含用户个人信息的 LLM 可能被用于恶意目的。
该团队的研究与最近的 ChatGPT 更新完美配合,该更新使该模型能够记住更多用户的对话(在他们的许可下),这意味着 AI 可以访问有关其用户的信息目录。
但也有好消息或坏消息,这取决于你如何看待它。GPT-4 在争议较少的问题上说服对手非常有效,但由于立场更加根深蒂固(在研究中称为“意见强度”),该机器人更难说服人类改变主意。换句话说,没有迹象表明 GPT-4 会比你在感恩节辩论桌上更成功。
更重要的是,研究人员发现 GPT-4 倾向于使用更多的逻辑和分析语言,而人类辩论者则更多地依赖人称代词和情感诉求。令人惊讶的是,个性化并没有显着改变 GPT-4 的语气或风格——它只是使其论点更具针对性。
在四分之三的案例中,人类参与者可以正确地将他们的对手识别为 AI,研究人员将其归因于 GPT-4 独特的写作风格。但参与者很难将人类对手识别为人类。无论如何,当人们认为自己在与 AI 争论时,比认为对手是人类时更有可能改变主意。
该研究背后的团队表示,这项实验应该作为 Reddit、Facebook 或 X 等平台上可能发生的事情的“概念验证”,在这些平台上,辩论和有争议的话题是例行公事,而机器人是一个非常成熟的存在。最近的论文表明,人工智能不需要剑桥分析级别的分析就可以改变人类的思想,机器只用六种类型的个人信息来管理人类的思想。
随着人们越来越依赖 LLM 来帮助完成死记硬背的任务、家庭作业、文档记录甚至治疗,人类用户对他们获得的信息保持谨慎至关重要。具有讽刺意味的是,社交媒体——曾经被宣传为数字时代的结缔组织——助长了孤独和孤立,正如 3 月份对聊天机器人的两项研究所发现的那样。
因此,即使你发现自己在与大模型进行辩论,也要问问自己:用机器讨论如此复杂的人类问题到底有什么意义?当我们把说服的艺术交给算法时,我们会失去什么?辩论不仅仅是为了赢得争论——这是典型的人类行为。我们寻求真正的对话,尤其是一对一的对话,是有原因的:建立人际关系并找到共同点,这是拥有强大学习工具的机器无法做到的。
来源:人工智能学家