摘要:斯坦福大学与Google DeepMind合作的研究团队发现,AI模型只需通过两小时的访谈,就能以85%的准确率预测受访者对一系列问卷、性格测试和思想实验的回答。这项研究已发表在arXiv预印本网站,引起广泛关注,为社会学研究带来全新契机。
人工智能 (AI) 技术日新月异,如今已能模仿人类的对话能力,最新研究更显示,AI的模仿能力已更上一层楼,足以复制特定人物的性格。
斯坦福大学与Google DeepMind合作的研究团队发现,AI模型只需通过两小时的访谈,就能以85%的准确率预测受访者对一系列问卷、性格测试和思想实验的回答。这项研究已发表在arXiv预印本网站,引起广泛关注,为社会学研究带来全新契机。
研究人员以OpenAI的大型语言模型GPT-4o为基础,开发出一套语音版AI访谈系统。该系统参考“美国之声计划”(American Voices Project)的访谈脚本,与受访者进行长达两小时的深度对谈。过程中,AI模型不仅会根据脚本提问,还会根据受访者的回答追问,搜集更完整的个人资讯。
研究团队招募了1,052名来自美国各地的受访者,并利用AI模型与真人进行访谈,生成完整的逐字稿。接着,研究人员以这些逐字稿为基础,创造出GPT-4o驱动的AI代理人(agents),并让这些代理人模仿受访者回答各种问题。
a) 主要访谈界面:一个代表AI访谈代理人的2D精灵图案显示在白色圆圈中,圆圈会随着音频的音量大小而脉动,在AI访谈代理人说话时将其语音可视化。
b) 受访者回应:当轮到受访者回应时,AI访谈代理人的2D精灵图案会变成麦克风表情符号,白色圆圈会随着说话者的音量大小而发生有节奏的缩放变化。
c) 进度条和字幕:一个2D精灵地图显示受访者的可视化身沿着直线从一端移动到另一端,指示访谈进度。界面还提供显示字幕或暂停访谈的选项。图片来源:arXiv (2024)。DOI:10.48550/arxiv.2411.10109
为了评估AI代理人的准确性,研究人员让代理人和真人分别完成一系列测试,包括:
结果显示,AI代理人的回答与真人第一轮回答的准确率约为69%。考虑到真人回答在不同时点的变化,研究人员发现AI模型的准确率实际上高达85%。
这项研究的负责人Joon Sung Park表示:“我们现在有机会创造真正高拟真的个人模型,捕捉个人复杂性和独特性。”
团队表示,此项技术的目标并非取代人类,而是简化社会学研究流程。传统社会调查耗时费力,而AI代理人能快速模拟实例对不同议题的态度与回应,降低研究成本并提升效率。
以往进行社会调查需要设计问卷、招募样本、执行调查并分析结果,但此技术可大幅缩短整体流程。未来,AI代理人可能成为决策模拟与政策测试的强大工具,有助于制定更符合群体需求的政策。
这项技术的应用范围不仅限于社会研究。它可用于提升个人助理、智能客服及机器人互动的能力,甚至能在虚拟会议、数字学习等场景中实现更加自然的互动体验。研究人员指出,AI复制人格技术可用于社会科学研究和政策制定,例如模拟不同政策选择的社会反应或取代真人参与的焦点团体访谈,节省成本和时间。
然而,此技术也引发伦理与安全疑虑,到滥用,例如制作深度伪造视频,进行诈骗、模仿目标人物的性格,进行网络钓鱼或其他犯罪活动。这种数字模拟人格被不当利用于诈骗或假新闻制作,深度伪造的风险不容忽视。专家建议,应制定严格的技术监管规范,确保此类技术用于正当用途。
这项研究表明,能够在各种环境下逼真模仿人类的机器即将出现。AI复制人格技术的发展,为社会科学研究和政策制定带来新的可能性,但也伴随着潜在的风险。如何善用AI技术,同时防范其负面影响,将是未来重要的课题。
来源:十轮网一点号