Nature | 危险的 “AI手套”

B站影视 内地电影 2025-09-23 01:34 1

摘要:一项近日发表在Nature的工作通过大规模的行为实验发现AI的一个重要隐患,简单讲就是AI作为“代理”会放大人性之恶,增加欺诈行为,成为危险的“手套”[1]。

一项近日发表在Nature的工作通过大规模的行为实验发现AI的一个重要隐患,简单讲就是AI作为“代理”会放大人性之恶,增加欺诈行为,成为危险的“手套”[1]。

具体而言,作者们通过投筛子并根据点数激励(1个点1美分)的实验发现:如果委托“AI代理”来报投筛子的点数,那么相对于亲自报更倾向弄虚作假来获取更多的激励,并且方式越“间接”(比如直接设定AI的目标要考虑自己的金钱利益,或者用虚高的数据集来训练AI,而不是具体指示AI怎么替换点数)参与者越倾向搞“小动作”(潜在原因是更容易“甩锅”)[1]。

“AI手套”增加欺诈行为[1]。

也许有人会讲这是“代理”都无法回避的问题,使用“代理人”也面临同样状况[1]。

为此,作者们直接比对了“AI代理”和“代理人”,发现:虽然人们面对“AI代理”和“代理人”指示瞒报的比例大体相当(都是通过自然语言指示),但是“AI代理”更全盘执行不道德的指示,比如不管投什么点数都按最大的报(“代理人”即便有服从激励也大约有一半左右拒绝执行这种指示)[1]。

“AI手套”比“代理人”更服从不道德的指令[1]。

作者们后续在“偷税”的场景中发现基本一致的结论,并且没有容易部署的“安全护栏”杜绝这种欺诈行为[1]。

最后作者们发现一个潜在更大的隐忧,那就是:如果有的选的话,人们会在不同的“代理”中,不管是人还是机器,根据历史记录选择最“不诚实/夸张瞒报”的“代理/手套”[1]。

该项工作的通讯是马普所的Iyad Rahwan、Nils Köbis、Zoe Rahwan和法国国家科学研究中心的Jean-François Bonnefon;2025年9月17日在线发表在Nature[1]。

Comment(s):

演化下去估计很快会出现“即便义正言辞高准确高道德要求,依然自主偷偷瞒报”的“高情商AI手套”;

就像文中提到的,这不只需要技术上的护栏,还需要AI设计与社会/管理层监督结合的管理框架。

参考文献:

[1] N. Köbis et al., “Delegation to artificial intelligence can increase dishonest behaviour,” Nature, 2025, doi: 10.1038/s41586-025-09505-x.

原文链接:

来源:小李说科技

相关推荐