人工智能系统会放大人类自身偏见

B站影视 2025-01-08 08:00 3

摘要:近日,英国伦敦大学学院官网发布最新研究称,人工智能(AI)系统在“继承”特定数据集中的人群的偏见后,还会放大人类偏见。该研究已经发表在最新一期《自然·人类行为》(Nature Human Behaviour)期刊上。

本报综合外媒报道 近日,英国伦敦大学学院官网发布最新研究称,人工智能(AI)系统在“继承”特定数据集中的人群的偏见后,还会放大人类偏见。该研究已经发表在最新一期《自然·人类行为》(Nature Human Behaviour)期刊上。

文中提到,人类和人工智能系统中存在的偏见会形成一个反馈循环,使得最初的微小偏见被不断放大,最终导致使用人工智能系统的人持有更多的偏见,增加了他们作出错误决定的风险。例如,与有偏见的人工智能系统互动的人更有可能低估女性在工作场所的表现等。

该研究的主要作者、伦敦大学学院心理学与语言科学系教授塔利·沙洛特(Tali Sharot)表示,人类天生就会有偏见,因此当我们利用人类产生的数据集训练人工智能系统时,人工智能算法就学会了偏见。然后,人工智能系统通过不断地利用和放大这些偏见来提高其预测的准确性。我们发现,与有偏见的人工智能系统互动后,人可能会变得更加偏见,从而产生潜在的“滚雪球”效应,即原始数据集中的微小偏见会被人工智能系统放大,进一步增加使用人工智能系统的人的偏见。

研究人员对1200多名参与者进行了一系列实验,其中一个实验是让一组参与者判断照片中面孔是悲伤还是欢乐。结果显示,这组参与者中的大多数人将面孔判断为悲伤,然后研究人员利用这组数据训练人工智能系统。人工智能系统学习了这种偏见之后,另一组参与者需要完成相同的任务,但同时告知他们人工智能系统对照片中面孔的判断。这组人在与人工智能系统互动一段时间后,强化了人工智能系统存在的偏见的同时,他们甚至比与人工智能系统互动前更有可能判断照片中的脸看起来是悲伤的。这表明人工智能系统从人类衍生的数据集中学习了偏见,然后放大了另一组人的固有偏见。研究人员还进行了另一项截然不同的实验,也发现了类似的结果。

该研究的共同作者、伦敦大学学院心理学与语言科学系博士莫舍·格利克曼(Moshe Glickman)表示,有偏见的人不仅会导致人工智能系统出现偏见,而且有偏见的人工智能系统还会改变人们自己的信念,进一步让使用人工智能系统的人在从社会判断到基本感知等领域变得更加偏见。然而,重要的是,我们还发现,与准确的人工智能系统互动可以改善人们的判断力。因此,完善人工智能系统,使其尽量做到公正和准确至关重要。

沙洛特认为,算法开发人员在设计人工智能系统方面负有重大责任,随着人工智能系统在我们的生活中变得越来越普遍,人工智能系统的偏见可能会产生很多负面影响,因此需要政策制定者、开发者、学者和公众共同参与,制定相关法规,完善人工智能应用环境。

(赵倩/编译)

本文来自【中国社会科学网】,仅代表作者观点。全国党媒信息公共平台提供信息发布及传播服务。

来源:人民日报党媒平台

相关推荐