摘要:美国加州大学伯克利分校政治学系助理教授科克·班萨克(Kirk Bansak)和哈佛大学商学院助理教授伊丽莎白·保尔森(Elisabeth Paulson)近日在一项新研究中分析了公众在高风险环境下对算法与人类决策者的偏好,这些偏好如何受到表现指标的影响,以及公
本报综合外媒报道 美国加州大学伯克利分校政治学系助理教授科克·班萨克(Kirk Bansak)和哈佛大学商学院助理教授伊丽莎白·保尔森(Elisabeth Paulson)近日在一项新研究中分析了公众在高风险环境下对算法与人类决策者的偏好,这些偏好如何受到表现指标的影响,以及公众对表现的评估是否因决策者类型而有所不同。
公众对人工智能和算法决策的有效性、公平性和偏见的担忧并不少见,随着算法决策越来越多地被应用到公共政策和其他高风险决策环境中,如刑事司法和医疗保健系统,这些担忧就会不断升级。通过学术研究成果传播和媒体报道,公众越来越意识到在公共领域使用算法的潜在好处和风险。在媒体、立法和社会层面,公众越来越多地了解到与算法特定特征(例如偏见)相关的考量,并逐渐将其纳入算法决策的探讨之中。
据班萨克和保尔森介绍,目前在相关领域主要有两类研究。第一类研究关注公众作为观察者和选举人如何看待算法决策工具在社会中的应用。之前调查发现,公众对人工智能和管理人工智能使用的机构普遍持负面看法。其他研究则强调,公众对算法决策者的信任相对具有可塑性,并受到算法执行任务类型的影响,如任务本质上倾向于“机械”还是“人类”、在多大程度上帮助或制裁人,以及各种设计特征的影响。数量更大的第二类研究集中关注使用和发明人工智能与算法决策工具的用户,研究他们的观点和行为。其中,一些研究证明了“算法厌恶”现象的存在,即用户不愿依赖算法建议;与此同时,还有很多研究证明,用户也有可能更倾向于依赖算法建议而不是人类建议,而用户对算法决策的厌恶或欣赏程度取决于不同的情况,例如,如果算法表现低于预期,可能导致用户对其厌恶加剧而欣赏减少。
不过,仍然存在许多悬而未决的问题。为了了解决策的两大表现指标——效率与公平如何影响公众对人类和算法决策者的评价与偏好以及决策者类型对指标重要性有何影响,班萨克和保尔森进行了一项开创性的调查。他们设计、预注册并开展了一项高维联合实验,9000名调查对象依据决策者的类型(算法或人类)和体现决策者在效率和公平方面表现的指标进行选择,实验场景被随机呈现为审前释放决定或银行贷款批准。结果显示,在调查者对决策者的评估中,效率是更重要的表现指标,在两种决策场景下均成立,无论面对算法还是人类决策者,他们都更优先考虑效率。此外,尽管调查对象各有所好,即使在对表现加以控制的前提下,对人类决策者的平均偏好也高于算法决策者。
班萨克和保尔森提到,该研究对算法决策系统如何在社会中被设计和传达以及为表现更佳的决策者(无论其为算法或人类)争取公众支持具有启示意义。例如,跨越人口子集的调查对象在偏好上展现了总体一致性,即使在社会和政治层面存在明显差别,偏好差异也比较有限。这说明,或许不需要应对来自不同或冲突“偏好集” 的挑战。此外,需要把公平性问题与权衡联系起来。社会中似乎有对算法公平和一般公平的重要偏好,但当调查对象被要求在权衡的背景下考虑问题时,公平又显得没那么重要。这突出了政策制定者和公众考量冲突性指标方式的重要性,所涉不仅是孤立的指标,还有它们之间的关系。而这项研究未关注正当程序、隐私等与算法相关的议题,也值得在对不同类型决策者可取性的讨论中进行探究。
(陈禹同/编译)
本文来自【中国社会科学网】,仅代表作者观点。全国党媒信息公共平台提供信息发布及传播服务。
来源:人民日报党媒平台