摘要:2025年8月,兰德公司(Rand Corporation)发布文章《人工智能与社会契约:技术转型下的社会经济政策基础》(Artificial Intelligence and the Social Contract: Foundations for Soci
2025年8月,兰德公司(Rand Corporation)发布文章《人工智能与社会契约:技术转型下的社会经济政策基础》(Artificial Intelligence and the Social Contract: Foundations for Social and Economic Policy Under Technological Transformation),主要介绍了人工智能技术变革带来的社会问题以及如何利用社会契约理论来应对。启元洞见编译该文章主要内容,旨在为读者了解相关研究提供参考。
一、引言:核心观点
全球尤其是美国正面临经济流动性、健康寿命及技术与人类福祉新领域等挑战,现有社会经济体系能否应对这些问题的交织?社会契约理论为应对人工智能带来的社会经济影响提供了指引。
随着人工智能能力提升,美国面临堪比工业革命的变革,需通过适当调整来保障经济机遇与社会韧性。文章认为,已融入美国宪法与机构的社会契约理论,是应对人工智能社会经济影响的重要指引。借鉴霍布斯、洛克、卢梭、罗尔斯、艾伦等理论家思想,提炼出六个核心观点应对人工智能挑战:
合法政治权威是合作前提,人工智能引发的新集体行动问题需权威介入;
权威须保护个人权利与自由,政府使用人工智能需维护公众信任;
合法性源于民主协商,人工智能可能阻碍或促进民主协商;
考量所有社会阶层可提升社会公平与韧性,缓解市场弊端;
重叠共识助力政治社会稳定,为人工智能治理的公私合作等提供基础;
共同参与需遏制权力集中,妥善应对人工智能导致的权力垄断与劳动力替代问题。
文章承认理论应用于现实的局限,但强调社会契约思想能指导政策制定,主张从社会技术视角看待人工智能,为不同政治立场者提供对话空间。
二、技术变革下的社会问题
人工智能快速发展正重塑社会经济政策格局。当前住房、医疗等领域问题解决面临多重阻碍,而人工智能系统有望深刻改变经济与社会。当前处于关键转折点——人工智能既可能带来资源富足、解决社会弊病,也可能加剧问题、导致权力集中。此次转型规模与速度将考验美国的韧性与适应能力。
历史上,工业革命曾引发劳动力替代、社会动荡等问题,人工智能转型的破坏性可能更强,不仅延续社交媒体带来的心理健康、两极分化等问题,还可能引发新的冲击。随着人工智能的普及,需解决人工智能的决策范围、劳动力自动化影响及人类发展与社会联系等问题。
社会契约理论纵然诞生已久,其核心理念如权利保护、被统治者同意等对美国宪法及诸多领域的立法实践具有启发意义。该理论并不针对特定技术,灵活性强,能应对人工智能独特的扩散方式。尽管应用于治理人工智能带来的问题存在局限,但回归社会契约理论的核心原则,仍有一定的指导意义,尤其在社会分歧背景下,可以为各方对话提供共同基础。
区别于个人主义观点,社会契约理论的核心逻辑在于:社会成员参与社会共同体,将以获得安全保障、基本庇护及经济机遇作为回报,其要义在于强调社会成员之福祉彼此勾连、密不可分。从该视角进行人工智能治理,需采用社会技术方法,以社会契约理念为指导,聚焦人工智能对社区、人际关系的复杂影响,结合具体场景具体分析。
文章回顾社会契约理论的六个核心观点(三古典、三现代),举例说明其在美国人工智能治理中的应用并探讨了未来方向。本文主要聚焦美国政府与社会,不涉及其他社会制度或政治共同体。
三、社会契约思想在人工智能治理中的应用
古典社会契约理论家奠定的思想基础支撑了多国宪法,但存在群体偏见;后世学者拓展理论,融入被排除的群体视角并适配当代政治生活。下面提炼了关键观点,为人工智能治理提供启发。
(一)古典理论基础
1.合法政治权威是合作的必要条件
霍布斯在《利维坦》中提出“自然状态”概念,认为无政府状态下人类生活混乱,存在“集体行动问题”,理性个体需建立主权权力“利维坦”,以保障安全、促进合作。虽然其绝对主权的主张较为极端,但“国家合法保护促进合作”的核心观点仍非常关键——当代灾害应对等集体问题需要可信的机构协调。
就人工智能而言,需思考合法权威何时、如何制定规则以保障人工智能发挥益处并管控风险。当前,人工智能智能体被广泛开发,能完成金融交易、远程工作等多种任务,但可能引发系统风险、责任界定等新的集体问题。
如同政府通过驾照、交通信号灯等规则协调交通一样,同样也需为人工智能智能体建立基础规则架构,如身份识别、安全程序、执行机制等。虽然现有法律也可以适用于人工智能智能体,但因人工智能智能体的发展速度与规模可能超出现有制度的范围,需建立“断路器”“终止开关”等机制,确保政府的监督与干预。
2.合法政治权威必须保护个人权利与自由
洛克认为自然状态和平但不稳定,人们拥有的生命、自由、财产等自然权利,需要共同机构保障。他主张政治权威应基于公民同意,且权力仅限于保护权利,若政府越界或未获得同意,则会丧失合法性,人民有权反抗。
该框架为技术变革中的社会提供了韧性基础。如果政府机构能够可靠地保护权利,那么公民可以放心尝试新技术、推动创新且避免伤害;通过保持对保护基本权利的承诺,政府本身可以利用新技术更好地提升履职能力。美国联邦与地方政府已用人工智能辅助国土安全、福利发放等治理职能,但公众信任十分关键。
洛克理念要求明确人工智能应用中的权利保护方式,如算法决策界限、数据使用政策等,现有的权利保护措施可能需要进一步明确与加强执行。同时,人工智能系统应增强个人自主权,如了解决策依据的权利、选择退出的权利等,敏感领域的人工智能还需证明不侵犯权利。明确的权利保护标准可能推动人工智能市场的创新。
此外,还需为公民提供人工智能系统出现错误时的申诉渠道,如独立审查委员会等。人工智能部署者,特别是政府,需定期评估系统对权利的影响。
3.政治权威的合法性源于民主协商
卢梭提出“公意”概念,认为其产生于公民共同商议公共利益的过程,区别于“私意”与“众意”,民主协商能凝聚公民形成政治共同体。
这一思想要求建立公民参与人工智能决策的机制。若人工智能治理权集中于企业或官员,可能导致民主赤字;想当然推测公民利益可能会错过机会,无法让公众参与以促进协作。尤其在公共空间人脸识别等“不可退出”的场景,需协商让公民决定人工智能的采用方式,否则可能破坏信任与凝聚力。
人工智能对民主协商既有阻碍也有促进作用。在阻碍方面,人工智能“黑箱”特性影响了公众的知情和讨论,人工智能推荐系统加剧了两极分化、扭曲了信息生态、排挤了温和声音。在促进方面,可通过技术透明度要求、算法设计原则来改善民主协商,如中国台湾地区的Polis平台通过机器学习在对立观点中识别共识领域,构建集体对话系统,创建更包容的反馈渠道。
此外,公民大会也可用于人工智能治理,其旨在将随机的公民群体聚集在一起,以就政策问题达成共识,在爱尔兰堕胎决策、英国碳排放等决策中已有应用。可以通过大会提出人工智能使用的一系列问题,特别是关于政府本身应如何使用人工智能的问题,如人脸识别、福利算法决策等。此外,可能需要替代协商方式,帮助中立或不关注的民众了解情况、参与讨论。
(二)现代拓展观点
1.考量所有社会阶层可提升社会公平与韧性
罗尔斯提出“无知之幕”的思想实验,主张在不知自身社会地位的“原初状态”下选择社会规则,提出应保护弱势群体,保护基本权利与确保平等机会,仅允许利于底层的不平等。该框架能防止极端不平等,在人工智能可能带来不均影响的技术变革期尤为有用,可维护社会凝聚力。
“无知之幕”可纠正市场评估技术的片面性——企业关注收益,易忽视长期、系统性的伤害。通过该框架,可整合政府、民间组织等多方视角,全面评估人工智能影响,完善成本收益分析。
研究表明,“无知之幕”下人们更倾向优先帮助弱势群体的人工智能原则。该框架可应用于人工智能治理实践:如自动化招聘中,政策制定者需在设计规则时需忽略自身角色(求职者、雇主等),关注评估透明度与申诉机制;设计医疗资源分配算法时需忽略自身身份(患者、医生等),确保基础医疗保障。
2.重叠共识有助于促进政治社会稳定
罗尔斯提出“重叠共识”与“公共理性”概念。前者指不同信仰、不同道德背景者可就基本政治原则达成共识(如宗教宽容);后者指政策论证需基于全民可接受的原则与证据,而非争议性主张。虽然理论存在争议,但能增强社会韧性,助力技术变革期的社会团结。
在人工智能政策辩论中,尽管技术加速派、担忧派等各方观点分歧,但存在着重叠共识。比如人工智能的发展速度超过了政府的应对周期、私营部门主导着人工智能发展、对人工智能的评估存在缺陷等。基于这些共识,可探索适应性治理(如监管沙盒)、公私合作等方式,平衡创新与风险。
针对人工智能评估复杂的问题,美英人工智能安全机构等通过聚焦欺诈、生物武器攻击等共识性风险,建立了安全框架,避免争议性概念的使用。同时,需结合在可控环境下测试人工智能能力和风险的实验室评估与在现实场景测试社会影响的社会技术实地评估,形成适应技术发展的评估体系,为人工智能治理提供实证基础。
3.共同参与需遏制权力垄断与集中
艾伦的社会契约思想聚焦民主平等,认为民主的核心是防止“支配”,个体或群体不应被任意行使权力。主张保障经济安全、消除参与障碍,教育、劳动保护等政策是民主参与的基础,而非额外福利。
艾伦强调经济不平等会损害民主公民身份,使公民易受不公决策影响,极端贫富差距与民主是不相容的。这对人工智能治理的启示是:需关注人工智能导致的权力集中与劳动力替代问题。
针对少数企业掌控人工智能等权力集中情形,需建立多方监督委员会、要求高影响人工智能系统经公共利益审查等,保障受影响群体的话语权;针对劳动力替代与财富集中,需探索经济的再平衡方式,如保障被替代者的机会、为其提供支持等,但具体措施需进一步研究。
四、结论:批判与未来方向
社会契约理论面临批判。一是社会契约理论的抽象性问题,认为该理论其脱离现实历史条件,掩盖了权力关系对社会制度形成与实施过程的影响,看似中立的制度可能会复制不平等的现实,“自主个体自愿缔约”的假设不成立,历史契约存在群体排斥。二是对核心概念合理性的争议,认为该理论为过度国家干预辩护,质疑中央权威设计社会制度的能力,主张社会秩序自发演进。
这些批判提醒我们应用社会契约理论需关注权力关系、历史条件与制度设计局限,而不是否定理论,应助力理论优化以应对人工智能变革。未来,人工智能可能会给美国带来经济动荡、民主退化、权力集中、社会凝聚力削弱及制度滞后等挑战,社会契约思想虽非“蓝图”,但能为技术转型提供方向,助力制定政策,确保技术服务于社会。
转自丨启元洞见
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
_er
来源:全球技术地图
