牛津剑桥联合发布:人工智能安全何以成为全球公共产品?

B站影视 电影资讯 2025-05-16 23:20 2

摘要:2025年4月,牛津大学中国政策实验室(Oxford China Policy Lab)联合剑桥大学等多家机构发表政策研究报告《将人工智能安全视为全球公共产品:影响、挑战与研究优先项》(Examining AI Safety as a Global Publi

2025年4月,牛津大学中国政策实验室(Oxford China Policy Lab)联合剑桥大学等多家机构发表政策研究报告《将人工智能安全视为全球公共产品:影响、挑战与研究优先项》(Examining AI Safety as a Global Public Good: Implications, Challenges, and Research Priorities),系统探讨了人工智能安全治理的全球公共属性。借鉴气候变化、核安全与全球健康治理等领域经验,应将人工智能安全视为具有非排他性和非竞争性的“全球公共产品”(Global Public Good),需在协调责任分配、促进公平发展、缓解安全与能力纠缠等方面展开系统应对。启元洞见编译整理了其中的核心内容,以供读者参考。

一、引言

(一)研究背景

人工智能的迅猛发展既带来机遇也伴随挑战。当前,国际对话正从公共产品视角探讨人工智能治理。该框架揭示了安全研究投入不足与协作障碍:若将人工智能安全视为全球公共产品(GPG),相关知识与措施应普遍可得,惠及所有利益相关方。

但现实挑战显著:技术保护主义加剧“数字鸿沟”,而现有系统的偏见问题与未来可能威胁人类主体地位的风险,共同凸显治理紧迫性。确保人工智能安全开发——防范风险同时保留技术红利——本身就是关键的全球公共产品。

本文通过公共产品框架,探讨人工智能风险管控的理论与实践,分析责任分配与公平参与机制,为未来国际合作提供研究议程。

(二) “全球公共产品”作为国际进步的基础框架

全球公共产品作为分析框架,强调在跨越国界的集体挑战治理中的作用。与传统公共产品相比,其具有“非竞争”“非排他”两大特征,其效益遍及全球,且不因个体使用而减少,也不因地理或贡献差异而被排除。

在人工智能安全领域,市场机制难以充分提供所需安全投入:各方在承担成本与共享收益上存在搭便车动机,导致安全研究与基础设施投资不足,难以应对系统性风险、算法偏见或灾难性故障。

因此,应用GPG框架有助于:

1. 为国际协调提供经济与政治逻辑,凸显单边或市场导向措施的局限;

2. 论证增强公共投资的必要性,以弥补市场失灵;

3. 借鉴气候变化与公共卫生领域的制度与资助模式,为人工智能安全设计组织架构

4. 考察“特权群体”动力学,即具备足够资源的国家可独立提供全球公共产品,既维护自身利益又促进整体安全,但其无协调行动亦可能激化竞赛,削弱公共产品供给。

关键在于界定人工智能发展中亟需保护与提供的核心公共产品。只有明确人工智能安全的公共产品范畴,才能为构建有效的全球治理与协调机制奠定根基。

二、界定人工智能领域的公共产品

借鉴“清洁空气”“传染病防控”“无跨国冲突”等全球公共产品,我们从人工智能的益处与风险两方面,探讨如何将其纳入公共产品框架。

(一)高级人工智能的公共产品维度

类比于“获得清洁空气”和“传染病防控”这类基本需求,人工智能领域也存在需保障的“资源可及性”(如算力、数据共享)和需规避的“系统性风险”(如失控或滥用)。下表依据其特征,梳理了各类对应政策工具,助力后文框架应用。

表1 全球公共产品比较框架

(二)国际视角下的应用实践

以下为不同国际倡议从各自角度将人工智能相关事项视为公共产品的实践案例:

《国际人工智能安全对话·威尼斯声明》:将安全协议与验证机制视作可被普惠享用的技术公共品;

《曼哈顿宣言:包容性全球科学理解》:强调科学知识共享的公共价值;

《人工智能安全作为全球公共产品报告》:将治理能力本身纳入公共产品范畴,借鉴跨境协同;

联合国高层咨询报告《为人类治理人工智能》:提出技术安全、知识、制度与基础设施等多层面公共品需协同构建。

这些框架均指出,虽然人工智能安全、知识或治理在理论上具备非排他、非竞争属性,但其实施依赖的标准、认证与治理模型往往具备排他性或竞争性特征,导致市场及协调失灵。

(三)公共产品分析的启示

高级人工智能领域的公共利益呈现为三重互联层面:技术层面上的安全与可靠性可视为核心公共产品,但其依赖的开源工具、测试框架与能力增强技术在国家竞争中仍具排他性;知识层面的科学认知与治理经验虽具共享价值,却因专业资源集中而面临获取不均;制度层面的治理框架与应急机制可跨境复制,却需专门人才与机构能力,具有暂时排他性。

基于此,可将人类能动性(个体控制与选择权)、安全知识(最佳实践与经验共享)和治理能力(跨国协同机制)视作推动人工智能安全的三大公共基础。

多维框架有助识别无国界风险,并指导建立统一的安全标准与评估工具,以兼顾人权保障、系统可控、国际协调与公平部署。

三、 将“全球公共产品”框架应用于人工智能安全

基于此前理论框架,本节探讨如何将该概念具体应用于人工智能安全。虽然算力、资金与人才等资源通常具有排他性和竞争性,但安全研究生成的知识(如鲁棒性和可解释性方法)往往可被广泛共享。尽管部分成果初期受到知识产权限制,长远看仍会通过开源与开放出版方式惠及全球。

理论上该框架有助于推动国际协调,但现实中其应用仍面临政治阻力与执行挑战。因此,理解不同治理层级下的实践路径,是构建有效人工智能安全机制的关键。

(一)地区、国家与全球层级下的人工智能安全治理

历史经验表明,核能、航空和食品等领域的安全治理往往从地方或国家层面起步,再扩展为国际制度。例如,美国“三哩岛事件”推动核安全本土监管的强化,最终引发国际标准建设。

人工智能同样如此。尽管其风险具有跨国性,很多初期挑战仍集中于本地层面,如系统测试或基础设施可靠性。应对这些局部问题有助于构建全球治理的基础,并避免因问题“全球化”导致责任模糊。通过分层推进,国家可在本地范围内承担责任,也有助于协调人工智能研发强国与主要受影响国家之间的利益。

基于此,公共产品提供路径的三种模式及其对人工智能安全的启示:

1. 总量型(Aggregate Efforts):通过多方协作形成标准,如联合制定人工智能安全评估机制。须防范“监管套利”,确保开发者不会因规避监管迁往标准薄弱地区。

2. 最薄弱环节型(Weakest Link):强调全球最低安全保障。如同疫情防控,人工智能任一地区若缺乏基本监控能力,皆可能引发广泛风险。

3. 突破性成果型(Single Best-Shot):聚焦关键技术突破(如鲁棒性验证工具),一旦成熟便可全球应用。该路径强调集中资源解决核心问题,兼顾全球分发机制。

不同路径适用于不同场景,合理组合应结合技术实际与政治可行性,以形成责任明晰、步骤渐进的全球协作机制。

(二) 政治现实、权力动态与实施路径

将人工智能安全纳入全球公共产品框架,需审慎考虑现实政治局势及历史经验中的权力分配与执行难题。当前讨论中,人工智能安全多被合理归责于先进人工智能机构与主要国家,形成明确的道德责任。但全球公共产品框架可能导致责任分散,削弱行动压力。

激励层面,个体利益与集体福祉之间存在错位。尽管所有主体都受益于健全的人工智能安全措施,单个行为者却可能因成本本地化、收益全球化而缺乏足够投入动力。这与气候变化治理中各国减排动力不足的问题相似。

同时,人工智能安全工作与能力提升往往交织推进,带来治理上的双重挑战:提高安全水平的同时也可能加速技术风险扩散。

1. 国家利益与不平等

全球公共产品框架在面对根深蒂固的国家利益、权力差距与高昂成本时,往往难以落实。各国因技术实力与战略考量,对人工智能安全合作动力不足,易陷“囚徒困境”;主权顾虑也令其对超国家治理机制心存抵触,资源分配与合规监测复杂化。

在人工智能安全领域,发达国家掌握核心技术,发展中国家担心安全规范会阻碍其参与人工智能经济,并难以依赖未来安全红利;私营部门亦存在搭便车风险。由此,人工智能安全治理须在本地、区域与全球层级并行推进,构建可扩展的分责任与激励机制,同时加强能力建设与问责透明。

2. 安全与能力的共生悖论

人工智能安全措施往往依赖复杂技术,从而与能力提升交织,形成“安全—能力悖论”。同时,“安全漂洗”(safety-washing)现象频现,即行为体以“安全”之名掩饰能力扩张,令监管与公众难辨实际进展。

实践中,部分安全工作可较为独立地推广,例如检测有害内容的监测工具、安全评估框架、事故响应与文档规范、可解释性审计工具,以及基本的停机机制与访问控制。然而,诸如技术对齐研究、高级评估框架等关键领域,则与能力提升深度绑带。

这种纠缠使全球共享安全成果时,难以避免同时加速能力扩散,尤其当国家更担忧竞争对手技术优势,而非自身风险时,共享意愿将进一步削弱,给全球公共产品模式带来新的政治与治理挑战。

(三)人工智能安全作为全球公共产品的政治学结论

主要人工智能大国倾向于保留能带来战略优势的安全技术,而发展中国家则担心安全规范会拖慢其人工智能经济发展,二者均削弱了“优先安全”的集体动力。

国家安全话语虽能吸引更多资源,却易导致风险范围狭隘;区域合作可借助既有治理架构,循序扩展国际协调;公众教育与参与则有助于塑造政治压力与治理合法性,但须避免技术过度简化或恐慌化。鉴于此,构建有效人工智能安全全球公共产品需:

1. 明确区分可独立共享的安全工具与依赖高级能力的研究;

2. 设计可信中介或选择性披露机制,以在不泄露关键细节的前提下推广核心安全方法;

3. 建立激励结构,兼顾私营投资与公共利益;

4. 平衡公平与问责,确保责任边界清晰。

方案应根据各安全要素的适用规模,灵活选择本地、区域或国际路径,既发挥全球公共产品框架优势,又尊重不同主体的能力与利益。

四、研究议程:全球公共产品视角下的高级人工智能

本研究回顾了将人工智能安全视作全球公共产品的机会与局限,并指出国际声明、理论框架与治理挑战交织下的若干关键主题:一是该框架虽有助于协调集体行动,却面临实践与理论的多重挑战;二是人工智能能力的演进要求我们动态地重塑“安全”内涵;三是现有国际机制或需深度改造,抑或创新专门体制以有效管理人工智能安全。基于此,亟需构建一个兼顾即时难题与长期理论探究的研究议程,大致包括以下七大方向:

(一) 核心普适需求识别

1. 系统甄别需共同行动应对的高级人工智能全球风险;

2. 明确各发展背景下,人工智能对人类能动性与基本自由的具体威胁;

3. 界定防止重大事故或滥用的最低安全保障,以及其跨文化、跨制度的差异。

(二)人工智能安全要素与公共产品属性

1. 分析鲁棒性、可解释性、监测与透明度工具等安全手段的非排他性与普惠性;

2. 探讨专利、商业机密等限制因素如何与潜在的非排他性后果交互;

3. 考察国家与全球层面上安全标准与治理框架的公共产品特征及其实施差异。

(三) 治理层级与利益分配

1. 研究怎样兼顾领先人工智能研发主体的集中能力与发展中国家的包容性参与;

2. 设计弥合“开发国”与“主要使用国”之间安全责任与收益的不平衡机制;

3. 探讨在不同发展阶段如何调整安全协议而不削弱其实效。

(四)治理机制创新

1. 解决“安全—能力悖论”:如何推广安全成果而不助长能力竞赛?

2. 构建可信中介或选择性披露制度,实现安全技术共享与核心机密保护兼顾;

3. 促进公众辩论与参与,化解发达与发展中国家间的信息与话语不对称;

4. 规避既有体制中的结构性不平等,确保所有利益相关方均有发言与监督渠道。

(五)实施路径与行为体响应

1. 考察各类组织如何在文化与政治多样性中解读并响应“全球公共产品”安全话语;

2. 分析何种激励或约束机制最能促使私营部门与国际机构参与协同治理;

3. 评估既有公共产品框架对集体行动的驱动作用及其局限。

(六)衡量与评估指标

1. 开发区分真实安全改进与“安全漂洗”的可量化标准;

2. 设计评估安全措施公共产品效用的指标体系,包含分布与可及性考量;

3. 建立透明审计与报告机制,监测全球范围内安全效益的公平分配。

(七)技术与经济激励

1. 探索在避免能力过度扩散的前提下,加速关键安全技术突破的途径;

2. 研究经济激励与资助模式,解决私营部门搭便车与投入不足问题;

3. 评估不同治理方案的分配效应、权力动态及其对创新与问责的影响。

五、结语

人工智能安全已成全球治理核心议题,需跨学科、跨部门与跨国协作,在技术迅猛迭代下提前部署严格安全框架。基于前述的七大研究方向,应当平衡理论与实践,通过专家、政策者与公众持续对话、优化策略。

只有将人工智能安全视为全球共担的公共产品,才能兼顾创新与风险。其成败关乎人类福祉,也将为未来全球性挑战提供治理范式。

研究所简介

国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

_er

来源:全球技术地图

相关推荐