数字法治|张欣:人工智能治理的全球变革与中国路径

B站影视 2025-02-09 11:26 3

摘要:以海量数据、庞大参数和超高算力为基础的人工智能大模型展现出令人惊叹的扩展与迁移能力,全面发挥着汇聚资源、优化配置、重塑生产的关键作用,不断改变着人类社会的物质交换和社会交往逻辑。人工智能还重新定义了法律规则,以细粒化和精准性替代类型化和抽象性,推动着现行法律体

作者:张欣,对外经济贸易大学法学院教授,法学博士。

以海量数据、庞大参数和超高算力为基础的人工智能大模型展现出令人惊叹的扩展与迁移能力,全面发挥着汇聚资源、优化配置、重塑生产的关键作用,不断改变着人类社会的物质交换和社会交往逻辑。人工智能还重新定义了法律规则,以细粒化和精准性替代类型化和抽象性,推动着现行法律体系的深度变迁。以上诸种变革紧密交织、叠加扩展,成为挑战现代法律治理的“潘多拉魔盒”,引发了治理理念、治理架构、治理工具的重大变革。在治理理念上,镶嵌于平台治理、个人信息保护、电子商务等主题之下的分散规制难以形成有效闭环,碎片化的制度设计导致规制尺度不清、跨域协调成本高企,触发“箭射靶离”的实效难题。在治理架构上,传统的层级式监管架构与人工智能技术分布式的应用逻辑难以实现有效对接,规制无序竞争与规制真空现象交替发生。在治理工具层面,以硬法为内核的传统规制应对时滞、弹性不足,而以伦理和标准等软法为依托的治理方式又面临约束乏力、实效受限的困境。如何构建有效契合人工智能技术和应用机理的治理方案成为各国面临的首要挑战。以上诸种变革串联并行,引发了人工智能治理的全球化变革。各国治理思路虽各有侧重,但仍不乏趋同之势。本文系统梳理了人工智能治理全球变革的共性趋势,以此为参考和对照,深入剖析我国人工智能治理迭代逻辑,探究我国人工智能治理构建机理并就落地和优化方案提出建议。

一、人工智能治理的全球变革

人工智能开启了前所未有的机遇之窗,也引发了一系列亟待解决的治理难题。面对技术运行失序和潜在异化风险,全球主要国家和地区纷纷将人工智能规制纳入正式立法议程,标志着人工智能治理从企业自我规制阶段逐步迈向政府主导监管的全球化时代。这一范式转变不仅彰显了各国对人工智能风险的深刻洞察,更凸显了对构建有效治理框架的迫切需求。尽管各国在文化传统、治理资源等方面存在差异,但在应对技术共性风险和全球性治理挑战时,其治理方案仍呈现出显著的交叉性和趋同性。通过比较分析全球治理实践,可以提炼出三个主要共性:其一,以风险分类分级为核心理念,构建差异化、精准化的规制体系,实现监管资源的优化配置和风险的精准治理;其二,软法与硬法深度融合,形成动态适应的规则体系,灵活应对技术快速迭代带来的治理挑战;其三,监管主体跨域联动,打破传统监管壁垒,全面提升监管一致性和协调性,构建多元共治的治理格局。

(一)以分类分级为内核的精准治理

面对人工智能治理的复杂性挑战,以分类分级为核心的精准治理渐成国际共识。这一治理模式不仅体现了规制手段对人工智能技术和应用的精准捕捉,还反映了信息与治理工具的精准适配,其本质是将技术应用场景中各方利益和社会影响不断清晰化的过程。分类分级治理能够有效应对人工智能的动态性和不确定性,通过构建灵活的监管框架,实现对技术发展的全程跟踪和动态调整,从而保持治理的前瞻性和适应性。针对大模型等复杂人工智能的“黑箱”特性,分类分级治理还可从应用场景、模型功能和人类认知维度综合探索,构建多层次信息收集机制,弥补人工智能透明度的治理局限,为构建问责制奠定基础。此外,考虑到人工智能技术的高度迁移性和扩展性,分类分级治理可避免“一刀切”式监管可能带来的创新抑制和效率损失,实现监管资源的优化配置。

纵观全球监管实践,主要以三种进路展开:第一,从技术架构视角对人工智能模型开展分类分级,据此制定与之对应的治理规则。欧盟《人工智能法》的进路颇具代表性。该法深入模型技术层面,以模型参数量、训练数据集质量和规模、训练模型所使用计算量、模型输入和输出模式、模型能力基准和评估等技术指标划分通用人工智能模型和具有系统性风险的人工智能模型,制定差异化合规义务。

与之类似,美国通过评估人工智能模型所需的浮点运算能力、所依赖的计算集群规模以及训练数据的敏感程度,将人工智能模型划分为两用基础模型与一般人工智能模型,并据此实施差异化监管。

第二,从人工智能应用场景和影响维度进行分类分级。为保证有限监管资源的优化配置,以人工智能应用可能产生的风险维度及影响范围、程度与性质开展分类分级监管渐成核心趋势。欧盟《人工智能法》以人工智能应用对健康、安全及个体基本权利的风险为评估标准,构建了四级风险分类体系,并以此为据对应施策。加拿大《自动化决策指令》则以技术架构、影响维度和问责制为核心,通过系统评估自动化决策流程、数据和设计对社会、经济、环境及公民的影响,将风险影响划分为四个等级,匹配差异化监管方案。我国人工智能分类分级治理不仅考虑技术影响,还融入了对产业功能和技术应用的深层次思考。例如,我国《互联网信息服务算法推荐管理规定》(以下简称《算法规定》)在综合评估推荐算法核心应用场景和主流行业分布的基础上,以生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类为内容,横向构建五维分类体系。与此同时,鉴于具有舆论属性和社会动员能力的推荐算法可能具有更高的网络信息安全风险,在纵向上对该类推荐算法给予特别关注,施加额外的安全评估义务。

第三,聚焦人工智能技术设计、运行和部署主体并开展分类分级治理。这一进路反映了监管思维从技术本位向主体责任的重要转向。随着人工智能商业化和产业化进程加速,科技公司作为数字经济与社会各类活动的核心组织者与协调者,治理责任日益凸显。基于人工智能产业链条上各主体在规模、资源和市场影响力等方面呈现的层次性特征,越来越多的监管方案开始将科技企业纳入监管考量范畴。然而,如何从主体角度构建科学的分类分级体系,各方思路不一。例如,美国采取量化分类的思路。《美国算法问责法案》以年平均总收入、拥有或者控制个人信息的数量以及主营业务类型为指标,对覆盖主体进行分类分级,以此构建梯度性合规义务体系。基于主体特征的量化思维虽具有可操作性强、标准明晰等优势,但可能忽视了各主体在人工智能生态中的角色和影响力等定性因素。相比之下,欧盟《数字服务法》采用了更为全面的“定量与定性”相结合的方式。一方面,以用户数量、规模和平台年收入等指标为基准进行量化分级;另一方面,则从平台功能及其对信息传播的影响力维度,对平台设定差异化监管。与之类似,我国《互联网平台分类分级指南(征求意见稿)》亦是从平台企业的连接属性和主要功能视角,综合考虑用户规模、业务种类、企业市值(估值)、营业收入等指标开展分类分级治理。这一路径将人工智能治理与主体责任相结合,不仅兼顾人工智能技术本身的特性和应用风险,还为营造良性的人工智能治理生态提供了制度依托。

(二)软法与硬法深度融合的协同治理

传统以法律法规为核心的监管体系跨部门、跨行业协调成本高企,应对人工智能跨域风险时力不从心,导致监管时滞且局限渐显。与之相比,人工智能软法凭借其独特优势崭露头角。人工智能软法是指一系列旨在规范参与人工智能技术开发、部署和运行的组织以及个人行为的非强制性规范。人工智能软法虽不具备强制约束力,但通过塑造行为规范、引导市场预期,依然可对治理客体产生间接而有效的影响。更为重要的是,软法的灵活性和适应性使其能够更好地应对人工智能风险的跨域性和全球广泛性,从而有效弥补各国国内法在跨域适用上存在的冲突与局限。因此,在全球人工智能治理体系中,软法举足轻重,成为与法律法规相得益彰、协同互补的治理工具。当前,全球人工智能软法治理主要通过四个层面展开:

第一,制定并颁布与人工智能技术和伦理规范相关的技术标准,作为先行规则引导人工智能技术设计、应用和部署。基于标准的人工智能治理主要从国际和国内两个层面推进。在国际层面,国际标准化组织与国际电工委员会共同创建的第一联合技术委员会(ISO/IEC JTC 1)专门设立了人工智能分委会(SC 42),近年来致力于构建全球人工智能标准化体系。该委员会的标准化工作涵盖了人工智能技术的主要方面,包括人工智能概念和术语界定、人工智能风险管理指南、人工智能道德和社会治理以及人工智能系统的可控性治理等,为实现人工智能技术的负责任使用以及跨国界协调治理提供规则支撑。在国内层面,各国高度重视人工智能标准化治理工作,积极构建本国的标准规则体系。例如,美国国家标准与技术研究院发布了一系列关于算法开发、设计及应用的技术标准,并专门针对生成式人工智能制定风险管理框架,形成美国人工智能软法治理的重要依托。我国则从基础共性标准、基础支撑标准、关键技术标准、行业应用标准、安全/治理标准方面明确标准化体系建设的重点方向,以标准体系为依托,加快形成引领人工智能产业高质量发展的软法治理机制。

第二,由各国监管机构发布人工智能合规指南,为企业合规实践提供明确指引。通过提供详细解释和操作性建议,合规指南有效弥补了硬法在技术细节和实施方法上的不足。例如,欧盟《人工智能法》颁布后,欧盟数据保护委员会以及多个成员国数据保护机构迅速发布配套指导文件,凸显了软法在增强监管一致性方面的重要作用。这些指导文件通过详细解释《人工智能法》与《通用数据保护条例》的关系、《人工智能法》与个人基本权利保护的关系,以及如何落实《人工智能法》核心合规义务等内容,为科技企业提供全面具体的合规指导。再如,新加坡于2019年发布了《人工智能治理框架范本》,并在2020年推出更新版本,确立了早期人工智能治理的基础框架。随着生成式人工智能的快速发展,新加坡资讯通信媒体发展管理局与人工智能验证基金会深入研究了主要司法辖区、国际组织和学术界的先进治理经验,发布了《生成式人工智能的模范治理框架:培育可信赖的生态系统》,为企业开发和部署可信赖的人工智能系统提供了系统指引。通过将抽象的法律条文转化为具体的落地方案,这些指南性文件有效降低了企业的合规成本,在弥补硬法不足、促进监管沟通、增强法律实施效果等方面发挥了关键作用。

第三,通过优化公司治理结构、完善人工智能供应链管理、增加专利许可协议的伦理条款以及成立行业自治组织等多元化方式,发挥技术社群和科技企业的协同治理效能。目前,大多数头部科技企业已着手创建专门的人工智能伦理委员会,从公司内部治理结构入手,在人工智能研发与部署前对潜在的伦理影响和风险开展前置性评估,将伦理考量嵌入技术创新全过程。商业实践中,一些科技企业为确保人工智能技术的负责任使用,将人工智能伦理准则纳入销售合同条款,要求客户遵守企业制定的人工智能使用准则。通过合同约束增强软法执行力,将伦理要求转化为具有一定法律效力的义务,有效扩大了软法的影响范围。技术社群在人工智能软法治理中也发挥了独特作用。以电气与电子工程师协会为代表的专业团体紧密联结技术开发者,开发了人工智能伦理审计和认证程序。通过构建第三方审计和认证机制,为确保人工智能系统的伦理标准提供可量化和可验证的规范准则。例如,其构建的算法安全印章、算法标识和算法伦理认证制度,推动了法律法规在技术标准层面的实施,为软硬法的衔接提供了有益探索。

第四,通过人工智能伦理与法律的协同治理,实现软法与硬法有机结合,进而对人工智能开展系统性治理。伦理与法律的协同主要体现在三个维度:首先,伦理规范作为价值引领,为法律规制提供基础性指引和原则性框架。伦理规范蕴含的价值判断和道德共识,往往通过立法程序转化为具有法律效力的规范要求。例如,欧盟《人工智能法》的核心规范内容系基于欧盟人工智能高级专家组提出的伦理准则而展开,体现出从伦理原则向制度规范的转化进路。此种“伦理先行”模式确保了人工智能法律规制的价值基础与社会伦理取向的内在统一。其次,伦理规范凭借其灵活性,有效弥补了法律规制的滞后性局限。在人工智能技术快速迭代的背景下,伦理规范能够及时回应新型治理需求,发挥柔性规制作用。典型例证如德国联邦交通和数字化基础设施部下属的道德委员会于2017年发布的《自动化和网联车辆交通伦理准则》。该准则在自动驾驶立法体系尚不完备之际,就核心伦理困境确立了基本立场,从伦理层面厘清了自动驾驶监管与事故归责原则,为自动驾驶设计研发和路测部署提供了实质性指引。最后,法律规范通过将伦理要求转化为强制性义务,形成“软法硬化”的制度路径。在推进人工智能立法过程中,各国立法机构普遍注重将既有伦理规范吸收转化为具有法律效力的制度设计。我国《科技伦理审查办法(试行)》即是典型范例。该办法通过构建伦理审查制度体系,明确了审查主体责任,设置专家复核机制,实现了人工智能基础伦理原则的制度化与规范化,使伦理风险评估与管控获得了法律保障。这种软硬兼施的协同治理模式既有助于治理体系的适应性,又保障了治理效能,为应对人工智能发展的复杂性与不确定性提供了系统性制度保障。

(三)以监管架构改革推进的一致性治理

人工智能技术艰深晦涩,其衍生的应用动态多元,在部署和运行环节产生的影响复杂多变。传统监管架构面临信息孤岛、流程封闭以及监管革新受阻等障碍,在面对新技术、新应用带来的挑战时难以招架、疲于应对。更为严峻的是,传统监管架构呈现出碎片化、割裂化特征,致使监管重叠和监管漏洞并存。这种监管效能的双重缺失严重影响了人工智能监管的有效性和一致性。鉴于此,适时创建一个凸显独立性,具有跨学科、跨领域决策能力,善于施展跨域协调能力,具有较高应答效率的新型监管主体已成为当前人工智能治理的迫切需求和发展趋势。在全球范围内,多个司法辖区已在不同维度采取措施,以推进人工智能监管的协调性和一致性。

纵观全局,以人工智能监管架构改革为依托的一致性治理主要通过新设模式、强化模式及国际协调模式展开。新设模式以欧盟为典型代表,旨在通过创建具有跨部门协调能力的新型监管主体推进监管一致性。欧盟《人工智能法》作为全球首个面向人工智能的综合监管方案,其实效性在很大程度上依赖于强有力的监管机构和充足的监管资源。为此,该法构建了一套二元监管框架:一方面,要求每个欧盟成员国指定国家级监管机构负责法律执行,并定期向欧盟委员会报告监管情况,确保法律实施的一致性。另一方面,设立欧盟委员会人工智能办公室和人工智能委员会,作为《人工智能法》的执行主体、协调平台和咨询机构,确保法律实施的协调性。人工智能办公室作为新成立的欧盟级监管机构,其主要职责包括监测、监督和执行该法在成员国内开展通用人工智能模型和系统的监管行动,分析新兴且不可预见的系统性风险,开展模型能力评估以及调查潜在侵权和不合规事件,等等。为推进监管一致性和协调性,人工智能办公室通过四个细分机制推进中央协调和监督:(1)建立中央数据库,支持对被禁止和高风险人工智能的协调执法,实现各监管主体之间的信息共享和风险预警;(2)依托人工智能委员会,支持成员国建立和发展监管沙盒,促进沙盒间合作与信息共享;(3)为市场监督机构的联合调查提供协调支持,尤其是在发现高风险人工智能系统对多个成员国构成严重风险时,增加监管机构的跨国协作能力;(4)以人工智能委员会秘书处为依托,构建成员国监管机构协调执法的政府间论坛,协助开展执法合作。此外,人工智能办公室还通过创建与开源社区合作的论坛、为通用人工智能模型和系统提供商提供交流平台等方式促进多方沟通,推进其在司法辖区内和全球范围内人工智能监管方面的前沿性和引领性。

强化模式以美国为典型代表。该模式在维持现有监管架构的同时,通过增设跨部门咨情机构、在各监管机构内部新设专职监管岗位等方式,构建多层次、多主体的协同机制,提升跨域监管的协调性、适应性和一致性。这一变革主要围绕三个关键机构进行:国家人工智能倡议办公室、国家人工智能机构间委员会和国家人工智能咨询委员会。国家人工智能倡议办公室隶属于白宫科技政策办公室,作为各方联络枢纽,通过信息交流与技术共享确保治理政策与实践紧密结合。同时,它为人工智能机构间委员会和人工智能咨询委员会提供技术和行政支持,协助制定统一的人工智能政策和标准。国家人工智能机构间委员会采用联合主席制,由涵盖科技、国防、情报等的多个联邦机构代表组成,负责协调人工智能研究、开发活动,定期更新人工智能战略计划,研究国家人工智能咨询委员会提出的各方建议,确保各联邦机构人工智能治理决策的全面性和代表性。国家人工智能咨询委员会与白宫科技政策办公室密切协作,组织架构和人员构成具有多元性和包容性。作为战略顾问,其持续评估美国在全球竞争中的地位,监督国家人工智能战略的实施,为政策制定和调整提供决策依据,在促进美国人工智能监管一致性与协调性方面发挥重要作用。此外,各联邦机构内部设立首席人工智能官,负责协调管控各机构内部使用人工智能的潜在风险,确保各机构在人工智能应用和管理层面有专人负责,推动更为高效一致的人工智能治理实践。强化模式体现了渐进式改革思路,通过在现有架构内增设协调机构和专职岗位,在保持监管体系稳定性的同时提高人工智能治理的协调性。

二、我国人工智能治理的

迭代逻辑和构建机理

在科技强国战略全面支持、科技创新文化点滴熏陶的强力驱动下,我国迅速步入“数智社会”。人工智能成为经济社会发展的新型引擎,带来了显著的技术红利。但与之伴生的算法诱导沉迷、大数据杀熟、“信息茧房”、深度伪造等问题层出不穷,对社会秩序、传播秩序以及市场秩序造成诸多不良影响,及时回应社会关切,积极应对人工智能风险已成当务之急。在此背景下,我国人工智能治理框架逐步成型,并呈现出由“1.0时代”向“2.0时代”的演进趋势。本节聚焦我国人工智能治理的迭代逻辑和构建机理,深入剖析这一演进过程中的关键要素、驱动因素以及特性特征,为未来的治理实践提供理论支撑,也有助于展现中国模式在全球人工智能治理格局中的独特价值与贡献。

(一)以分散化规制为主要特征的“1.0时代”

从治理源头考察,我国人工智能治理的演进路径呈现出由点及面、循序渐进的发展态势。这一进程始于对算法应用的规制,并逐步扩展至深度合成、生成式人工智能等多元领域,形成了以算法治理为基础、多领域协同的治理框架。从规则体系构建来看,算法治理的雏形可追溯至《互联网新闻信息服务新技术新应用安全评估管理规定》确立的互联网新闻信息服务新技术新应用安全评估制度。随后,《电子商务法》首次明确了电商平台开展算法精准营销的合规边界,确立了用户的算法选择退出权和平台算法问责制,标志着算法治理在法律层面的正式确立。此后,算法治理的立法步伐明显加快,相关规定虽仍散见于各项法律法规和部门规章,但内容愈发丰富和具体。例如,《网络信息内容生态治理规定》《在线旅游经营服务管理暂行规定》等规章对算法选择退出权和算法公平交易权作出了细化规定。2020年,《法治社会建设实施纲要(2020—2025年)》发布,标志着我国算法规制进入新阶段,为后续的人工智能立法实践指明了方向,规范人工智能应用的“法治之网”初具雏形。在此背景下,多个监管机构相继颁布了部门规章和规范性文件。《国务院反垄断委员会关于平台经济领域的反垄断指南》首次从反垄断视角对算法合谋和大数据杀熟加以规制。人力资源和社会保障部等八部门《关于维护新就业形态劳动者劳动保障权益的指导意见》等规范性文件的出台,进一步完善了算法应用的规制框架,为维护用户合法权益提供了更为细致的制度保障。这一系列治理实践,共同构成了我国人工智能治理的“1.0时代”,并呈现如下特征:第一,各监管机构分而治之,协同治理体系初见端倪。人工智能治理围绕算法治理展开。算法归责被置于电子商务、个人信息保护、反不正当竞争等主题之下,尚未成为专门监管对象。第二,以场景化治理推动事后监管,尚未针对算法全生命周期展开治理。第三,算法治理依据较为原则和抽象,颗粒度较粗且政策指引性较强。第四,尚未形成算法治理工具体系,人工智能治理仍蛰伏于平台治理和数据治理框架之中。

(二)以“小快灵”立法为主要特征的“2.0时代”

鉴于分散化治理存在针对性不强、指引模糊、效能受限等问题,我国人工智能治理体系化进程逐步加快。2021年9月,国家网信办等九部门联合发布《关于加强互联网信息服务算法综合治理的指导意见》(以下简称《算法指导意见》),明确了“利用三年左右时间,建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局”的目标。此后3年间,《算法规定》、《互联网信息服务深度合成管理规定》(以下简称《深合规定》)、《生成式人工智能服务管理暂行办法》(以下简称《生成式人工智能办法》)、《科技伦理审查办法(试行)》等相继出台,标志着我国人工智能治理进入以“小快灵”立法为主要特征的“2.0时代”。与以分散化规制为特征的“1.0时代”相比,“小快灵”立法模式契合人工智能高速迭代与广泛应用的特点,实现技术发展与法律规制的同步推进。这一阶段呈现如下特点:

1.以人工智能安全为内核构建综合治理体系

2014年,习近平总书记提出总体国家安全观这一重大战略思想,为新时代国家安全工作指明了方向。随着网络技术的迅猛发展,网络安全作为国家安全的重要组成部分,其内涵不断丰富和拓展。信息安全、数据安全、算法安全、模型安全等构成的人工智能安全具备主导技术发展和推动社会形态转变的基本潜质,一跃成为国家安全的崭新面向。

从技术逻辑、应用规律和形成机理审视,可将人工智能安全划分为微观、中观和宏观三个层面。微观层面的人工智能安全体现为算法和模型设计与运行的有序性、稳定性和可靠性。这不仅要求算法和模型摒弃偏见歧视,在特定条件下准确执行预期功能,还应确保系统不会出现失效或异常。人工智能系统的性能必须稳定可靠,与设计初衷保持一致,并能有效抵御各类窃取攻击。这一层面的安全是人工智能技术部署和应用的前提和基础。中观层面的人工智能安全聚焦于应用风险的可控性。事前阶段,人工智能设计和应用目的应具备合法性和合理性,不应将技术应用于非法领域,并采取技术和管理措施防控已知或者潜在风险。事中阶段,人工智能应用所带来的不良影响和预期风险应当可控、可逆。事后阶段,须建立有效的技术性和物力性救济措施,以降低或者消弭可能产生的不良影响。宏观层面的人工智能安全强调技术研发和运行生态安全可信。人工智能设计和应用不仅严格遵守法律法规,还应遵循社会主义核心价值观和伦理规范,有利于社会福祉的增进。

2.通过分类分级践行精准治理

我国对人工智能技术和应用的分类分级治理体系正在逐步完善。《算法指导意见》明确提出:“坚持风险防控,推进算法分类分级安全管理,有效识别高风险类算法,实施精准治理。”《算法规定》第23条进一步确立了算法分类分级管理制度,明确提出对“算法服务提供者实施分类分级管理”。《生成式人工智能办法》则将分类分级监管原则引入生成式人工智能服务领域。分类分级治理理念最早可追溯至2017年《互联网新闻信息服务新技术新应用安全评估管理规定》。该规定基于舆论属性、社会动员能力以及信息内容安全风险,初步构建了新技术新应用的分类评估制度。此后,算法和生成式人工智能的分类分级管理均沿袭并深化了这一思路。例如,《算法规定》提出根据“算法推荐服务的舆论属性或者社会动员能力、内容类别、用户规模、算法推荐技术处理的数据重要程度、对用户行为的干预程度”等指标实施分类分级管理。经认定属于具有舆论属性或者社会动员能力的算法推荐服务提供者,实施新技术新应用评估,履行更为严格的监管义务。

分类分级治理不仅契合人工智能治理国际共识,还反映了人工智能治理由单一维度向场景化、精细化方向转变的重要趋势。这种治理模式与人工智能设计规律高度契合,通过分类标识、逐类定级、分级管理的系统性方法,有效促进人工智能技术的合理应用以及风险全局的可控和有序发展。同时,其还将有限的监管资源精准适配至最为关键和亟须规制的应用场景之中,从而显著提升监管效能。

3.以安全主体责任为支点构建问责制

长期以来,技术中立常被作为反对技术监管的理由,影响了各国技术监管的主流话语,成为科技企业规避责任的重要托词。与传统技术相比,人工智能技术的模型结构和参数变动范围较大,自主学习和动态决策能力较强,人工智能服务提供者借此力主免责。然而,人工智能在部署和运行中的失当现象屡见不鲜,对其归责却面临多重挑战。伴随着科技哲学的伦理转向,技术规制的主流认知也从价值中立、技术中立逐步转向负责任创新。例如,《算法规定》第6条明确提出推荐算法的设计和运行应“向上向善”。在“技术向善”治理目标指引下,《算法规定》第7条确立了以算法安全主体责任为基础支点,逐步构建算法问责机制的基础路径。《深合规定》第7条和第8条规定,深度合成服务提供者应当落实信息安全主体责任,深度合成服务技术支持者和使用者承担信息安全义务。《生成式人工智能办法》第9条进一步明确,提供者依法承担网络信息内容生产者责任,履行网络信息安全义务。

从设计原理来看,我国构建的人工智能安全主体责任体现为以下特征:第一,安全主体责任围绕人工智能安全逐步确立。如前所述,人工智能安全体现为技术安全可靠、应用风险安全可控、生态安全可信的多维度治理要求。服务提供者需在技术、应用和生态层面履行安全治理义务,并就义务履行不善承担相应法律责任。技术层面的安全责任主要围绕技术机理审核以及数据安全展开;应用层面的安全责任聚焦用户注册、信息发布审核、安全评估检测和安全事件应急处置;生态层面的安全责任则侧重于科技伦理审查和营造良性产业生态。第二,安全主体责任呈现多层次递进特征。在基础治理层面,安全主体责任确保服务提供者设计、运行和部署的算法与技术是可被问责的,即通过规则设计实现对技术妨害与技术损害的责任认定和分配。在高阶治理层面,安全主体责任则超越“问责”维度,要求服务提供者对技术和服务“负责”。这就要求服务提供者对作用对象、利益主体以及社会、经济、生态影响承担更广泛的社会责任,包括对技术风险的妥善处置等,超越了基础层面主体责任的认定、分配和承担范畴。第三,安全主体责任贯穿技术生命周期,现阶段聚焦技术服务运行的结果责任。技术设计和运行体现为“数据输入—模型计算—决策输出”的流程。技术应用则呈现为“用户注册—算法生成信息服务—触达用户”的过程。我国在构建人工智能安全主体责任体系时,既面向平台基础服务,例如用户账号注册和审核,又涉及平台交易服务,例如信息发布审核、安全事件应急处置等,体现了对技术应用流程的全面覆盖。

4.以新型权利体系构筑外部约束

在安全主体责任主线之外,我国人工智能治理体系还通过赋予个体新型权利的方式构建外部约束机制。这一机制旨在激发用户参与治理的积极性,增强用户自主性和控制力,将用户转化为影响和优化人工智能治理的积极因素。以《算法规定》为例,其以事前、事中、事后视角赋予用户若干算法权利。事前阶段,用户享有算法知情权(第26条)、对算法推荐服务的自主选择权和退出权(第11条)以及用户标签删除权(第17条)。事中和事后阶段,对于可能对用户权益产生重大影响的推荐算法,用户还具有获得说明和救济的权利(第17条)以及获得人工干预的权利(第11条)。在备受关注的电商领域,还特别保障了用户的公平交易权(第21条)。这些权利的设置旨在科学构筑用户针对人工智能技术风险的识别预警机制、抵御对抗机制以及影响消弭机制,增强用户私权体系的韧性和实效性。

从设计机理来看,面向人工智能构建的新型权利体系具有两项特质。其一,借鉴国际主流权利设置机制,结合行业运行实况,构建符合我国行业格局的个体权利赋权路径。例如,欧盟和美国立法均致力于强化用户主体性,率先赋予用户自主选择和退出商业营销推荐服务的权利。我国采用类似制度设计,不仅赋予用户自主选择和退出权,还要求算法服务提供者以便捷可行的方式为用户行权提供便利,体现了对用户权益的全面保护。其二,遵循技术底层逻辑,创设具有中国特色的新型个体权利。例如,我国立法开创性地赋予用户选择和删除数据标签的权利。数据标签作为对用户信息分析后形成的特征标识,是导致算法歧视、算法不公的重要因素。赋予用户对标签的选择和删除权,实质上赋予了用户影响算法运行的权利,从“源头”环节切断推荐算法运行的前置条件,对算法服务提供者形成外部约束。这种新型权利体系的构建,不仅体现了我国人工智能治理的创新性,也展现了在保护用户权益与促进技术发展之间寻求平衡的立法智慧。

三、我国人工智能治理效能的提升与优化

人工智能作为智能社会的底层技术,引发了产业结构和社会结构的颠覆性变革。面对与数据共生、与算法同行的“数智社会”,科学防范和化解人工智能风险、规范其稳健有序发展已然超越单纯的技术治理范畴,成为国家治理和社会治理的重要命题。近年来,我国在“小快灵”立法思想指引下,实现了人工智能治理领域的初步法治化。然而,该种治理模式也暴露出横向协同不足、规范位阶不高等局限,一定程度上掣肘了人工智能的体系化治理进程。面向“小切口”、垂直领域出台的单行立法难以具备系统性、高位阶性、协调性等治理效能,因此需要一部基础性法律对人工智能技术和产业发展的治理需求予以系统回应,推动我国人工智能治理迈向以系统化、整全化立法为特征的“3.0时代”。值得关注的是,“人工智能法”已连续两年被列入国务院年度立法工作计划。全国人大常委会在立法规划中明确提出,“推进科技创新和人工智能健康发展”。在立法研究方面,学界、业界积极建言献策,多个立法建议稿相继涌现。然而,作为事关国家人工智能法治建设的基本法,“人工智能法”的制定过程需要更加审慎、科学、规范。目前,该法的制定正处于立法准备和立法调研阶段,尚未进入全国人大及其常委会的正式起草程序。鉴于此,本文认为,在“人工智能法”正式出台之前,有必要从强化和完善“2.0”阶段的治理方案的视角出发,结合人工智能治理的全球经验,探索进一步提升治理效能的推进思路。这不仅能为未来的“人工智能法”积累实践经验,也能在现阶段推动人工智能治理朝着科学高效、多元平衡与普惠共赢的方向发展。

(一)构建多维协同的人工智能分类分级治理机制

人工智能技术的跨域性、渗透性和复杂性远超传统技术,其引发的系统性风险挑战着现有治理框架的有效性。尽管我国已明确提出人工智能分类分级治理,但当前制度设计仍以原则和框架为主,精准性和指引性有待加强。本文建议结合领域、主体、结构、技术视角构建“四位一体”的分类分级治理体系。

第一,基于领域的分类分级治理。人工智能技术风险呈现显著的场景差异性,单一维度的风险评估标准难以回应其应用场景的多样性特征。因此,建议以领域为基点,结合市场秩序、社会秩序、传播秩序和生态秩序四个维度构建系统的评估体系。具体而言,可从以下维度加以考量:一是围绕市场秩序评估人工智能系统对市场竞争和产业发展的影响;二是从社会秩序视角关注人工智能系统对社会治理和公共安全的影响;三是围绕传播秩序评估其对信息传播和舆论生态的影响;四是围绕生态秩序评估其在自然环境、资源消耗等方面的影响。需要注意的是,四个维度并非彼此孤立。例如,人工智能系统可能通过数据积累和算力优势形成支配地位,从而影响传播多样性,进而对社会秩序产生深远影响。因此,应采取整体性思维,借鉴算法影响评估制度机理,构建细化的评估标准体系,设置合理的维度权重,实现风险的综合研判。

第二,基于主体的分类分级治理。人工智能产业发展过程中,科技企业以数据、算法、算力等关键要素的有机整合,形成独特的创新优势。这种优势地位往往伴随着差异化的外部性。以基础模型开发为例,头部科技企业凭借其雄厚的技术积累和数据优势,往往能够通过持续迭代优化形成实质性技术壁垒。这种优势可能通过“垂直整合”的方式延伸至应用层面,导致市场结构固化。特别是在模型训练、计算资源等方面的规模效应,可能强化“赢者通吃”的市场格局,挤压中小企业的发展空间。鉴于此,应从主体维度构建差异化监管机制。对具有显著市场影响力的头部企业,应设置更高的合规水位。同时,针对中小企业的创新活力和资源约束,可探索“监管沙盒”机制实施更轻量灵活的监管,允许中小企业在特定条件下进行创新试验,通过逐步提升合规要求的方式引导其健康发展。

第三,基于结构的分类分级治理。该治理路径聚焦人工智能技术堆栈层级特征。从技术架构来看,人工智能技术堆栈呈现出清晰的层级化结构,包括硬件层、云计算层、模型层和应用层。这种层级化特征决定了技术风险具有显著的层级属性和传导效应,需要监管体系作出制度回应。现有分类分级治理路径多关注单一层级,忽视了不同层级间的结构性关联。因此,还应从整体视角构建分类分级治理框架。具体而言,在硬件和云计算基础设施层,市场进入壁垒较高,规模效应明显,容易形成高度集中的市场结构。因此,这一层级的治理重点应聚焦市场垄断风险的防治。在模型层,风险复杂性进一步提升。大模型的训练过程涉及海量数据的采集、清洗和使用,其中既包含数据合规性风险,也包含模型安全性风险。特别是在模型训练和优化过程中,可能出现数据污染、后门攻击等安全隐患。针对这些风险特征,应建立全流程监管机制,包括数据来源审查、训练过程监测、模型安全认证等。同时,

还应关注模型访问机制的规范化,防止模型被滥用。在应用层面,则尤需警惕模型组合和交互以及模型自主性带来的系统性风险。特别是多个模型交互组合时可能会产生“叠加效应”,即单个模型中的微小偏差可能在系统层面被不断放大,最终导致难以预测的系统性风险。

第四,基于技术的分类分级治理。这一治理路径侧重于人工智能系统的能力边界。该种划分方法以系统的功能复杂度和通用性程度为基准。例如,欧盟人工智能风险分层报告提出,可将人工智能系统划分为位于技术前沿的通用目的人工智能模型、非前沿的通用目的人工智能模型,以及面向特定任务的生成式人工智能工具。与之呼应,加州《前沿人工智能模型安全创新法案》亦尝试通过研发成本和计算量等技术指标开展分类分级。从治理机理来看,以研发成本、计算量以及技术能力作为分类标准可能存在局限性,因其建立在技术投入与风险程度正相关的假设之上,易导致监管资源的错配。但完全否定技术能力维度的分类标准也可能有失偏颇。技术能力,特别是系统的通用性程度往往与其潜在影响范围密切相关。以大模型为例,其广泛适用性使其能够被部署于多样化场景之中,这种“范围外溢效应”本身就可能构成一种系统性风险,需要施加额外监管。因此,更为合理的制度设计是将技术能力分类分级与应用领域、主体特征以及结构属性分类分级方法有机结合,构建专业化的评估基准,确保评估指标的可测量性和可比性,为分类分级治理提供客观依据。

构建多维度交织的分类分级治理体系是破解人工智能治理难题的关键举措。在具体实践中,要注重定性评估与定量评估的有机融合。由于某些风险因素难以量化,还需建立专家评议等定性评估机制予以补充。此外,由于人工智能风险水平具有动态变化特性,还应注重事前评估与持续评估结合,构建动态监测和调整机制。

(二)全域打造软法与硬法深度耦合的规则体系

人工智能技术的虚实结合、扩展嵌入、跨域应用等特质,致使传统监管方法的领域性、滞后性、碎片性在应对挑战时力不从心。因此,人工智能治理范式不可避免地转向以协同性、动态性、分层性、复合型为特征的“软法”治理。《算法指导意见》明确提出应创新技术监管模式,逐步建立治理机制健全、治理结构高效、有法可依、多元协同、多方参与的治理机制。因循这一顶层设计,结合全球人工智能治理经验,未来应围绕人工智能安全分阶段、分步骤地构建以技术标准、伦理规范、可信认证为代表的软法治理体系,推动与硬法的深度耦合、动态衔接。

首先,应尽快在关键领域构建技术标准体系。人工智能技术标准兼具技术性、社会性和可通约性,可凝聚技术共识、紧跟技术动态、涵纳规制需求,在引导人工智能技术设计和部署方面具有关键作用。这种标准化体系在人工智能产业发展和治理领域的基础性、引领性和支撑性作用,为实现硬法与软法的深度耦合、动态衔接提供了重要契机。然而,我国人工智能标准体系目前存在明显的结构性失衡:标准主要集中于应用层,而在基础层、框架层、模型层相对滞后。特别是在基础共性、基础支撑、关键技术标准等方面,我国的标准体系仍显薄弱,亟须加速完善。为应对这一挑战,国家层面采取了一系列战略性举措:《人工智能标准化白皮书》和《国家新一代人工智能标准体系建设指南》为人工智能标准化体系建设提供宏观指引;《国家标准化发展纲要》进一步明确了推进标准强国战略的路线图;《国家人工智能产业综合标准化体系建设指南(2024版)》更是提出了量化目标,即到2026 年,我国新制定国家标准和行业标准50项以上,加快形成引领人工智能产业高质量发展的标准体系。因此,在我国人工智能治理从“2.0”迈向“3.0”的关键阶段,明确人工智能关键领域和重点标准的规划路径,更好地借助技术标准引导人工智能安全治理,加强技术标准与法律法规的协同效应,推动技术标准的国际化进程成为当务之急。

其次,构建人工智能伦理规范与法律法规的衔接融合机制,推进人工智能伦理法治化进程。人工智能治理作为一项复杂且长期的系统工程,其有效性与人工智能的可规制性及治理规则的丰富性和层次性密切相关。人工智能伦理规范作为凝聚人类共识、彰显技术发展底线思维的重要载体,对人工智能安全治理的意义不言而喻。如何将科技伦理规范有效转化为具有法律约束力的规则,并在实践中有效落地,仍面临诸多挑战。为此,可从三个方面多维推进:第一,人工智能立法过程中涉及根本原则和基础术语时,应注重以科技伦理规范和技术标准为指引,将伦理价值融入法律规则的微观建构过程,增加科技伦理与法律规则的对应映射机制。第二,加强统筹协调,推动中国人工智能产业发展联盟、中国人工智能学会人工智能伦理与治理工作委员会等社会组织发挥桥梁作用,依据人工智能伦理要点和法律法规制定评估准则和要点清单,协同推进人工智能安全治理的精细化落地。第三,切实推动《科技伦理审查办法(试行)》的落地实施。推动企业成立科技伦理审查委员会,建立面向人工智能合规与人工智能科技伦理的内部治理机制,将抽象的伦理原则释放到具体研发和运行实践中,将治理要求贯彻到全生命周期,打造贯穿全域、互有侧重、高效协同的综合治理格局。

(三)以技术赋能推动人工智能监管的智能化转型

人工智能治理场景与传统技术治理有所不同,下游场景创新活跃,上游技术迭代迅速,因应之道在于探寻法律和技术二元同构的全新路径。通过技术赋能数字化监管,打造数字监管基础设施,推动监管的智能化转型。

首先,为提升监管效率,实现敏捷治理,我国应着力发展人工智能监管和合规的数字化表达技术,推动监管规则代码化,以智能化助推合规成本最小化,建立覆盖全生命周期的监管数字化基础设施。实践中,为解决传统监管迟滞和成本高企的问题,已经出现建立认知计算应用程序,通过数字化监管协议将“机器可读”规则应用于金融科技企业,辅助其合规审核和持续合规评估的监管智慧化实践。在人工智能治理领域,加拿大、新加坡等国亦率先探索与人工智能技术相匹配的智能化监管技术。例如,加拿大以工具包和评估系统形式将算法影响评估规则代码化,实现评估的流程化和迅捷化。展望未来,我国应适时探索人工智能安全监管要点清单,尝试在特定领域将安全合规要求与执行反馈机制代码化,通过开发“可交互、可认定、可分级、可审计”的监管科技,在保护隐私和商业秘密的前提下,将监管需求嵌入监管技术,实施全链条动态监管。

其次,构建精准化、智能化的人工智能监管工具体系。人工智能治理不能因循守旧,其技术机理和发展态势决定了监管机关需要主动探索触发式监管、协同监管、智慧监管、前瞻性监管、高效能监管和定制化监管等前沿监管范式。这些前沿监管理念的落地实施均需要监管科技的稳定支持。就我国人工智能应用现状而言,可就以下领域重点探索:完善人工智能监管沙盒运行的匹配性监管技术,构建人工智能应用的模拟测试工具体系,允许创新技术在受控环境中开展试验性监管;构建安全、高效的跨机构监管数据共享平台,打破监管主体间的信息壁垒,增强监管机构的跨域协作能力;开发高风险技术研判与风险预警技术、高风险人工智能服务与准入风险防控技术、人工智能风险行为智能监测与取证固证技术等。这些监管技术的协同发力,能够为我国构建一个态势全面感知、趋势智能研判、资源统筹协调、行动人机协同的人工智能安全综合治理体系营造坚实的硬件基础。

四、结 语

人工智能作为引领新一轮科技革命和产业变革的基础性、战略性技术,已然成为大国竞争的重要着力点。当前,人工智能领域的国际竞争已超越纯粹的技术和产业层面,实质上拓展至以法律规制和制度构建为代表的治理竞争,形成了“技术赛道”、“产品赛道”和“制度赛道”多维并行的复合格局。本文通过对全球人工智能治理趋势的深入分析,为我国制定前瞻性治理策略提供了理论依据;通过系统梳理我国人工智能治理的演进路径,揭示了治理模式转型的内在逻辑。一个兼具敏捷、韧性、包容性和审慎性的人工智能治理体系能够善政、兴业、惠民。希冀本文的思考能够激发更多的讨论,推动人工智能治理理论和实践不断完善,为实现人工智能治理的安全高效、多元平衡和普惠共赢贡献力量。

(原文刊载于《华东政法大学学报》2025年第1期)

来源:中国视窗

相关推荐