AI风险治理亟需产业实践方案

B站影视 2025-01-14 16:45 3

摘要:人工智能技术加速演进,在释放技术价值红利的同时,其带来的复杂风险挑战引发全球关注。各国机构日益关注对人工智能风险认识的系统性,主要经济体对人工智能发展的监管呈现出松紧有别的态势。

人工智能技术加速演进,在释放技术价值红利的同时,其带来的复杂风险挑战引发全球关注。各国机构日益关注对人工智能风险认识的系统性,主要经济体对人工智能发展的监管呈现出松紧有别的态势。

将人工智能风险治理方案落实到技术革新、产品开发和应用部署中去,是回应社会关切、解决突出矛盾、防范安全风险的必然选择。2024年12月,中国信通院发布《人工智能风险治理报告(2024)》,报告提出面向产业的人工智能风险治理实践方案。

同期,首批17家人工智能相关企业签署了由中国人工智能产业发展联盟(AIIA)起草的《人工智能安全承诺》,承诺通过产业自律,共同促进人工智能应用以人为本,智能向善。

当前产业界在人工智能安全治理方面的实践进展如何?面临哪些困难?如何发展负责任的人工智能?针对这些问题,我们访谈了《人工智能风险治理报告(2024)》撰写专家——中国信通院人工智能研究所工程师、中国人工智能产业发展联盟人工智能安全治理委员会治理组组长呼娜英。

她指出,当前产业界主要从管理和技术两个维度开展人工智能安全治理,取得了进展,同时还存在诸多问题,比如监管为产业发展留出的空间和企业自律效果之间还存在差距,人工智能技术本身的复杂性和不确定性也使得其治理存在难度。

中国信通院人工智能研究所工程师、中国人工智能产业发展联盟人工智能安全治理委员会治理组组长 呼娜英

从框架规范到精准治理

南方周末:全球日益加强对人工智能风险的关注。整体来看,我国人工智能安全治理呈现什么特点?

呼娜英:党的二十届三中全会提出建设人工智能安全监管制度,整体推进制度规范完善和包容审慎监管。从顶层设计来看,我国展现新型举国体制治理优势,着重保障人工智能应用安全,整体上构建了从框架规范到精准治理的体系。

《新一代人工智能治理原则——发展负责任的人工智能》《新一代人工智能伦理规范》等文件勾勒出了我国人工智能安全治理的基本框架和行动指南。《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等部门规章,延续人工智能治理领域精细化的立法特征,针对具有舆论属性或社会动员能力的人工智能应用场景进行规制。

从产业实践看,企业主要从管理和技术两个维度开展人工智能安全治理工作。在管理方面加强全流程管控,提升治理能力。技术方案逐步向一体化和定制化发展,涵盖从风险识别、评估到防御等多个环节。

南方周末:人工智能存在自身安全和衍生安全两大类风险,应对这些风险存在哪些突出挑战?

呼娜英:就自身安全而言,人工智能技术应用相关主体针对数据、模型、系统、基础设施本身或叠加带来的风险开展持续“识别、评估、应对”的机制仍需完善。

衍生安全重点体现在应用层面,这是公众和用户接触较多的领域。一方面,人工智能产业链长,产品及服务涉及多利益攸关方,诱发衍生安全的归责主体认定存在困难。另一方面,尚没有合适的方法论来评估人工智能产品及服务对于诱发个人、组织、社会、国家乃至更大范围的风险影响,而人工智能赋能千行百业对于各垂类行业的风险影响评估更为困难。

技术复杂性增加治理难度

南方周末:企业在人工智能安全治理方面的实践进展如何?

呼娜英:当前人工智能企业在人工智能安全治理方面已经有了进展。如前所述,企业主要从管理和技术两个维度开展安全治理工作。管理体系更加重视全流程管控,一方面,设置内部治理组织,统筹人工智能治理工作,如阿里巴巴、百度等企业成立了科技伦理委员会;另一方面,发布内部准则指引,指导具体实践,如商汤科技发布了产品伦理风险评审指引,蚂蚁集团出台了生成式人工智能大模型及应用管理规范。

尽管如此,企业在人工智能安全治理方面仍面临诸多问题。从合规角度来讲,人工智能监管法律的推出需要把握立法节奏,给技术和产业留出发展空间,而尚未成体系化的标准规范导致企业在实际执行中仍与相关治理要求有所差距。从技术角度讲,人工智能技术本身的复杂性和不确定性,使得实现人工智能系统的安全可控的难度加大。

此外,企业之间在安全信息共享、联合防范等方面的合作还不够紧密,难以形成有效的安全防护合力。

南方周末:AI换脸、AI魔改影视作品等现象引发热议,治理这些乱象,AI产品提供者、AI服务平台以及AI使用者之间应该如何协作?

呼娜英:作为深度合成技术的典型应用,AI换脸实际上是一个老问题。伴随着开源项目持续增长、技术成熟度相对较高、应用门槛不断降低,一张照片就可以实现直播流中人脸的高精度实时替换。因此,类似应用和乱象在网络上比较常见。

技术应用深度赋能,落地应用势不可挡,完全禁止这些应用或现象并不现实,需要的是形成健康的应用生态。

产业组织可以推动AI使用规范准则的制定,为使用者提供清晰的行为指引,明确不可接受的使用场景和后果。

服务提供方可通过技术手段建立合规使用的约束机制,如引入身份认证、记录追溯以及有害内容过滤系统,从技术层面预防滥用现象。还可以推广负责任的AI技术应用案例,通过透明化的开发流程、可信赖的产品展示来引导公众正确看待和使用AI技术,从而形成全社会对AI技术的理性认知和使用习惯。

AI服务使用者也需要不断加强数字素养,了解数字产品的使用规范和基本的法律法规,正确使用数字产品和服务,拥抱数字未来。

自律承诺是获得社会信任的关键要素

南方周末:中国人工智能产业发展联盟在推动人工智能安全治理方面开展了哪些工作?

呼娜英:2023年12月底,AIIA成立了人工智能安全治理委员会,委员会设立了治理组和安全组两个工作组,希望从“道与术”两个方面推动人工智能安全治理工作走深向实。治理组主要围绕人工智能治理的方法论,为相关主体开展人工智能建章立制及管理工作提供指引;安全组重点开展人工智能安全工具箱建设,打造安全评估、监测和防护三大核心能力。

以治理组工作为例,一方面凝聚产业力量推动行业自律,共建产业生态。2024年12月,AIIA研究起草并发布了《人工智能安全承诺》,首批17家行业领军企业正式签署承诺。承诺内容涵盖风险管理机制、模型安全测试、数据安全保障、基础设施安全、增强透明度以及开展前沿安全研究六个方面,旨在从产业视角出发,开展贯穿组织建设、模型研发、部署、应用的人工智能安全风险防控,务实推动相关单位提升安全能力。

另一方面聚焦风险治理,为企业提供治理框架。不久前我们发布了《人工智能风险治理报告(2024年)——构建面向产业的人工智能安全治理实践方案》,希望为人工智能产业主体实现技术发展与安全保障提供解决方案;我们正在开展《人工智能系统风险管理能力要求》的标准编制工作,从总体要求、通用要求、具体要求三个层面搭建人工智能系统风险管理能力要求体系。

南方周末:展望未来,对于推动人工智能产业健康、可持续发展有哪些建议?

呼娜英:当前,人工智能治理已经处于从原则走向实践的关键阶段,需要通过更加务实的举措开展安全治理工作。

产业自律是获得社会信任的关键要素。AIIA发起的《人工智能安全承诺》就是希望凝聚产业界守护人工智能安全、促进人工智能向善的基本共识,共同应对技术变革带来的复杂挑战。

安全技术是人工智能产业健康发展的有力保障。产业各界需要合力推动前沿人工智能技术应用工作,通过标准制定、测试方法构建、数据集积累、生态体系验证等,形成人工智能安全“技术预研-产业验证-生态运营”的良性循环,不断推动人工智能安全治理的稳健发展与应用。

南方周末研究员 侯明辉

责编 孙孝文

来源:南方周末

相关推荐