鲁斯齐|生成式人工智能时代企业数字责任的理念革新与法律化路径

B站影视 2024-12-31 09:00 3

摘要:人工智能带来的伦理风险和道德困境,需要企业和政府共同承担起人工智能治理的责任。引入“企业数字责任”的概念,可以作为应对数字化时代共治挑战的方案。企业数字责任既遵循企业社会责任的分析框架,又在行为目标、行为主体、治理维度、责任内容等多方面进行革新。法律作为企业数

人工智能带来的伦理风险和道德困境,需要企业和政府共同承担起人工智能治理的责任。引入“企业数字责任”的概念,可以作为应对数字化时代共治挑战的方案。企业数字责任既遵循企业社会责任的分析框架,又在行为目标、行为主体、治理维度、责任内容等多方面进行革新。法律作为企业数字责任的重要推动力量,企业数字责任法律化有其正当基础,在法律化导向下可以将其类型化为遵守法律规则的企业数字责任、遵守法律原则的企业数字责任、超越法律的企业数字责任三个层次。法律化的实现机制是激发企业社会责任和伦理坚守的核心,可以通过规范化路径,构建硬法底线治理和软法协同治理的治理网络;通过反身法路径,建立企业数字责任报告制度与第三方认证评估制度等外部激励机制;通过可持续公司法路径,落实董事会架构优化与董事合法义务建构等企业内部多层次治理方案。

引言

自数字技术发展以来,企业社会责任的边界就在不断拓宽。人工智能技术跃迁带来的自主性、学习性和不可测度性,不仅重塑了传统的商业模式,对人们的工作和生活产生深刻影响,而且对政府监管的边界和能力产生挑战。从web1.0时期数字技术从属人类决策,到web2.0时期数字技术辅助人类决策,再到web3.0数字技术主导人类决策,数字技术已经开始以超出人类预期的方式使用,并对不同的利益相关者和整个社会造成影响。生成式人工智能技术爆发后,算法歧视、算法合谋等现象进一步涌现。人工智能带来的伦理风险和道德困境,需要企业和政府共同承担起人工智能治理的责任。

目前,对人工智能承担社会责任的规定多见于宏观政策文件和法律法规中的倡导性条文。监管不确定、监管延迟、监管不连贯等现实情况,无法给创新者以稳定的预期。因此,如何以制度设计激发企业的社会责任和伦理坚守成为首要任务。国际上越来越多的学者对技术如何影响企业社会责任展开研究,更有学者提出应当建立“企业数字责任”作为应对数字化挑战的方案。国际学者已经展开了关于企业数字责任与企业社会责任之间关系、企业数字责任的定义、企业数字责任如何评估等相关讨论,国内学者也对平台企业社会责任、数字时代企业社会责任内容深化进行了一定的探讨,但整体上关于企业数字责任的研究还在起步阶段。目前,仅有一篇管理学论文明确提出“企业数字责任”这一概念。国内学界不仅缺乏对企业数字责任的针对性研究,更加缺乏从法学视角下对企业数字责任的研究。因此,本文首先对企业数字责任这一概念和范畴进行厘清,然后以企业数字责任法律化为导向,讨论了企业数字责任法律化的正当基础与具体类型,最后从规范化路径、反身法路径、可持续公司法路径三个层面对企业数字责任的法律化路径进行系统性设计。

一、企业数字责任的理念革新

国际上对企业数字责任的关注主要伴随数据的大规模利用而兴起。虽然对计算机伦理的讨论在20世纪中叶已经出现,企业社会责任运动在20世纪60年代已经开始,但由于计算机技术的商业化程度较低,应用场景较少,企业数字责任在2015年才被Cooper、Siu和Wei单独提出,并引起了全球尤其是欧洲学者的关注。学术界主要围绕企业数字责任与企业社会责任的关系、企业数字责任的概念界定、企业数字责任的范式革新等方面展开讨论。

(一)企业数字责任与企业社会责任的关系

企业数字责任与企业社会责任的关系是国际上关于企业数字责任的主要纷争之一。关于两者的关系主要有以下三种观点:

第一,企业数字责任独立论。该观点以Lobschat学者为代表,他认为数字技术的独特性是其区分于企业社会责任的依据,数字技术本身及其引发的社会问题已经超过了企业社会责任的传统范畴。数字技术在发展过程中还出现了替代人类决策、对现实生活的重塑能力、技术的不透明性等特点。这些数字技术特性引发了隐私、自治、安全、人类尊严、正义和权力平衡等挑战原有企业社会责任的新议题。第二,企业数字责任从属论。该观点以Herden学者为代表,他认为企业数字责任是企业社会责任的一种延伸,是企业伦理道德的数字化,仍然适用于传统的金字塔结构,只是需在内容上作出更新。在范式上,企业数字责任的可持续发展目标、作为企业管理与发展战略工具等方面都与企业社会责任具有一致性。第三,折中融合论。该观点认为企业数字责任仍然遵循企业社会责任的分析框架,但在具体内容上有其独特的技术特点。企业数字责任与企业社会责任范式的重叠性以及数字世界与物理世界融合的潜在趋势是折中融合论的主要论点。德国学者WeiBenberger和Marrocco还提出,企业数字责任应被视为企业社会责任中的横向功能,并提出金融、环境、社会、治理四个层面的指南针模型。

笔者认为,应当从折中融合论的角度思考两者的关系,并且企业数字责任应被视为企业社会责任中的横向功能,把数字技术实践列为国际《社会责任指南标准(ISO26000)》中除组织治理、人权、劳动实践、环境、公平经营实践、消费者问题以及社区参与和发展之外的第八维度。原因如下:虽然技术变革会引发生产组织方式和社会思潮的变革,但技术的发展仍离不开社会关系的范畴和人的范畴,仍然可以通过扩展原有的理论进行规范。在未来,虚拟世界将与物理世界共同存在、相互交织、相互影响。数字技术将被吸收到生活结构中,数字伦理将因此被有效地吸收到普通伦理中,成为普遍适用的道德准则的一部分。我们既应当认识到企业数字责任属于企业社会责任的一部分,又认识到企业在数字化时代面临着新的道德挑战与理论范式。通过革新企业社会责任内涵、新增数字技术维度,不仅能够满足其独特性需求,而且能够保持原本理论框架的稳定性与一贯性。

(二)企业数字责任的概念界定

关于企业数字责任概念界定,不同学者有不同的观点,其一,有学者强调企业数字责任的道德性。比如WeiBenberger和Marrocco认为企业数字责任是一种自愿的企业价值导向,以确保企业负责任地使用数字技术。其二,有学者强调企业数字责任的法律性。Price认为企业数字责任是关于保护人们的数据权利以符合法律法规的一种责任。其三,还有学者认为企业数字责任具有道德性与法律性等两种复合属性。Driesens认为企业数字责任是一种自愿承诺,但这种自愿性需要满足遵守处理客户数据、机密、知识产权等方面的法律法规的前提,在此基础之上可以扩展到更广泛的道德考虑和组织运营的基本价值观。Lobschat认为企业数字责任这套价值观和规范不仅建立在信息伦理学或网络伦理学等伦理理论之上,人类义务和责任宣言、世界人权宣言或联合国人权宣言等法律规范框架也可以作为企业数字责任的正当性基础。

可以发现,从伦理责任发展而来的企业数字责任既具有法律面向,也具有纯粹道德面向。因此笔者认为,企业数字责任是指公司在谋求最大数字经济利益的同时,需要遵守数字法律和道德要求,并自觉保护并促进人类福祉,促进经济与社会的可持续发展。企业数字责任是企业社会责任在数字技术发展背景下的具体表现形式,是兼具法律性和道德性的综合性责任。虽然企业数字责任的法律性面向越来越突出,并出现了社会成本的普遍义务内部化的导向,但其自愿性面向仍然可以作为赢得声誉和市场竞争定位的途径,并可以作为灵活适应未来的发展以及应对监管盲区的工具。

(三)企业数字责任的范式革新

第一,行为目标由外生到内嵌。一方面,通用型人工智能对人类的潜在威胁强化了人类命运共同体的理念;另一方面,人工智能的技术特征决定了以逐利为导向的不合法行为会反噬企业核心技术的稳定与研发。数据污染本身会引入噪音、错误或偏见,导致数据二次污染与偏见加强。同时,当算法模型使用污染的数据进行训练,模型的鲁棒性和准确性会降低。第二,行为主体由点到面。除平台企业在数据权力、算法权力、平台权力聚合下成为责任承担主体以外,“生成式大模型+辨识型小模型”全新商业模式下诞生生成式人工智能技术开发者、生成式人工智能服务提供者、生成式人工智能服务使用者等新主体。第三,治理维度从单维度到多维度。随着数字技术的发展,目前已经形成针对描述性功能、标准化功能、重塑功能的三个治理维度。第四,责任内容从数据治理到算法治理。商业模式从数据驱动变为算法驱动,责任内容也从数据治理迈向算法治理。其中,数据治理责任是基石之治,高质量的数据集是可靠数据分析结果的先决条件。算法治理责任是关键之治,操纵算法的能力意味着操纵我们看到的世界的能力。

二、企业数字责任法律化的正当性基础

在传统科技治理方案失灵之际,中国发布的《新一代人工智能治理原则》中提出政府应该转向敏捷治理,强调与企业开放协作共治,企业应以高度的社会责任感与自律意识共同承担起法律责任与伦理责任。企业数字责任缺失下的风险外溢、风险外溢背景下事前干预的必要性、法律工具对事前干预的有效性、公司目的转向下法律化路径的可能性,可构成企业数字责任法律化的正当性基础。

(一)企业数字责任缺失下的风险外溢

企业社会责任缺失下的风险外溢表现在三方面:其一,对人类感知、判断等根本性能力的威胁。人工智能生产内容对人类知识来源的污染以及算法对人类情感和决策的操纵,会从根本上侵蚀人类自主决策能力,甚至形成对人类主体性的潜在威胁。其二,对政府权力、地位的威胁。数据与算法在人工智能时代成为新的权力生产要素,数字巨头通过“技术置换权力”形成第二大权力中心,算法黑箱隐患下的自动化决策嵌入公权力运行等方式都会对政府权力地位的唯一性产生威胁。其三,人工智能全面嵌入日常生活对老年人、未成年人、劳动者等利益相关者的威胁。具体表现为对劳动者剩余价值的压榨、对人类员工的替代、对用户意思自治空间的侵犯、对未成年人意识行为的塑造、对老年人智能化适应能力的挑战等等。当数字企业成为日常生活必需的基础设施,只能选择牺牲自治意思来换取不落入“数字鸿沟”。

(二)风险外溢背景下事前干预的必要性

企业作为市场的参与者,在追求个体理性时可能会以牺牲集体理性为代价。由于算法的不可解释性,传统法律中“行为-责任”的逻辑链条被算法黑箱切断,“技术错误”成为人工智能企业卸责的借口。同时,人工智能风险散布于人工智能产业链的各个环节,责任主体出现由中心化到去中心化的趋势,社会的风险水平整体上升。由于人工智能模型接入应用范围广、数据清洗与算法删除工作量大难度高、人工智能产品对人类决策行为影响力难消除,导致人工智能事后治理面临极高的成本。

根据委托代理理论,政府是社会公众的代理人,当委托人(社会公众)利益受到损害时,代理人应当积极承担起维护委托人利益的责任。政府可以利用其公权力的强制性和权威性,通过制度建设或者政策引导的方式改变企业履行或者不履行社会责任的成本和收益,从而达到促使企业履行社会责任的目的。

(三)法律工具对事前干预的有效性

随着数字世界和物理世界的融合,数据成为重要的生产要素,算法成为产业升级的引擎。世界各国都通过数字技术发展的伦理规范、数据算法规范等制度严格约束企业数字技术的发展,引导企业负责任开展技术创新和数据应用。中国、欧盟、美国等都争相制定人工智能法案或促进政策,试以法律作为工具形成人工智能负责任发展的轨道已成为世界共识。法律法规是推进治理企业数字责任最有效的外部手段之一,企业数字责任也出现从自愿性转向强制性的趋势。

针对数字技术发展的底线问题,法律工具可以直接制定专门的、系统的强制性规范对侵犯公民个人利益和社会公共利益的行为进行有效约束,调整社会利益关系,回应社会需求。针对政府干预效果不佳的领域,法律工具可以通过软性规范管理和规范社会组织,通过各种方式促使企业履行社会责任,培育合理的现代社会结构,通过排名意识、责任意识、榜样意识等增加行业企业的数字责任感知,争做向上向善的数字企业。

(四)公司目的转向下法律化路径的可能性

1930年代“贝利一多德”论战以及1960年代的“贝利一曼恩”论战,为企业社会责任的承担提供了充分的论据。根据利益相关者理论和社会契约理论,每个和企业订立显性契约或隐性契约的利益相关者都以某种形式向企业提供了某种资源,作为企业签约对手方,应当承担社会责任来满足每个利益相关方的利益。公司经济功能和社会功能的双重目的和双重角色为企业社会责任的法律化提供依据。

在生成式人工智能技术时代,人工智能企业与社会之间的共生共创共识以及人类命运共同体的科技伦理共识,让企业长期主义与逐利需求更加合二为一。不仅所有人工智能大模型企业之间形成“一荣俱荣一损俱损”的共生关系,人工智能对人类主体性的潜在危险也让企业和社会公众站在统一战线。人工智能时代公司目的的统一性让企业社会责任的法律化更加具有正当性。

三、企业数字责任的法律化类型分析

对企业数字责任进行法律化类型分析是构建企业数字责任法律化路径的前提。在法律规范层次上,企业数字责任可以分为强制性和半强制型、自愿型两种规范层次,具体可以类型化为遵守法律规则的企业数字责任、遵守法律原则的企业数字责任、超越法律的企业数字责任三个维度。

(一)企业数字责任的规范层次

在智能算法深度嵌入企业研发和经营的时代,人工智能企业数字责任在体例上仍然遵循民法典、公司法为总纲进行概括性规定,以人工智能相关法律法规及相关标准为分支进行具体性规范的企业社会责任立法体系,但在具体规范内容上进行了革新。对于企业数字责任的具体规范包括两个层次:

第一,强制性和半强制型企业数字责任规范。其一,网络安全法、电子商务法、数据安全法、个人信息保护法等法律和《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”)等规范性文件,成为数据、算法、内容治理的基础法律规则和法律原则的来源。其二,全国信息安全标准化技术委员会、全国信息技术标准化技术委员会、中国通信标准化协会也在《国家新一代人工智能标准体系建设指南》的引领下发布强制性标准对法律法规进一步细化,形成可直接对接的技术规范。在上述两类文件中,主要针对算法责任、数据责任、内容责任进行具体规范,对企业数字责任的概念虽未进行直接概括的规定,但也以倡导性的法律原则强调企业主体责任,强化科技伦理意识,鼓励企业向上向善发展。

第二,自愿型企业数字责任规范。自愿型企业数字责任是超越法律的社会责任,可由国家政策和自律规范作为其精神引领。其一,国务院、地方政府公布的一系列产业政策。如《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划(2018-2020)》《国家新一代人工智能创新发展试验区建设工作指引》《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》等。其二,企业自主加入的国际或国内企业社会责任的自律性规范。如百度、腾讯、阿里、华为等互联网头部企业参与制定的自律行业标准和规范,浙江大学与阿里云联合起草的《法律大模型评估指标和测评方法(征求意见稿)》等团体标准。

(二)企业数字责任的具体类型化

以法律化路径为导向,笔者将企业社会责任分为以下三个维度:第一维度是遵守法律规则的企业数字责任,即以《暂行办法》《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》《具有舆论属性或社会动员能力的户互联网信息服务安全评估规定》等为核心的数据算法法律法规及相关强制性标准明文规定的企业社会责任。第二维度是遵守法律原则的企业数字责任,即法律虽未明文规定,但立法目的对该企业行为予以期待的数字责任。其通常表现为在领域上与遵守法律的社会责任重合,但在标准上高于遵守法律的企业社会责任。例如,个人信息保护法中的最小损害原则、公开透明原则、信息安全原则等。第三维度是超越法律的企业数字责任,即法律条文对其未有明文规定,法律原则对其也无相应期待的企业数字责任。具体表现有二:一是企业追求合乎道德的数字实践,在法律框架和治理之外以正直、公正和公平的方式,满足利益相关者更高的期望。例如,在2023年7月,OpenAI公司已经宣布将投入20%的算力资源来支持人工智能监督模型的研发,设计一个特定的评估企业社会责任的人工智能系统,将人类的监管逻辑转换为机器可读的指令,构建一个与人类水平相当的、负责模型对齐的AI监管者,确保人工智能的安全。二是企业可以通过对社会有益方式进行慈善活动,主动促进数字社会的可持续发展。例如,企业承诺以促进可持续发展的方式分享知识和使用数据及新技术,通过开展培训和知识共享活动,将数字技术的应用知识传授给其他企业或组织,帮助他们提高数字化转型的能力;企业通过合作和共享资源,共同开发和应用新技术,资助数字社会创新,解决共同面临的可持续发展挑战等等。其三者之间的相互关系见图1。

图1 企业数字责任内涵的三层次图示

四、企业数字责任的法律化路径

企业数字责任法律化的实现机制可以通过强制性企业社会责任规制路径、软法规制路径、反身法路径、可持续公司法路径等四种方法实施。根据数字技术的特性以及生成式人工智能时代的切实需求,在宏观层面,可以通过“硬法—软法”协同治理的范式作为推进企业数字责任法律化的顶层设计;在中观层面,可以通过反身法路径的“评价-反馈-改善”形成正反馈循环,激励企业承担起社会责任;在微观层面,可以通过可持续公司法路径落实企业内部多层次治理的方案设计。

(一)规范化路径:“硬法—软法”治理网络的顶层设计

我国市场驱动、政府主导的人工智能产业情况与强制性法为基础、软法协同治理的范式具有一致性。硬法底线回应企业数字责任中的最低要求,软法协同治理回应企业数字责任的向善愿景。通过“硬法—软法”范式推动政府、企业、行业组织等多元主体的共同参与治理,形成“政府监管——行业服务——企业自律——公众参与”的协同治理网络。

1.软法硬法协同治理

第一,硬法底线治理。其一,在立法层面,要厘清数据和算法领域企业的守法底线。针对数据安全与利用、个人信息保护,我国出台了网络安全法、数字安全法、个人信息保护法等有关规定。针对算法安全、算法规制,我国出台了《暂行办法》《互联网信息服务算法推荐管理规定》《关于加强互联网信息服务算法综合治理的指导意见》等有关规定。针对数字社会和物理社会融合过程中对利益相关者的影响,现有相关规范较为分散,劳动法、未成年人保护法、老年人权益保障法等部门法还需同步更新。针对企业责任和科技伦理,现有规范多属于倡导性的法律原则,缺乏具体性与可操作性。后续人工智能法可以进一步聚焦于企业的科技伦理审查义务、训练数据的合法性判断标准、自动化决策的法律责任分配、人工智能生成内容的权属等方面。其二,在司法和执法过程中,既要避免“法律责任道德化”,也要避免“道德责任法律化”。避免“法律责任道德化”就要厘清不同位阶法律之间的关系,树立统一的判断标准,防止司法执法人员由于法律规范和标准的重叠和分散导致的位阶不清、标准不明,而在处理案件时采用法律原则进行主观解读。避免“道德责任法律化”就要按照原则上法律规则优先的逻辑,尽量不要将“科技向善”等倡导性规定当作行政行为、司法裁判的直接依据。在特殊情况下,可通过法律解释及漏洞补充的方式发挥作用。

第二,软法协同治理。标准作为一种技术制度,与数据和算法的技术特性具有天然的吻合性。通过指标对法律原则及政策文件进行明确细化,能够为企业数字责任提供具体的、有可操作性的指导。通过标准化的形式将法律原则下的企业社会责任具体化,并通过企业对不同标准的选择促进企业在客观条件允许的范围内最大化满足企业数字责任对应的部门法法律原则。为了促进软法的协同治理机制,可以通过政策扶持行业组织发展,促进行业组织自治,利用行业组织贴近市场的特点,回应企业需求,通过声誉市场或社团管理机制约束企业行为,推进自愿性团体标准治理。

第三,通畅软法硬法转换机制。标准化建设可以起到“承接立法和监管、对接技术实践”的重要作用。可以通过团体性标准-推荐性国家标准-强制性国家标准的渠道,在正当程序的基础上实现软法和硬法之间的相互转换,实现两者之间最大程度的衔接。2023年8月,国家标准化管理委员会发布了《推荐性国家标准采信团体标准暂行规定》,在需求导向和社会团体自愿原则下,缩短了采信标准制定周期,简化了立项评估,为通畅软法硬法转换机制搭建了渠道。

2.差异化安排企业数字责任程度

由于不同类型的人工智能企业有不同的生产经营特点,因此在社会责任上应当予以区分,实现企业社会责任治理的差异化。《暂行办法》中延续了数据治理和算法治理的思路,提出应当对生成式人工智能服务提供商进行分类分级管理。笔者认为,可以按照区分主体类型为主,兼顾区分行为能力和风险程度相结合的治理路径。具体而言,其一,可以从人工智能产业链与企业规模资源两个切面对主体类型进行一级区分。前者即从人工智能全生命周期的角度,将人工智能企业分为生成式人工智能技术开发者、生成式人工智能服务提供者、生成式人工智能服务使用者,不同技术特点的企业应当承担不同程度的企业数字责任。后者即从企业规模资源的角度,将人工智能企业分为平台类和一般类企业,对平台类企业课以人工智能生态“看门人”的责任。其二,可以从是否具有舆论社会动员能力和社会意识引导能力进行二级区分。按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》对该类型企业课以更高的安全责任要求。其三,可以将场景作为风险程度的划分依据,进行三级区分。重点关注存在社会安全、人身健康等风险的场景,以相对应的部门法对相关场景的企业数字责任进行规定。

3.人工智能赋能法律设计

第一,硬法嵌入代码。将硬法嵌入代码能够缓解法律的滞后性,提升回应性。传统的监管手段通常依赖于被监管者在特定时间内的固定事实基础上进行评估和监管。然而,人工智能系统具有自我学习和不断变化的特性,它们可以根据不断积累的数据和经验进行自我优化和改进。这意味着,即使在监管机构对人工智能进行评估和监管时,其性能和行为也可能发生变化。传统的监管手段往往无法及时捕捉到这些变化,并做出相应的调整和应对措施。随着人工智能大背景下数据处理能力和算法运算能力的倍数增长,法律的复杂计算过程嵌入人工智能的开发过程成为可能。监管部门或可采取以“AI监管AI”的方式,将人类的监管逻辑转换为机器可读的指令,将强制性的法律规则转化为清晰的指令,将原本模糊的法律原则转化为稳健的技术规范。通过这种方式,监管部门可以更好地评估和监测AI系统的风险,并及时采取相应的措施来保障公众的安全和利益。

第二,软法嵌入代码。将软法嵌入代码能够实现个体化软法定制路径,通过对企业以往企业社会责任支出水平、支出项目与企业盈利、利益相关人满意度等因素的数据化分析,在股东利益、企业利益和社会利益之间寻求最佳平衡。通过大数据分析形成的“企业画像”能够对企业主体进行更细致的划分,进而对不同企业应当承担的企业社会责任程度进行具体判断,从而形成有针对性的个性化监管方案,更具有科学性、针对性、合理性。

(二)反身法路径:外部激励机制的配套设计

随着社会的复杂化和发展的多变性,无论是结果导向的监管模式还是过程导向的回应性监管模式都无法满足社会的需求,以强交互性为核心特点的敏捷治理模式更能通过精准治理实现多方利益相关者的期待。反身法路径可以通过市场机制实现利益相关者利益、企业利益和股东利益之间的平衡。在允许企业遵守法律的基础上自由选择遵守社会责任的内容与程度,并通过“认定-措施-评价-报告-反馈-改善”的规制流程激励企业承担起社会责任。

1.建立企业数字责任报告制度

企业通过向利益相关者公开披露其企业数字责任履行情况和可持续发展进展,能够增加企业的透明度和问责性。企业数字责任报告机制是检验强制性责任、转化倡议性责任、激励道德性责任的重要机制,使得负责任的人工智能由外在要求转化为企业治理内生动力。在市场中企业通过信息披露可以形成高质量与低质量的市场分类,企业为获得市场认可会在强制性责任之余主动寻求践行倡议性责任和道德性责任,从而激励企业向善。

第一,差异化设置不同类型主体的企业数字责任报告制度的同时,统一企业数字责任报告披露平台。其一,根据敏捷治理理念下分层产业结构的划分,对基础模型企业、专业模型企业、服务应用企业的企业数字责任报告重点进行区分。其二,以企业对利益相关者影响力大小为依据,区分需要强制报告和自愿报告的企业。其三,以企业信用信息公示系统为依托,建立统一的企业数字责任披露平台,方便利益相关者对不同类型主体的横向比较,降低市场信息的不对称性。

第二,规范化企业制度责任报告内容,积极制定企业数字责任指数。生成式人工智能的跃迁式发展已经突破了原有企业社会责任指标的范畴,急需建立新的人工智能社会责任指标,为投资者、利益相关者和公众提供一个比较和评估企业数字责任实践的基准。目前,国际上部分研究团队,如Algorithm Watch团队,已经发布了人工智能可持续发展指标,但尚未形成具有公信力、统一性、权威性的人工智能社会责任指标。我国应当抓住机遇,以透明度、可解释性和稳定性等要素为核心,以《国家新一代人工智能标准体系建设指南》中的安全/伦理标准为基础,积极制定人工智能社会责任的客观衡量指数,引领国际标准。其中,对于环境治理,企业数字责任指数可以重点关注能源、碳足迹和数字垃圾等方面。对于社会治理,企业数字责任指数可以重点关注数字化凝聚力、数字影响力、数字福祉、数字赋能、社会兼容的自动化、公正的人工智能、数字自我、数字包容性、数字监控、数字自由等方面。对于技术治理,企业数字责任指数可以重点关注系统的可靠性、数据透明、数据采集与存储、数据所有权和隐私、数据责任和管理、数据安全、数据使用和可访问性、机器人伦理等方面。

2.培育第三方认证评估制度

通过事前控制让人工智能技术、产品、服务都符合道德原则和法律制度只是一种理想状态,而且具有高度复杂性。因此需要配合事后控制,在人工智能企业进行技术、产品、服务商业化之前,通过独立的测试对人工智能系统和服务提供者进行审核和验证,确保其符合相关标准和要求。为加强对生成式人工智能的全方位监督,应支持学术性组织和非营利机构的适当介入,积极培育第三方认证评估机构成为人工智能生态的“看门人”。一方面,认证评估机制能够对不同水平的人工智能企业进行区分,提高信息透明度,为用户提供可信赖的人工智能系统选择和使用的参考。另一方面,认证评估机制所形成的声誉市场,也能够约束人工智能企业规范自身的行为,确保人工智能系统的可信度、安全性和可靠性。

第三方人工智能认证和评估机制应当包括以下几个方面:人工智能系统的功能和性能评估、人工智能系统的安全性评估、数据隐私和安全评估、伦理和社会影响评估、透明度和可解释性评估。目前,英国、美国、欧盟都在积极发展人工智能认证评估产业,英国认为该产业的收益额能够高达数十亿英镑。2023年1月,国际上的电气电子工程师协会(IEEE)和电气电子工程师协会标准协会(IEEESA)已经宣布将免费提供人工智能伦理和治理方面的全球社会技术标准。丹麦正在开发信息技术安全和数据伦理认证项目、信息技术安全和数据伦理认证项目。因此,我国应当加快对第三方认证评估机制的培育,快速动员利益相关方。

(三)可持续公司法路径:企业内部多层次治理的方案设计

可持续公司法路径认为,加强法律介入的方式可将可持续发展的目标“外部责任内部化”。通过重新塑造公司法的目标和重新改革公司治理体系,能够增强企业社会责任承担的内部动力。企业可通过可持续公司法路径建立起企业内部多层次治理的方案,从而实现数字责任的微观落实。

我国公司法第5条规定了公司应承担企业社会责任。这一原则性条款却未在公司治理制度中得以贯彻。因此通过重新界定公司法中董事会的角色定位,能够促进企业社会责任“外部责任内部化”的转变。

第一,在董事会结构上,可在董事会下设立关于科技伦理审查的专门委员会。该科技伦理委员会专门负责算法部署前的内部伦理审查和接受其他部门或员工的投诉举报反馈。在科学技术进步法、《关于加强科技伦理治理的意见》《科技伦理审查办法(试行)》等法律法规的指导下,在设计阶段嵌入基础伦理原则,在运营应用阶段进行常态化伦理审查,践行“伦理嵌入设计”理念,确保通用模型输出的结果更符合人类价值观。通过设立专门的科技伦理委员会,不仅能够在算法投入市场前进行充分的论证和评估,将监管节点前置,而且能够向全公司传达科技向善的“高层基调”,有利于公司内部科技向善文化的形成。在2022年9月2日上海举办的世界人工智能大会上,阿里巴巴集团宣布成立成立科技伦理治理委员会,并引入7位外部顾问委员。

第二,在董事会人员组成上,可引入具有交叉学科背景的专业人士,在上市公司中,还应当引入专业外部人士,增强董事会的独立性。《上市公司治理准则》第25条关于“鼓励董事成员的多元化”的规定可作为董事会吸纳专才的规范性依据。科技伦理审查需要综合自然科学和社会科学等多学科的知识,既要保证用户权益的最优化,又要保证技术上的可实现性。对于是否符合专业人士的资质,国家可设立专门的人工智能算法考试进行考核,或者对其他领域的证书如计算机能力等级证书等进行选择性认定。

结语

自生成式人工智能问世以来,全球掀起了人工智能赛道的竞争。全球各国政府及超政府组织都在紧急采取行动,希望能够抓住人工智能带来的产业升级的机遇。目前法学界对于人工智能治理法人研究主要采用“从上至下”的政府视角,少有从企业角度出发,对在生成式人工智能时代为何以及如何承担社会责任的探讨。本文从“从下至上”的企业角度出发提出企业数字责任作为应对数字化时代共治挑战的方案,能够使“自下而上”与“自上而下”的监管方案形成互补关系,共同引领“负责任的人工智能”向前发展。数字技术的发展进一步加剧了风险社会中的不确定性和威胁性,如何激励企业承担起应尽的社会责任,如何激发社会各利益相关方可持续发展的内生动力,是一项亟须改变、影响未来、意义深远的议题。未来,还需要通过本土国情下的案例研究和实证研究对中国领军企业和中小企业承担企业数字责任的模式进行深入分析,进一步探索激发企业自治的制度动因。

来源:上海市法学会一点号

相关推荐