摘要:2025年2月22日,中国数字经济发展和治理学术年会在南开大学召开。本次年会以“人工智能、数字经济与新质生产力”为主题,积极响应党的二十大报告中关于“加快建设网络强国、数字中国”的战略号召,汇聚了学术界与产业界的智慧力量,共同探索数字经济的未来发展方向。年会邀

2025年2月22日,中国数字经济发展和治理学术年会在南开大学召开。本次年会以“人工智能、数字经济与新质生产力”为主题,积极响应党的二十大报告中关于“加快建设网络强国、数字中国”的战略号召,汇聚了学术界与产业界的智慧力量,共同探索数字经济的未来发展方向。年会邀请了40余名专家学者及机构代表,就数字经济、数字金融、数字贸易、数据要素、人工智能创新发展等核心议题展开深入研讨。中国社会科学院大学教授、年会主席团主席江小涓,以《人工智能发展与治理:经济学应有什么视角和标准?》为题发表主旨演讲。本文根据江小涓教授现场发言内容整理。
今天我的发言聚焦于本人近几年一个重点关注的领域——人工智能发展与治理的关系。这是一个全社会关注的问题,几乎所有的学科都在研究,经济学和公共管理学科也不例外。不过,当前经济学科与公共管理学科在该领域研究特点不突出,聚集点与社会热点相似,看不出学科特性的映射,也缺乏学科逻辑的合理支撑。我的发言从经济学视角探讨三个问题。1、何为AI发展方向的正当性:从讲原则到讲学理讲实践长期以来,关于数智时代技术和经济社会规则问题的讨论,过多集中于道德层面、理念层面和意愿层面,例如有关人工智能发展规则与伦理问题的讨论中,尊重人、服务于人、透明、责任、向善、包容等等是主流表达。2017年生命未来研究院(FLI)发布《阿西洛马人工智能原则》(Asilomar AI Principles)提出原则:安全性、故障透明性、审判透明性、责任、价值观一致、人类价值观、个人隐私、自由与隐私、共享利益、共同繁荣、人类控制、非颠覆性。此后多年这些原则被不同场合和机构反复强调。直至2025年2月12日巴黎AI峰会上58国签署《关于发展包容、可持续的人工智能造福人类与地球的声明》,提出6条优先事项,包括促进人工智能的可及性以减少数字鸿沟,确保人工智能开放、包容、透明、合乎道德、安全、可靠并值得信赖,考虑了所有人的国际框架等等。这种原则性的描述无疑是正当、有共识和令人向往的,业界和社会认同度较高。但多年来这些原则被反复陈述讨论,但并没有置于可分析的学术框架中深化,缺乏可测度和可比较的维度或指标,因而在相当程度上无法判断不同技术或产品的优劣,难以系统权衡不同规则的实施成本与社会收益,治理原则落地实践更是推进缓慢。2、评判AI社会价值的经济学逻辑:提高资源配置效率并能公平分享成果一种技术经济效应的评估,根本在于是否有利于经济发展和社会公平,这也是经济学“理性”的本质要求。因此从经济学的角度,可以用是否促进“社会资源配置效率提高以及发展成果相对公平分配”作为AI发展方向的评判核心标准。AI带来社会资源配置效率提高的作用无人质疑,担忧主要是源自AI对社会公平的影响。从这个角度看,AI的冲击可以分为两类:一类是对公平性原有平衡的冲击。一是大型企业对各种资源的支配地位加强,对数据、算力和算法的掌控能力使得大型企业和大型组织市场支配地位更加突出,中小企业、中小投资者地位更加弱化。二是资源配置中“算法”的影响日益增强。大数据可以嵌入传统资源配置决策过程,例如谁可以以什么条件获得贷款及其他资源。资源配置进一步向优胜者倾斜,大者愈大优者更优,产生公平性方面的持续冲击。三是各种生产要素中劳动力相对重要性下降,就业机会减少、收入减少。技术垄断力量带来的经济租金无法在技术与资本持有者和劳动者之间共享,导致经济发展的包容性较差。一类是AI原生能力对公平的冲击。主要是规模报酬递增甚至“Scaling Law”的出现,人工智能大模型对市场竞争带来新挑战,呈现边际报酬递增现象,大模型表现更加强势。模型愈大优化迭代需要的参数愈少,或者相同参数量下模型愈大迭代优化步骤更少,强者愈快愈强。还有新能力涌现。一旦超过一个阈值,大模型新生出来的认知、理解和解决问题的能力,是小模型完全没有的,并不是一个“你多我少”、“你先我快”的情况,而是“我有你无”的碾压式能力。3、在治理框架方面,需要兼顾弱规则与强规则的协同作用任何市场有效运转都需要规则,规则之所以重要,是因为事关“交易”和“预期”。绝大部分市场的规则分为两种,一种是弱规则,内生于市场博弈,没有公权力和强制力,诸如自愿交易、讨价还价、履行契约等都是各类市场内生规则。另外一类是强规则,主要是政府的监管和法律,用来约束破坏市场公平竞争的力量,防止劣币驱逐良币,以及约束内生于市场或外生于强权的垄断势力。AI时代,目前看到以及想象未来应该还是这样的模式,弱规则与强规则共同发挥治理作用。AI治理中,弱规则依然泛在、基础而有效。例如,内部外部竞争压力推动平台构建自己生态圈内的算法治理规则。内部平衡各方利益使生态圈中各相关方可以依规相处并不断扩大共识者数量,不断扩大平台规模。外部在可竞争环境中争取自己生态圈利益最大化。再如意见表达和舆情压力,网络空间的意见表达极为便利,社会各方与技术方就创新的可接受性做出反馈,并对某些行为和动向构成有效约束。当社会舆情一致反对某类大规模减少就业者数量的AI技术应用时,的确形成有效约束。再如软件和模型开源,开源技术源于软件,已经广泛用于各类互联网物联网以及大模型。开源最快分享知识,赋能更多主体具备AI时代的竞争力,减少技术垄断带来社会福利损失。这些都是各利益相关方相互博弈和互动产生的局部性、条线性或社区性的治理规则,虽然范围、力度以及强制力都有限,但的确有效果,防止事态走向极端。经济学角度的AI治理强规则要包括以下几种。一是负面清单管控。例如约束大型网络平台企业的垄断行为,要允许第三方在特定情况下与大平台提供的服务进行交互操作,要允许用户访问他们在平台上业务运营产生的数据,不得优待平台自身或关联企业提供的服务和产品,不得阻止用户卸载任何预安装的软件或应用程序等。二是透明度要求。只有保障各方知情和有效参与治理,公众知情和表达意愿才能形成弱监管。三是保护数字弱势群体权益,维护公平底线。当前要高度重视失业冲击,处理不好可能会带来比较大的社会问题,现在技术带来的失业问题与以往不同,过去多轮技术革命,新创造的岗位比替代掉的岗位多。但AI还会如此吗?目前看上去似乎难以认为历史会重现。尤其在AI时代,信息广泛传播使全社会都能更多了解正在发生的事态及其影响,所谓“无知之幕”支撑社会共识形成与理性决策的“无知”不复存在,以正零和博弈或者正加总效应来论证技术发展的“利弊”更不易被接受。当社会认为赢家的“利”不能完全抵消输家的“弊”时,这个问题更需要得到及时有效地处理。最后想说的是,人文社会科学必须走到时代变迁的前端,点亮AI时代人文社会科学的理性之光。人工智能进步对人类自身和人类社会带来深刻影响,有些影响是不可逆的,因此不能交由技术专家来决策。每个人都有发言权,是不是愿意我们的生理心理被这样改变,是不是愿意看到社会这样变迁。由于技术演进及其对经济社会规则的冲击很可能快于相应强监管能力的提升,仅靠政府力量难以有效行动,强监管可能一时跟不上,各种弱规则很可能是治理主力。多方合作治理就有多方理念和利益代入,如何处理好其中各种权重与关系,需要社会科学多学科汇聚专业知识和能力。我就讲这些,谢谢大家!供稿 | 清华服务经济与数字治理研究院中国信息界INFORMATION CHINA

《中国信息界》杂志(CN11-4721/TN;ISSN1671-3370),创刊于2003年,由国家发展和改革委员会主管,国家信息化专家咨询委员会指导,国家信息中心支持,主办单位是中国信息协会,是当前为数不多的国家级信息化决策参考读物,月刊出版。
来源:中国信息界
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!