摘要:5月22日下午,由腾讯研究院和新加坡管理大学数字法研究中心(SMUCentreforDigitalLaw)联合主办的AI与社会研讨会——“生成式AI进展:应用、治理与社会影响”,在新加坡管理大学顺利召开。近百名来自中国和新加坡的业界、学界专家参加了会议,围绕生
央广网北京5月25日消息 5月22日下午,由腾讯研究院和新加坡管理大学数字法研究中心(SMUCentreforDigitalLaw)联合主办的AI与社会研讨会——“生成式AI进展:应用、治理与社会影响”,在新加坡管理大学顺利召开。近百名来自中国和新加坡的业界、学界专家参加了会议,围绕生成式AI的技术趋势、产业应用、监管治理、社会伦理等议题展开分享与讨论,为构建开放共享、健康可持续的AI发展生态和AI社会探寻对策思路。
腾讯集团高级副总裁郭凯天代表主办方作欢迎致辞,他提出,AI不仅是一次技术革命,更是一场关于人类、社会与智能之间关系的深刻变革。我们正站在一个技术飞跃的关键节点,大模型技术的快速演进正推动人工智能从“会认知”迈向“会行动”,成为人类真正的智能伙伴,并深刻重塑着社会结构与价值体系。
腾讯集团高级副总裁郭凯天致辞
郭凯天认为,AI应当尊重人类作为价值源头的独特性,AI的真正价值不在于“看起来多酷”,而在于“用起来多好用、多可靠”,为此,腾讯高度重视开源透明的技术生态,倡导开放、参与、监督并行的治理模式,推动建立AI时代的信任基础。他也表示,AI文明的篇章才刚刚开启,腾讯愿与各方携手,共同塑造一个技术与人文并重、开放包容的未来。
生成式AI加速发展,治理需同步演进
会议上半场围绕“生成式AI的行业应用趋势”展开。在主旨演讲中,新加坡国立大学人工智能研究所所长MohanKankanhalli教授以《生成式人工智能的问题与机遇》为题,指出当前生成式AI主要涵盖三大技术路径:大语言模型(LLMs)、视觉语言模型(VLMs)以及扩散模型(DiffusionModels)。其中,扩散模型凭借出色的生成质量,在图像、音频等多模态生成领域取得了突破性成果,展现出广泛的应用前景。他认为,尽管生成式AI展现出强大潜力,但仍面临幻觉现象、缺乏精细控制和真实知识整合等技术难题,同时也引发了隐私泄露、版权争议、公平性缺失与虚假信息传播等社会风险。他强调,未来需在保障模型能力的同时,加强数据治理与责任机制,推动生成式AI在创意产业、教育与就业等领域的可持续发展。
Mohan Kankanhalli教授发表主旨演讲
随后,腾讯光子工作室群高级研究员柳天驰博士带来题为《语音领域生成式AI的进展与应对》的主题分享。柳博士系统介绍了语音生成技术(TTS)以及大模型赋能下在表达力与控制力方面的技术革新,展示了AI语音在音色、情感、语气、风格、方言控制等方面的最新进展。针对语音深度伪造(Deepfake)所带来的身份伪造与虚假信息传播等潜在安全风险,他还分享了音频水印、AI伪音检测等前沿技术的应用路径。
腾讯研究院资深专家、创新研究中心主任袁晓辉、新加坡管理大学AptosMove讲席教授、计算机与信息系统学院副院长朱飞达教授,ABCDE风投机构联合创始人Bman,WIZ.AI董事长兼联合创始人陆剑锋也展开了AI行业应用趋势专题讨论。
朱飞达教授强调生成式AI的“组合性”(composability)和“协作性”是未来数字经济的重要特征。他指出,当前开源生态系统的快速崛起,大幅降低了生成式AI的使用门槛,使得企业能够基于本地数据构建透明可控的系统,助力实现数据主权与AI主权。他分享了在个性化学习系统项目中的经验,强调通过任务分解和传统算法结合,可显著提升模型准确性,并指出在DeFi等领域,无人值守的链上AIAgent已经展现出实际应用价值。他特别关注AI与Web3的结合,提出“协作智能+代币化经济”是Web3的本质,也是AI产业化与治理的重要方向。
作为投资人兼连续创业者,Bman分享了他对“超级个体”时代的观察,并高度评价DeepSeek等开源模型所释放的开发潜力。他提出AIAgent将成为下一代互联网的重要参与者,预见未来将出现“Agent社会”,Agent不仅可独立完成任务,甚至可拥有身份、财产与交易能力。他还指出当前许多创业公司仅是“大模型套壳”,缺乏护城河,因此建议初创企业尽快建立用户网络效应与商业模式壁垒。此外,他表达了对“多Agent经济”模式的期待,认为未来应通过标准协议实现Agent之间的互联协同,构建真正的Agent基础设施与生态系统。
陆剑锋以WIZ.AI的语音代理产品为例,探讨了AIAgent在实际商业场景中的可行性与限制。他认为Agent的关键在于是否能够“全自动”完成任务,而在语音领域,响应速度与幻觉控制是当前亟需攻克的挑战。他提出“用户场景优先”的创业逻辑,即围绕明确的客户需求构建产品,并通过积累高质量数据与定制化知识完成差异化竞争。他还指出,未来企业内部的组织协作也将因AIAgent的引入而发生重构,例如客服、HR等职能将同时面向人类与智能体,推动“人机共事”成为企业常态。
研讨主持人袁晓辉也提出了“AI是否正在引发流程重构”的问题。她总结指出,当前生成式AI正从“工具化”走向“系统化”,企业已开始将Agent嵌入到工作流中,重新思考人机协作的边界。她提出,尽管AIAgent尚难做到百分百精准,但现阶段的“人机共创”已足以显著提升业务效率,重要的是在技术演进的同时同步推进治理、安全与社会可接受性。
全球视野下的AI治理呼声
会议的下半场围绕“生成式AI的治理与社会影响”展开。新加坡国立大学大卫·马歇尔讲席教授、副教务长(教育创新)陈西文(SimonChesterman)作了题为《人工智能治理的悲剧》的主旨演讲。他在演讲中指出,尽管围绕人工智能(AI)已经出现了大量伦理框架、指导方针和监管讨论,但真正有效的治理依然难以实现。主要阻碍因素在于:其一,AI的开发和部署越来越多地由私营公司主导,这些公司有动力去不断开发和部署更强大的模型,但缺乏治理意愿;其二,多数政府不愿对AI实施严格监管,担心这样会抑制创新、阻碍竞争优势或使人才和投资流向监管更宽松的地区;其三,历史上,国际合作机制(如国联、联合国、国际原子能机构)多是在危机中建立和推进的,但在AI领域,目前尚未出现足够明确和紧迫的全球性危机,因此缺乏推动国际治理协调的“临界点”。因此,如果不解决AI治理中权力与利益的错配问题,社会就有可能在真正建立有效监管机制之前,先经历一场重大危机。此外,他还强调,治理应关注如何让技术决策保持灵活和可逆。
新加坡德尊律师事务所董事、新加坡管理大学数字法研究中心行业研究员CherylSeah作了题为《生成式人工智能:实践视角》的主题分享。她指出,在人工智能治理中,始终存在这样一种紧张关系:即便法律上“可以”做某事,是否“应该”去做仍值得深思。因此,许多AI治理框架的目标是引导组织在开发和使用AI解决方案时,做出能够建立用户信任的选择。这些AI治理框架和相关资料有助于组织了解在开发和使用AI解决方案过程中可能面临的风险,并在与第三方开发者或用户签订合同时(视情况而定)合理分配这些风险,同时在其AI使用政策中进行有效管理。到了2025年,一个新趋势是多个AI合同示范条款的发布——虽然这些条款主要由公共部门针对公共部门用户制定,但对于私营部门组织而言,这些条款同样具有参考价值。
在随后由新加坡管理大学数字法研究中心副主任LiuHan-Wei主持的圆桌讨论中,新加坡社科大学法学院讲师、教务长讲座教授AlexanderJosephWoonWei-Ming,新加坡国立大学科技、机器人、人工智能与法律中心(TRAIL)创始人兼联席主任DanielSeng,新加坡管理大学杨邦孝法学院数字法研究中心高级研究员JoshLeeKokThong,腾讯研究院高级研究员曹建峰博士,围绕生成式AI的治理挑战进行了研讨。
Alexander教授指出,当前AI治理面临三大挑战:其一,无知与冷漠区别,治理框架虽可帮助那些“想负责地使用AI但不知道怎么做”的人(即无知者),但却难以约束那些“不在乎对错、只求逐利”的人(即“冷漠者”);其二,规范性差距与执法差距,鉴于网络危害具有全球化特征,而执法却受限于属地原则,这使得规范性工具在实际效果上存在重大局限;其三,应对网络伤害的供给端与需求端策略,当前应对网络伤害多聚焦供给端(如平台与不良行为者),意在减少“坏事”的发生,却忽视了“需求端”应对策略,即增强网络伤害的潜在受害者自身的抵抗力。未来治理应注重培育公众网络安全意识,通过行为引导和设计干预,构建更具韧性的数字文化。
Daniel教授指出,AI领域需要适当监管来规范发展,而非阻碍创新,因为法律是防范AI滥用和恶用的必要工具;因此对AI滥用、误用进行风险评估是正确的做法。在应对如“深度伪造”图像和非自愿冒名等问题时,法律应聚焦行为本质而非技术手段,采用技术中立的方式进行规制,才能够适应技术变革并长期有效。此外,他呼吁关注大型语言模型的垄断问题,倡导提升语言和文化的多样性与代表性,认为中文大模型的发展将有助于平衡全球AI生态,为不同语言文化背景的应用创造更多机会。
Josh教授指出,当前国际人工智能治理面临诸多挑战,其中最突出的是“监管互操作性”问题。因为人工智能的监管体系仍在不断发展之中,即便已有初步成形,也表现出显著不同的路径选择。尽管如此,所有人工智能监管体系的共同目标,都是在鼓励创新的同时建立足够的风险防范机制。为实现这一目标,监管体系可以采取灵活创新的精神——在技术不断发展的过程中持续更新监管框架并提供指导,并倾向于促进技术的采用,从而通过更广泛的应用和理解,逐步建立起公众对人工智能技术的信任。
曹建峰博士指出,AI技术应用带来的自主决策(决策让渡)、情感替代、人类增强现象,可能带来新的挑战。因此人们不仅需要关注AI决策的幻觉、偏见、出错、不对齐等问题;还需要重视AI陪伴等情感类AI应用对人际、人机关系的影响,防止AI削弱真实的人类联系;更需要考虑在利用生成式AI提高效率和生产力的同时,如何避免过度依赖AI工具可能给人类个体自身思维能力造成“短路”,而是通过在教育和工作中的恰当使用增强人的创造力,真正实现以人为本和智能为人。此外,AI技术快速发展变化,这要求建立更具适应性、敏捷性的治理机制,不仅依赖监管等外部机制,更重视通过价值对齐、安全护栏等模型内部机制,打造安全、有用、无害、可靠的AI助手。
构建以人为本的AI协作未来
会议最后,腾讯研究院院长司晓、新加坡管理大学数字法研究中心副主任LiuHan-Wei代表主办方进行总结发言。司晓院长在发言中分享了对当前AI发展的三点观察:首先,AI正加速迈向通用人工智能(AGI),驱动新一轮经济与社会结构的深刻变革,企业正在从“用电量”“用云量”迈向以“token用量”衡量智能化程度的新阶段,预示“智力即服务”时代的来临。他也呼吁社会各界共同推进AI治理与社会责任,一方面要通过跨学科、跨领域合作前瞻性地思考和妥善应对AI技术的社会影响,同时也需要前瞻想象、规划积极的AI愿景,来凝聚发展共识,引导技术向善发展,从而确保AI发展植根于人性、伦理与责任之中,让AI真正成为我们共建美好未来的力量,而不是风险的源头。
Han-Wei教授在总结发言中感谢各位嘉宾与听众的积极参与,认为这次会议对生成式AI及其社会影响以及未来国际治理的讨论是富有成效的,涵盖了deepfake、AIagent、AI偏见等诸多议题。他指出,SMU数字法研究中心一直关注数字经济与数字社会的前沿议题,跟业界伙伴一起组织了很多活动和研讨,这次跟腾讯研究院合作组织这次会议进一步加深了这种合作,期待未来加强合作交流。
来源:央广网