摘要:据中央广播电视总台经济之声《天下财经》报道,当前,全球人工智能领域的创新非常活跃。如何推进人工智能治理,才能既不扼杀创新动力,又能有效防范风险?博鳌亚洲论坛系列报道《变局中的东方答案》本期推出:“给骏马套上缰绳”,人工智能治理要平衡发展与安全。
央广网北京3月27日消息(记者吕红桥 王强)据中央广播电视总台经济之声《天下财经》报道,当前,全球人工智能领域的创新非常活跃。如何推进人工智能治理,才能既不扼杀创新动力,又能有效防范风险?博鳌亚洲论坛系列报道《变局中的东方答案》本期推出:“给骏马套上缰绳”,人工智能治理要平衡发展与安全。
相关论坛现场(记者吕红桥 摄)
近年来,生成式人工智能大模型不断迭代,能力越来越强。最近多家企业推出的智能体甚至能根据环境变化调整行为,自主执行任务。人工智能技术进步这么快,安全能不能得到保障?在中国工程院院士、清华大学智能产业研究院院长张亚勤看来,全球人工智能的风险正大幅增加。
张亚勤表示:“智能体是个很好的技术,它可以自我规划,去学习,去试错,然后达到目的,所以它是一个特别好的工具。但它本身带来很大风险,这里面有很多未知因素,因为中间的路径是不可控的。特别是现在人工智能算法虽然并不完全是黑盒子,但是很多东西我们并不清楚机理,所以带来很大风险。一个是自身可控风险,另外一个是被坏人所利用带来的风险,所以整个安全系数降低了两倍,或者风险增加了两倍。 ”
两年前,包括特斯拉CEO马斯克在内的1000多名人工智能专家、科技人员、产业高层在一封公开信上签名,呼吁暂停研发比GPT-4更强大的人工智能系统至少6个月。当时,中国科学院研究员曾毅也在这封公开信上签了名。那么,两年时间过去,他是否仍然认为应该暂停研发生成式人工智能系统?在这届年会上,曾毅的态度大为转变。
他表示:“经过半年到一年的探索,现在有了初步答案,我要告诉大家的是人工智能发展应用和安全之间,不是一个相互掣肘的关系。近一年我们有一个新研究证明:当你提升人工智能大模型安全能力的时候,对于它问题求解能力的影响几乎可以忽略。我们尝试了近期最强大的十几个人工智能大模型,可以把它们的安全能力提升百分之二三十,但是对于它们的问题求解能力的影响几乎可以忽略。”
也就是说,可以一边发展人工智能大模型,一边构建有效的安全护栏。如何构建安全护栏?曾毅认为关键就是不要让人工智能完全代替人类做决策。他以当前热度较高的人工智能炒股和人工智能医疗诊断为例说:“人工智能炒股和人工智能诊断都在代替人类决策。现在的人工智能仍然是一个信息处理工具,不能够完全替代人类,并且永远不应该替代人类。它可以做决策辅助,但它永远不应该代替医生决策,在其他领域涉及人类决策的,特别是可能产生灾难性后果的决策,永远不应该用人工智能代替人类。 ”
对于人工智能治理,全球目前主要有三种模式,欧洲是偏重安全的治理模式,美国是偏重发展的治理模式,而中国则是平衡发展和安全的治理模式。国内外一些专家用“给骏马套上缰绳”“给汽车装上方向盘”等,形象地形容中国的人工智能治理模式,认为这能让人工智能沿着正确的方向快速发展。而要平衡发展与安全,就要分清放与管的界限。
中国社会科学院大学教授江小涓说:“从出版来讲,现在我们的信息实际上是分类的。有些是需要真实性,比如科学、新闻。有些是纯娱乐,比如编个短剧无所谓真实,越夸张越离谱越好。还有一类是消遣性知识,有的消遣性知识比如看别人的隐私,这样的问题政府就要管。我非常相信在竞争的市场中间,市场自发会解决很多问题,而不一定要去讨论非常多的原则问题。 ”
更多精彩资讯请在应用市场下载“央广网”客户端。欢迎提供新闻线索,24小时报料热线400-800-0088;消费者也可通过央广网“啄木鸟消费者投诉平台”线上投诉。版权声明:本文章版权归属央广网所有,未经授权不得转载。转载请联系:cnrbanquan@cnr.cn,不尊重原创的行为我们将追究责任。
来源:央广网