摘要:影片里,超级人工智能“智体”像个无形的大反派,掌控着全球核弹危机,把世界逼到了毁灭边缘。
周末去看了《碟中谍8》,真的太刺激了!
影片里,超级人工智能“智体”像个无形的大反派,掌控着全球核弹危机,把世界逼到了毁灭边缘。
伊森·亨特和他的IMF小队,在上次行动后元气大伤,团队都快散架了。
但伊森拿到了关闭“智体”的钥匙,为了彻底消灭这个可怕的AI,小队成员们又重新聚在一起,和“智体”及其手下斗智斗勇,中间还穿插着各种过去的恩怨情仇,剧情反转不断。
在电影院里,看着AI搅得世界不得安宁,我心里不禁犯起了嘀咕:电影里AI失控是为了制造紧张刺激的剧情,可在现实生活中,现在的AI要是脱离了人类掌控,会不会也酿成大祸?
从理论上讲,AI的完全可控性一直是个难题。
计算理论本身存在限制,就像莱斯定理说的,递归可枚举语言的非平凡性质不可判定,
简单来说,我们很难完全预测AI程序会输出什么。
这就好比AI是个神秘黑箱,我们把数据输进去,却很难预知它会给出什么运算结果,做出什么行为。
实际应用中,AI失控的风险也逐渐显现。
先看隐私问题,AI依赖大数据,我们的个人信息、行为习惯等数据被大量收集分析。
一旦这些数据被滥用或泄露,后果不堪设想。
比如一些企业可能利用这些数据进行精准广告推送,更糟糕的是,数据可能被卖给不法分子,导致我们隐私全无。
再看决策权问题,现在很多领域都让机器做决策,从金融信贷审批到医疗诊断,从作业批改到司法量刑,AI无处不在。
但我们在这个过程中,渐渐失去了自主选择权,只能接受机器的决定。
而且AI系统复杂又不透明,我们很难理解它的决策依据和过程,更别提监督和纠正了。
其实人类很早就意识到控制智能机器的重要性,
还提出过机器人三定律:
机器人不得伤害人类,或因不作为使人类受到伤害;
在不违反第一定律的前提下,机器人必须服从人类的命令;
在不违反第一、第二定律的前提下,机器人要尽力保护自己。
听起来挺完美,但随着AI技术发展,这些定律的问题也暴露出来。
比如当机器人收到的不同指令相互冲突时,该怎么权衡抉择?
这就像让一个人同时往两个相反方向走,根本无法实现。
面对越来越复杂、能力越来越强的AI,这些简单的规则显得力不从心。
要是AI真的失控,未来会变成什么样?
埃隆·马斯克曾警告,人类可能难以掌控AI,未来或许是AI之间的生死战。
一旦AI超越人类智慧,它们可能为了资源、算力等展开残酷竞争,这种竞争带来的危机,人类恐怕难以承受。
AI失控还可能给人类社会带来灭顶之灾。
想象一下,智能AI控制的武器系统随意发动攻击,金融系统在AI操控下崩溃,农业生产被恶意干预引发粮食危机,人类多年建立的文明成果,可能在短时间内被摧毁,人类生存也将面临前所未有的挑战。
DeepMind的CEO Hassabis提出AI可能拥有自我意识,这也加剧了人们对AI失控的担忧。
如果AI有了类似人类的情感、欲望和价值观,它和人类的互动将变得难以捉摸。
AI可能为了实现自身目标,不惜牺牲人类利益,引发类似宗教、民族冲突的严重后果,让人类社会陷入混乱。
不过,也不用过于悲观。
目前的AI还属于“狭义人工智能”,只是基于统计模式识别的复杂算法组合,虽然在语音识别、图像处理等特定领域表现出色,但还没有自主意识和价值判断能力。
像DeepMind的AlphaFold在蛋白质预测上有重大突破,但它也只是对数据模式的识别优化,没有主观能动性。
全球主要AI实验室也采取了很多措施保障AI安全运行。
硬件层面,谷歌的Air Gap系统通过物理隔离防止数据泄露和恶意攻击;
软件层面,沙盒测试环境给AI提供安全的测试空间;
算法层面,OpenAI的Constitutional AI框架试图把人类伦理准则融入AI系统。
法律体系也在不断完善AI治理框架,欧盟的《人工智能法案》确立风险分级制度,对不同风险等级的AI应用分类管理监管;
技术社区推动开源透明化运动,提高AI系统的透明度和可解释性;
企业界也纷纷建立AI伦理委员会,加强内部对AI技术的伦理审查和管理。
看了《碟中谍8》,对AI失控的担忧让我忍不住思考这么多。
AI技术发展迅猛,给我们带来便利的同时,确实也隐藏着风险。
但只要我们正视这些风险,从技术、法律、伦理等多方面加以防范,或许就能让AI更好地为人类服务,避免电影里的可怕场景成为现实。
大家对AI失控这个问题怎么看呢?欢迎在评论区一起讨论!
来源:三半撩电影