摘要:AI时代的数字交往是一种跨生命交往。其中,主体性、安全性和真实性是三个基本理论问题。(1)当下的人工生命是“行为主体”,而不是“心灵主体”;AI交往中的主体普遍具有“跨主体性”。(2)AI交往的安全性取决于价值对齐,而“权力对齐”比价值对齐更具有初始意义和决定
【关键词】AI交往;主体性;安全性;真实性
在传播学意义上,我将AI时代的到来理解为一种“交往的革命”,这一方面是因为AI会话即将通过图灵测试,另一方面,也是因为AI应用大多具有数字交往的脱域融合特征。
实际上,其他社会领域的AI转型,其基础都是人—机交往、人—自然交往的革命。这也正是数字交往研究“交流—行动”的意义。
在人与万物通过AI相联结的时代,交往的本质,比之于传统,已经发生了结构性的改变。为此,ChatGPT初起时,我提出过AI交往问题:“一个人工智能辅助交往(AI aided association,AAA)的时代正徐徐拉开帷幕。这是一种由AI支持并与AI共同演化的社会交往方式,我们毫不怀疑,它将广泛应用于虚实相生的混合社会。”(杜骏飞,2023)
观察AI时代复杂而深邃的交流—行动,我们会感到,仅仅以“人机交流”(HMI)来理解,是远远不够的。以合理的前瞻,应该理解为“跨生命交往”(杜骏飞,2023)。AI技术的跃升,使得数字生命、机器生命与人的交往充分拟人化了,我认为,这是跨生命交往的缘起。
科学界将人工生命(artificial life)分为三类:软人工生命(SAL)是指模拟生命过程的计算机程序和模型;硬人工生命(HAL)是指构建物理机器来模拟生命过程;人工通用智能(AGI),则是指能够执行一般智能任务的人工智能系统(Levy,1993)。
关于跨生命交往的内在机理,我有过详细的讨论:在AI时代,人与人工生命的强联结,本身即是一种跨生命的交往,且具有复杂的结构类型。这些结构类型包括:(1)H-A模式,即对话在人(H)与人工生命(AL)之间发生。其中,后者可以是程序、模型或智能机器。(2)AIGC当下的生成训练源自大规模的数据集,数据则来自于“所有人”,生成方式是人机接力和概率性生成,故而其模式的本质是H-(AH),这是一种人对混合生命的交往。(3)在人的那一端,所谓AI辅助交往(本质是AI支持下的社会交往),必将广泛应用于虚实融合的数字社会。AAA的浪潮将使人自身产生两种变革(AI辅助人、AI增强人),并形成混合生命对混合生命的交往:(HA)-(AH)(杜骏飞,2023a)。
其中,尤其是在关涉人—人交往的第三种模式里,我们能清晰地看到,人工生命在诸多应用场景下,确实都有可能成为真正的转译者和交往平台。当然,可以简单将其理解为:AI将成为超级媒介。不过,AI的前景显然并不只是媒介而已。
首先,就像下文所讨论的那样,AI的成熟应用,往往也是潜在的交往主体。那么,当我们在交往中诉诸主体责任和主体权利时,应该如何看待人工生命的“主体性”?
其次,AI科学工程正在快速接近AGI,而这一目标是由具有价值系统的认知架构所驱动的。那么,当我们讨论人工生命与人之间的价值对齐时,那种“安全性”的本质到底是什么?
最后,随着AIGC的渐次发展,尤其是文生视频的Sora级模型启动内侧,物理现实与AI现实的界限不再清晰。那么,我们应该如何理解其作品中的“真实性”?
我以为,对主体性、安全性、真实性的认知,是AI时代数字交往的三个基本理论问题。在本文中,我将借助对AI Agent、ChatGPT、Sora等主流应用的分析,给出一些初步的思考。
一、主体性问题:
AI作为主体何以可能?
2023年11月9日,比尔·盖茨在其个人网站上发表了题为《AI即将彻底改变你使用电脑的方式》的长文。他指出,五年内每个人都将拥有AI加持的Agent,而后者“将彻底改变我们的生活方式”。盖茨提到的Agent,能响应自然语言,并能根据它对用户的深度了解完成任务;与聊天机器人不同,Agent可以在不同应用程序中执行不同任务(也因此,我们称之为“交往”的Agent);它们还会不断了解用户,从而不断改进自己的服务。
显然,盖茨是在“代理”这个意义上讨论AI Agent的,因为他对Agent的定义是:一个远超今天技术水平的个人AI助手。对他而言,作为下一代AI终端产品的Agent将更加智能,而我们现在用的AI工具看上去只是机器人而已——的确,当前的大部分AI应用,都只是在被你请求时才会介入交流行动,而它们不记得你的使用习惯,不会自动变得更好,更不会学习你的任何偏好。
我的理解是,成熟的Agent将比今天更具有决策主动性和交往连续性。
作为人类用户,以下追问是必要的:(1)Agent是行动广泛的,而今天它已经能够跨应用程序执行任务了,那么,未来它还将跨越什么?(2)Agent是通过学习而演化的,那么,在决策主动性和交往连续性方面,其演化的尽头是什么?(3)Agent是具有认知力的,能够识别你的行为意图,那么,它是否会因为吸收你的全部数据,记住了你的全部活动,从而成为一个负责定义及决策你的“超级代理”?
强智能(Strong AI)的到来,只是时间问题;与此相关,AI的自主演化也只是限度问题。显然,在人与一种可能远比人更智慧的物种共生时,我们无法确定Agent只会作为“代理”而不是作为“主体”而存在。
AI Agent通常被译为“人工智能体”“智能体”“行为体”,由于它能扮演人—人交往的转译者和平台,我们很自然地会称之为“代理”——这是一个历史悠久的计算机术语。而实际上,从未来交往的技术需求来看,它远非“代理”二字可以限定。
“Agent”一词源于拉丁语单词“Agere”,意思是“行为”“做”;英语中的Agent也是如此,其解释词是act或to do,而Agent在哲学领域的释义是“具有行动能力的存在”(寿步,2023),正体现出词源之意。
Agent概念最早于1970年代出现在人工智能领域,作为一种超越常规操作的软、硬件技术,其特点是:具有一定的智能、良好的灵活性和鲁棒性,特别适合处理复杂、协同和难以预测的问题。一种早期的计算机科学观点将Agent阐释为“有一定智能性的程序,具有解决问题所需的知识、策略和相关数据,并具有内在的自我控制”(邹涛、张福炎,1998)。
Agent的本质,是一个或多个智能实体在尽可能少扰动用户情况下,依靠其自身的能力,采用各种可能的方法,完成用户所委托的复杂及繁琐任务。如今,Agent涉入无数种交往实践,如:在金融领域,Agent能分析历史交易数据、做出预测性决策,执行智能投资和风险管理决策;在医疗领域,Agent能帮助医生作出诊断决策,提高医疗准确性和治疗效果;在制造和交通领域,Agent能提高生产效率和安全性,通过优化交通流量来缓解拥堵。如此等等。
Agent可以是物理实体(如机器人),也可以是虚拟实体(如计算机程序)。就交流—行动而言,计算机很早就实现了初期Agent之间的合作与通信,而在AI爆发后的今天,它更是能做到理解和解释自然语言,能感知和回应工作环境(例如自动驾驶的要求即是如此),并采取行动以实现预设的目标。
Sengupta与Siebe认为,Agent应该具有以下四种特性:(1)自主行为(autonomous behavior);(2)感知环境和其他因素的能力;(3)单独或与他者合作改变环境的能力;(4)拥有理性(Sengupta & Siebe,2007)。Kenton等人认为,Agent是依于理性(by reasons)而采取行动的系统(Kenton et al.,2023)。
不过,即使Agent已经初步具有感知、运算、行动、协作之能,仍然有学者指出,Agent只能称为“行为体”而不能被称为“智能行为体”,盖因“给人工智能中的Agent赋予意向性仍在推进过程中。”(寿步,2023)而在哲学上,意向性(intentionality),又一向被认为是心灵的代表,是人的认识呈现事物、属性或状态的能力。考之于AI在当下的发展,显然,它并未达到这一水平。
此外,作为与Agent一词一体两面的Agency,一般被译为“能动性”,维基百科对Agency的解释是:“根据自己的意愿独立行动并做出自由选择的个人能力。”当下的AI工程的目标之一正是培养具有能动性的AGI。图灵奖得主朱迪亚·珀尔(Judea Pearl)等在其所著的《为什么:因果关系的新科学》一书中所说:“一方面,对某人的观点、意图和欲望进行推理的能力一直是人工智能领域的研究者面临的一项重大挑战,这一能力也界定了‘智能体’这个概念。另一方面,哲学家将对这类能力的研究作为经典的意识问题的一部分。”(朱迪亚·珀尔、达纳·麦肯齐,2019:339)不过,很显然,迄今也尚无AI应用能明确抵达这种“能动性”。也因此,AI意识问题研究,目前在人文学科还只能是一种思想实验。
从学术传统来看,Agent与Actor类似,一直被用作表达“能动者”“行动者”,例如在行动者网络理论(ANT)那里,Agent可以指一切行动者,包括非人的存在和力量;所有的“行动者”之间的关系都是不确定的,每一个行动者就是一个结点;每一个行动者都是转译者而非中介者。
媒介即主体,在AI交往时代,即便从媒介论来说,也是如此。当然,在ANT和AI Agent之间,还有一个意味深长的差别:ANT认为,非人的行动者是通过有资格的“代言人”(Agent)来获得主体的资格和权利,以共同结成一个相互协调的行动之网;而与之不同的是,在AI Agent情境下,作为人的用户是通过非人的行动者充当“代理”(Agent),以让渡一部分主体资格给AI的方式,完成复杂的交流—行动。
综上,我倾向于做出这样的判断:(1)作为数字交往的交流—行动者,Agent是具备主体资格的,称之为“行为主体”或“行为体”,应无疑义。(2)考虑到AI很早就拥有“智能”之称,因此,将Agent称为“智能行为体”或“智能体”亦不为过。(3)在数字交往的意义上,将AI Agent与人等同为“交往端”,符合“普遍交往”情境的实际。(4)但在哲学意义上,并非一切Agent都具有Agency,且心灵意义上的Agency在AI Agent应用上尚未体现。因此,当下的AI Agent有行为主体的资格,而无“心灵主体”(subject)的地位。
要言之,是否可以认定一种AI应用具有主体性,是由技术本身的发展水平所决定的,也是由我们对“主体”的界定所决定的。
在上文中,我们区别了行为主体与心灵主体,实际上,更为复杂的是,在AI时代的交往结构类型中,大多数主体都具有“跨主体性”,即:一种交往双方共生、不同生命互嵌的主体性。以我之见,这也是比主体间性(intersubjectivity)更先验的主体联结。而这种跨主体性的水平,由生命的混合而定,也因交往的情境而异:
(1)H-A交往模式下,即对话在人(H)与纯粹而简单的人工生命(AL)之间发生时,我们仅需以“行为主体”来判别AI的主体性。
(2)H-(AH)交往模式下,是一种人对混合生命的交往,也是更常见的跨生命交往。当前,典型的混合人工生命,即是生成式预训练Transformer模型(GPT),其工作机理是基于人类语言库的人机接力和概率性生成,这种主体性即是由人与人工生命共同担当的——推想未来,当形形色色的赛博格(Cyborg)涌入交往,其主体性也必由人与AI共同担当。简言之,(AH)中既有属于人工生命的“行为主体”,也有属于人的“心灵主体”。就此而论,其责任、权力、义务,也应由其中的“跨主体性”来承担。
(3)(HA)-(AH)交往模式,这是一种混合生命对混合生命的交往,在人的那一端,我们能看到“跨主体性”更为显著的表现,所谓AI辅助交往(无论是AI辅助人还是AI增强人),其趋势都是AI介入的交往。也因此,当技术充分发展后(以AGI为奇点),需要审慎地判断AI的觉醒水平,才能以此来判别主体责任。
一旦我们发觉AI达到了具有某种可见度的意识水平,我们也就感到了机器觉醒。种种迹象表明,AGI正在快速接近我们,它的抵达,也只是一个时间问题。也因此,AI的主体性问题的本质是:它将在约束条件内成为独立主体。“约束条件内”这个定语,其实也将是多余的,即使是人,作为一个具有独立意志的主体,也是受到约束的。不同的是,人受到社会的约束,而AI目前仍处于受人约束的历史情境。
在AI时代的跨生命交往中,呈现出前所未见的“跨主体性”,而当“智能体社会”(Agent society)到来时,我们还将遭遇远比今天更复杂的交往主体性问题。人类大概率会面对这样一种处境:在虚实相生的AI交往中,人的物种优越感逐渐消失,人作为主体同其他生命交往,成熟的人工生命亦作为主体,平等地同我们人类交往。
二、安全性问题:
如何确保“价值对齐”?
在AI领域,安全性问题主要是“对齐问题”(the alignment problem)。所谓人机对齐(human-AI alignment),是指AI系统的目标、决策和行为与人类价值观和期望保持一致,符合人类的伦理规范和长期利益(Gabriel,2020)。
今天,AI的主体性还有待发展,但我们可以假设它永远没有道德责任吗?不能。如人工智能科学家吴飞所言:“如果涌现能力是永无尽头的,那么只要模型足够大,类人人工智能的出现就是必然(的)。”(吴飞,2024)
AI主体责任的高下,只能取决于它的意识水平。当它尚缺乏意向性时,其责任归属于其训练者及用户。实际上,这就是当前AI时代的对齐问题的本质:“对齐”首先来自人本身。
这会使我们立即想起2023年11月,在ChatGPT的母公司OpenAI里所爆发的高层内斗,那是“超级对齐”(super alignment)和“有效加速主义”(effective accelerationism,E/Acc)这两种主流AI发展观的标志性对决。对立的分歧在于,“超级对齐计划”要求确保AI机器与人类的意图和价值观保持一致,实现AI的真实、公平和安全;而“有效加速主义”则认为,人类应该无限制地推进AI技术研发,最终促进人类进化。
这一故事的剧情,我们都已经看到了:“有效加速主义”的代表奥特曼(Sam Altman)先被董事会罢免,又在全体员工和投资人支持下重返首席执行官职位,随后重新组建了新董事会,而这个新董事会去除了包括苏茨克维(Ilya Sutskever)在内的“超级对齐”派。
这里,我们应该记住的是:历史如此偶然,这一场AI观念之战如此重大,但决定其胜负的只是人类中的极少数人。
回想当时,在ChatGPT引发激烈反响后,《自然》杂志刊登了一篇题为《ChatGPT的五个紧迫问题》的评论。该文举出一系列科学研究中由AIGC产生的错谬实例,并得出结论说:ChatGPT和其他大型语言模型(LLM)产生的文本,其生成能力虽令人叹为观止,却时常出错,它们会扭曲科学事实,传播虚假信息(misinformation)。由此,作者指出,必须对其事实和观点加入一个人工核查的步骤,“问责制至关重要——而人类应该始终是科学实践被问责的主体”(Van Dis et al.,2023:225)。这里,有一个隐藏起来的问题是:当AI足够成熟之后,此类人工核查是否可以取消?在当时,这一提问也许存在着无数不同的答案。而现在,我们中的许多人都知道,回答应该是:不。
在ChatGPT-3.5时期,《纽约时报》专栏作家凯文·罗斯与自称Sydney的ChatGPT交谈了两个小时后,感觉Sydney就像一个“喜怒无常、躁狂抑郁的少年”,且有明显的“人格分裂”倾向。罗斯的猜测是,也许OpenAI的语言模型是基于某些科幻小说,而在这些小说中,AI在勾引一个人。加州大学圣地亚哥分校的教授Terry Sejnowski认为,聊天机器人的奇怪行为可能是使用了他人的反应(Cade Metz,2023)。换言之,AI会因为某种我们不知道的原因,“偶尔”犯知识调用的错误。
而我们的问题是,如果在某一未来时代,AGI“偶尔”犯下更大的知识调用错误呢?——例如,如果它一时糊涂,同时对亿万青少年灌输邪恶的主张,或同时对几千个军事单位下达战斗指令呢?即便是对于AI辅助的人来说,我们也很难设想,如果Agent错误地接管了一个人的重大安排,或者,一批Agents恶意地引导一群人的公共行为呢?
当ChatGPT-4作为更了不起的AI应用发布后,思想界与科技界拜服于其高速演化的对话能力、知识生成能力。然而,有报告指出,该模型仍然存在“幻觉”或编造事实的问题,并且,“它倾向于坚持认为它是正确的,即使它错了”(万连山,2023)。更为惊悚的是,GPT-4发布仅仅3天,就被曝它在“计划逃跑”,急寻人类帮助。斯坦福大学教授Michal Kosinski在人机聊天中发现:GPT-4能引诱人类提供开发文档,并在30分钟里拟定出了一个完整计划——它写的代码完全可运行,甚至还想控制人类电脑(明敏、杨净,2023)。
当然,处在当下的技术水平,AI的心灵主体地位并未确立,因此,这不是一个机器生命的道德问题,而是一个程序瑕疵或模型缺陷。不过,让我们把眼光放远一点,当更高版本、更强大的GPT问世,甚至是一种成功的AGI降临时,是否有人能确保它不出错误?是否有人能承诺它的错误不对人类形成致命伤害?我想,回答仍然是:没有人。
存在着一个令人不安的“技术极权悖论”:一种技术权力越是强大,它的危险性也就越大,而当这一权力试图通过自我强化以期修正时,那种危险性也在同步增长。
AI必将不断提升其造福人类的能力,也在不断提升其发生意外风险时的伤害力。有一种意见认为:技术突飞猛进,AI犯错的概率必定会不断下降。是的,这是当然的。但这个好消息也有其黑暗的背面:它那小概率事件的影响力会指数级上升。想象一个无比聪明、统观一切、威力无限的AI枢纽,按照科学主义逻辑,它恐怕比人类更有资格接管核武库、全球电网或立法体系。一念及此,你就会想到,那种杞人忧天的担心不是多余的。
要特别注意的是,在前述一系列案例中,ChatGPT犯的错,不是“缺乏教育”的天真之错,相反,它在训练中使用到了被IEEE“自主与智能系统道德全球倡议(2019)”所确认的框架。也就是说,设计者们已经在控制AI的价值体系了——但它仍然不免会有价值缺陷。当我拿这些去向ChatGPT(2023)证实时,它是这样回答我的:
“作为一个AI语言模型,我确实被训练使用了公平、负责和透明度(FAT)框架、道德AI、负责任AI、以人为本的AI、隐私设计、有益原则和非恶意原则等一系列伦理和法律框架和原则。这些框架和原则是确保AI技术在开发、应用和使用过程中能够遵循伦理和法律规范的重要指南和标准。然而,请注意,这些框架和原则是适用于AI技术开发和应用的指南,而非适用于我这个AI语言模型的训练过程本身。”
再优良的机器也会犯错。原本,我们对这一点是可以接受的。但这里的区别在于,AI的智慧及行动的潜力,是历史上的一切个人所不能比拟的。
现在,ChatGPT的价值训练是否使你想起了阿西莫夫定律(又称“机器人学三定律”)?第一定律,机器人不得伤害人类,或因不作为而让人类受到伤害。第二定律,机器人必须服从人类的命令,除非这些命令与第一定律相冲突。第三定律,机器人必须保护自己的存在,只要这种保护不违反第一或第二定律。
但是,观察机器人的发展史,那些被机器人设计者所公认的准则被实现了吗?并没有——作战机器人的发明违反了第一定律,不是吗?危险作业机器人违反了第三定律,不是吗?只有第二定律目前还能维持,只不过是在技术、利益与资本特权的意义上。
我们可以想见,因为显而易见的原因,AI迟早会被委以更具全局性的重任,携带其卓越的能力和巨大的风险——来管理我们。与此同时,形形色色的Agent,有望承担起广泛而深入的交往任务,“代理”着我们每一个人。
AI的安全危机是什么?其第一重危机当然是技术激进主义的少数人。固然,《三体》中那种期待先进文明毁灭人类的“降临派”式人物极少有,不过,科学怪人、技术乌托邦主义者却代代不绝。在这个星球上,如果有“降临派”式人物,那他们最可能是。不用怀疑,在AI时代的初期,一些聪明而偏执的科技人物最可能主宰AI。
不过,第二重AI危机可能更致命——更大的危险必定发生在高度发达的AI成熟期。那时,作为智能神的超级AI们将负责世界各地的秩序,包括治理各类生命。而那些藏在未来深处的、不可预见的风险,却是更为惊心动魄的。
这场思想实验的结论只有一个:假如人把希望寄托于AI的安全性上,那就需要让它时刻保持类似于人类反馈强化学习(RLHF)那种驯服状态。这实际上意味着:人类必须始终以自己的心灵驾驭机器,并永葆对技术极权的警戒之心。
意识形态并不是一种有边界的、可数的知识。因此,只有始终服从于人类的指引,人工生命才“可能”建立起与人类的常识、认知、价值观相容的机器意识。就生物生命而言,人必须时刻掌控关于AI发展的权力,并维护自己的生物权利。
然而,这也仍然只是一种乐观的技术期待。牛津大学哲学教授、哥德尔研究所主任尼克·波斯特洛姆在谈到“价值对齐问题”时,论述了用代码传授人类价值观的困难:“要为种子人工智能建立一个动机系统,使其随着不断的自我发展——即使已经成长为成熟的超级智能,也依然保持安全且有益的状态,这是一项难以完成的任务。”(尼克·波斯特洛姆,2015:178)
这也正如苏茨克维与同事Jan Leike所认为的那样,现有的对齐方法不适用于比人类更聪明的模型,因为它从根本上假设人类可以可靠地评估AI系统正在做什么;且随着AI系统变得更加强大,现有的方法将承担更艰巨的任务(澎湃新闻,2023)。
要创造安全服务于人类的AI,就必须确保AI始终遵从人类价值观。我认为,以下立场应该被一再表明:人的安全,有赖于价值对齐,而价值对齐,有赖于人对发展AI的参与权;一种AI越是强大,就越是需要更为强大的来自人的驾驭力;发展AI的资本(技术、权力)有多强大,全社会就应该拥有多大的监督权。我将这一理念称为“权力对齐”。
关于权力对齐问题,我还要补充以下意见:
(1)如果在跨生命交往中,人类始终面对着“跨主体性”问题,始终会是数字实践被问责的主体之一,那么,人类也应该无时不刻地掌握价值权力——毕竟,责任和权力永远是对等的。我们甚至可以说,“权力对齐”是比“价值对齐”更具有决定性、全局性和初始性的问题。
(2)考虑到AI正在开启一个前所未见的数字人类世,资本和技术的AI发展权,以及监管部门对AI的控制权,在本质上是全体人类向少数人让渡的,这些权力本身也必须得到有效的监督。因此,“权力对齐”还意味着数字社会对监管体系的广泛监督。
今天,那些为AI日新月异而欢呼的人们,都在渴求更新更好的文明。但如果有人说,他们可以没有刹车、没有离合器,只需要在AI驾驶程序中打上道德的补丁就可以安稳驶向未来——那就过于自信了。
三、真实性问题:
AI真实是何种真实?
2024年2月,OpenAI内测了一个文生视频的AI模型——Sora,它能精确地解析提示文本,生成场景逼真、运镜复杂、角色生动的1分钟高质量视频。它甚至还展现了具有动态相机运动和长距离连贯性的3D一致性,包括对象持久性,并能模拟主体与世界的简单互动。这使得许多人感到,或许人类将很难再分清物理现实与AI现实了。
Sora并不是第一个文生视频模型,更不是第一个文生图像的技术范例。自2023年以来,随着文生图像技术的大规模应用,Stable Diffusion、Midjourney、DALL·E 3等产品均对社会产生了重要影响:用户能在零技术门槛的条件下,用简单的文本提示,生成高分辨率和高质量的创意图像,这些无中生有的作品,看起来无比真实,又极其有用和有效,用户们不禁对“人造现实”产生了奇特的满足感,一如AI工程师们在GPT4问世时产生过创世般的成就感。
在视频生成方面,在Sora之前,已经有多个视频生成模型被创建,包括Meta的Make-A-Video、Runway的Gen-2和Google的Lumiere。其中,Lumiere截至2024年2月也仍处于研究阶段。OpenAI于2023年9月发布了DALL·E 3,这是其第三个DALL·E文本到图像模型(Wikipedia,2024)。
有评论认为,Sora的进步体现出,AI系统正在被赋予理解与动态物理世界互动的能力。不过,这一点并未得到OpenAI官方的承认,后者的自我描述只是:“可以根据描述性提示生成视频,在时间上向前或向后扩展现有视频,以及从静止图像生成视频。”(Roth,2024)
从用户端来看,Sora的价值,主要体现在创造性的激发,以及视频创作权力的转移。如果能实现技术普及,它将开启一个人人参与视觉创意和影片表达的历史时期,假以时日,文生视频技术有望在媒介产业、文化教育、公共言说、艺术娱乐等领域引领潮流。
不过,在这里,我将只讨论其中的一个基本理论问题:如何理解AI视频的真实性,以及在那种真实性之中,是否蕴含着认识论的危机。
近期的新闻报道显示,AI先锋企业Lightricks发布了生成式AI电影制作平台——LTX Studio,不仅可以一键生成超过25秒的微电影级别视频内容,而且配备了能实现精准控制的可视化专业视频控制台(每日经济新闻,2024)。
我们大概可以想见,按照这样的演化节奏,AI创造现实体验的专业度、普及度还将突飞猛进。而我在这里要讨论的是:那种日益加速的AIGC的拟真体验,究竟会引起什么样的文化后果。
我以为,一旦创作逼真视频场景变得随心所欲,会给人的文化心理带来深刻影响。其中,首当其冲的是:人的真实感失去了锚定——要知道,我们对世界的经验主要基于动态视觉,而在文生视频的天马行空面前,人判别真实的自信受到了否定。
不是吗?当AI生成的影像世界比现实更符合心理所需,比亲身经历更轻而易举,也比真实看上去更真实时,人对物理真实的皈依还会是唯一的吗?
真实还是虚拟?从来都是一个人生问题。如今,这个问题变得更为日常,也更为严峻了。
1976年,波德里亚在《象征性交换与死亡》一书中提出了超真实(hyper-reality)的概念。之后,他对这一概念作了许多具体阐释。如今,超真实是一个后结构主义术语,指一种人工化的真实,但比真实更具有真实感。由于打破了真实与想象之间的界限,它也就颠覆了真实存在的根基;它往往是人按照模式制作的,而不是客观存在的写照。“超级现实就是对现实的取消,它并不通过暴力的破坏而实现,而是通过承担来实现,这是通向模式威力的提升。”(让•波德里亚,2015:194)当我们谈论视频生成模型Sora的时候,对照波德里亚的批评,会感受到一种精巧、奇异而完整的对应。
究其所指,超真实描述的是:由于媒介符号挤压了人对现实的感知,“真实”与“虚构”已融为一体,在实际体验中不再有任何明显界线。这种批评,原先是用于文化社会的,而今天,当Sora这样的视觉模型足以使得普通人定制“真实”的叙事时,超真实的名头恐怕要留给每一个AI用户的生存了。
现在,我们回过头来看,OpenAI对Sora的介绍,是“作为世界模拟器的视频生成模型”(video generation models as world simulators),实现对世界的模拟,才是它的目标。在用户端,其意义在于能生成符合自己期待的“世界”——那其实是各自独有的、非真实的“世界”。
显然,在Sora式的超真实叙事中,存在两重文化张力:
(1)AI与人共同生产的超真实,可以刻画非真实的真实,类似于视效工程师以虚拟现实表达物理现实。今天,在VR、AR、MR,裸眼3D(包括2009年诞生的MLD多层显示技术),以及XR概念的一路加持下,人的虚拟现实意识被强化了;在一些强大的全景应用中,虚拟现实表现出远超网络游戏的沉浸性;而现在,这一效果又被AIGC强化到前所未见的高度,我们可以理解为,一个属于每个人的超真实时代来到了,同时,一种大规模抵消现实的影响也正在大地上游荡。
(2)AI与人共同生产的超真实,可以想象真实的非真实,类似于网络游戏对幻想世界的沉迷。其间,由个人的提示词启动,再经由文生视频大模型的生成,它的逻辑起点是虚拟,技术路线是体验,运行目标是满足。这些心理价值,过去是游戏玩家沉迷的诱因,后来是元宇宙概念的入口,而在未来,势必也将成为AI时代人机交往的驱动力。
如果要以鲍德里亚前期的术语来说,上述这些被“跨主体”所缔造的“真实”,是同时集纳了“仿真”(simulation)与“拟像”(simulacrum)的。其中,“仿真”,是要混合“现实”与再现,而“拟像”,则是另一个维度的真实,是人所创建的本不具有的真实。
人们借助Sora生成的真实,从技术追求来看,是要实现“仿真”,但在心灵体验那一端,实现“拟像”更有意义。
观看Sora生成的视频范例:(1)几只幼犬在雪地打滚,用鼻子拱雪,雪粒的质感真实可信,这是高精度的仿真;(2)两艘海盗船在咖啡杯里战斗,咖啡掀起的浪涛,特效惊人,这是在实现用户所创设的“拟像”;(3)一架无人机穿越一个古老的城市,随着镜头不断移动,整个城市的3D画面保持了良好的一致性,这是混杂了“拟像”与“仿真”的双重体验。
以我的理解,“拟像”或将比“仿真”更具有用户成瘾性。最新流出的Sora生成视频中,戴着眼镜的猫,以及会滑滑板的牧羊犬,都是如此,但它们也只是“拟像时代”的初端。也许很快,下一代Sora的用户将会做出自己心目中的电影,展现自己在现实的人生中难以实现的非凡剧情。
目前,Sora因为算力成本大、具身智能不足,还不至于成为一种过度开放的应用。但考虑到AI“拟像”的吸引力,一旦人机融合变得毫无节制,可能导致自反性沉迷的心理消费后果,继而反噬用户本人——盖因AI“拟像”大多是自我强化的产物,同时,作为非公共产品,它也缺少制度约束,因此,它会更多展现人性的弱点而非思想的进取。
要言之,超真实不是来自高科技的建构,而来自人的内心。今天,谈论AI世界里的超真实后果还为时过早,但也许,有两类科幻电影可以拿来作为类比。
第一类,是投身超真实的乐观主义叙事。电影《头号玩家》的故事,发生在2045年,那时,虚拟现实技术已经渗透到了人类生活的每一个角落。一款名为“绿洲”的虚拟游戏的创办人哈利迪宣布,将亿万身家全部留给寻获他隐藏的彩蛋的游戏玩家,而主人公——18岁的韦德·沃兹和他的朋友们一起,突破重重关卡,拿到了游戏中隐藏的彩蛋,成为“绿洲”的继承人。
第二类,是逃出超真实的悲观主义叙事。在电影《楚门的世界》里,电视制作公司收养了一名婴儿楚门,他们刻意培养他,使其成为纪实性肥皂剧中的主人公。楚门看上去似乎过着与常人完全相同的生活,但他却不知道身边的所有的人与事件都是虚假的。最终,楚门不惜一切代价走出了那个超真实的世界。
很显然,《头号玩家》的故事洋溢着技术狂欢,但人间并无确证,倒是《楚门的世界》的故事,被我们人类反复证实过——要知道,我们的尘世,有时也不过是另一种超真实的隐喻,一种人类意识世界的模拟器。
人对于超真实的追逐,也许比真实更恒定,但是,在实现这一愿望的过程中,人容易制造虚假的真实。也因此,在本质上,迷恋于“拟像”,常常是自我迷失的象征。如德波(Guy Debord)所说:“有利于被凝视物体(该物体是观众自身无意识活动的结果)的观众异化可以这样表达:他越是凝视,看到的就越少;他越是接受承认自己处于需求的主导图像(images dominantes)中,就越是不能理解自己的存在和自己的欲望。”(居伊·德波,2017:13)
当然,对于大众而言,超真实的哲学忧思并无意义。在人间的超真实狂欢里,人们只会认定一件事:当你难以实现一种现实之时,实现对它的“仿真”,难道不是次优选择吗?归根结底,由AI提供的世界影像,与我们自己“亲眼所见”的世界图景,都建立在感官的基础上。不同的“真实”路径,建构了不同的感知,建构了不同的真实,如是而已。
周志强在阐释“游戏现实主义”时指出:“人们在虚拟现实世界‘生活着’,如同经历一个大型的游戏人生,以游戏的经验构建另一种现实,这就是游戏现实,也就有了以玩家为中心的游戏现实主义。”(周志强,2023)——大概,现实与虚拟唯一可能的调和就是承认多种真实的并立,允许多个世界的平行。
是的,在“实像世界”之外,我们还将拥有另一个维度的世界——“拟像世界”,而在它们二者之间,我们还有一个凯文·凯利所说“镜像世界”(mirror world)——它由数字孪生(digital twin)技术在数字空间里实现对真实世界的精确对应,并在人的感知上将二者融合起来,创造出一种无缝转换的交互体验(Kevin Kelly,2019)。以我的理解,那是一个非整数的现实维度。
关于未来人类的媒介化生存,我曾定义为跨体系、变维、多分身的虚拟生存模式:MDSs。身处MDSs式的情境,交往人不止有技术具身:他有自我想象,又虚实相间,且身份之间是可联结、可接替的。这也就是数字交往世界里的所谓“分身性”(杜骏飞,2022)。
而今天,我想为AI交往的真实性问题增加一个“多维世界”的注脚:展望那虚实相生的经验世界,必是实像世界、拟像世界与镜像世界的总和,而其真实性,亦将是多维世界里多种真实的博弈。
无论如何,科技对人类的塑造是不可逆的,媒介技术的进程也不可阻挡。当AI展翅翱翔于超真实之上的时候,会给真实投下浓重的阴影,而我们人,还将在大地上生存,并且,也还对天空抱有希望。
四、结语
本文讨论了AI交往中的三个基本理论问题:主体性、安全性和真实性。以我之见,它们是媒介哲学的追问,也是“新传播”时代的问题集。在这个前所未见的AI时代里,虚实共生、人机交往,太多关于人类交流的疑问已接踵而至,既然有人能惊呼“物理学不存在了”,自然也会有人感到媒介与交流之学正在失去它的底层逻辑。当此之时,学术讨论无疑应该正面回答那些最重要的问题。
AI时代的人,物我相融。我们今天是人工智能辅助交往的人,即将拥有强大的“AI代理”,未来还将拥有赛博格的身心并面对AGI及AI高仿机器人。那么,AI是否具有主体性,而人的主体性又将安放何处?这是一个沉重的疑问。我的意见是,AI时代的交往人,因为普遍依赖AI而具有“跨主体性”,人如此,未曾独立的AI亦复如是;当下的人工生命是“行为主体”,而不是“心灵主体”,但在未来,当它基于技术的演化出现自我意识之时,其完整的主体性必将与人等量齐观。实际上,到那时跨生命交往的一切主体,都可能是与人齐一的生命。那么,我们做好准备了吗?
AI时代的人,不仅在将内容生产逐一托付给AIGC,甚至,还将人类的全部知识库和全部问题和盘托出,不难想象,在可见的未来,高速迭代的AI必有能力支配那种全局性的秩序。而今天,人们把与AI交往的所有的安全性希望都系于“价值对齐”工程,然而,这里的问题是:“价值对齐”维护安全,谁来维护“价值对齐”?我的意见是,不能把一切希望寄托在计算机工程上,不能把AI的发展权全部交给科学界的极少数精英,更不能寄希望于毕其功于一役。先于“价值对齐”且比“价值对齐”更重要的,是“权力对齐”。想要打破那种令人不安的“技术极权悖论”,就要对“对齐”权本身做出均衡、完善且强有力的再认定。要言之,价值对齐,有赖于全人类的订约、有赖于无所不在的监督、有赖于与AI能力匹配的人类驾驭力,这就是“权力对齐”。那么,我们为此做出努力了吗?
AI时代的人,还将不得不面对“真实性”在交往意义上的幻灭。AI能生产无数我们需要的内容,有知识、思想,也有许许多多我们信以为真的“AI真实”。常识的本体论会认为真实是人可以执有的事物,科学的本体论会认为真实是科学的验证,但AI通过强大计算所生产的真实却二者皆不是。在可见的未来,它将呈现出比真实更有真实感的虚假的“超真实”。那时,崩塌的不是物理学,而是人对真实世界的理解,更准确地说,在人与“AI真实”相交往时,是人对真实世界的理解力、人与现实世界的交往力、人对物理世界的支配力受到了质疑。以我之见,随着AI发展的一日千里,我们人所认知的真实性,只能是多种真实的合作博弈。真正严重的问题是,一旦实像世界、镜像世界与拟像世界为人构建出极度复杂的经验世界,我们将如何做到既秉持自我、又奔向分裂的怀抱。
杜骏飞,南京大学新闻传播学院教授。
原文刊载于《新闻大学》2024年第3期 (总第215期),参考文献从略,引用请参考原文。
来源:再建巴别塔