摘要:人工智能演进开启了人与类人互成镜像的“类人世代”。AI类人(Agents)在其“锚定”的社会、理性、价值、德性存在中以“伦理物形式”呈现。基于计算主义对AI“伦理之锚”的阐释遭遇“具身主义”批评。“具身哲学”认为计算主义的AI类人不可避免地掉入“离身心智”“道
摘要:人工智能演进开启了人与类人互成镜像的“类人世代”。AI类人(Agents)在其“锚定”的社会、理性、价值、德性存在中以“伦理物形式”呈现。基于计算主义对AI“伦理之锚”的阐释遭遇“具身主义”批评。“具身哲学”认为计算主义的AI类人不可避免地掉入“离身心智”“道德机器”“行而上学”的类人陷阱。按照“意向性差异”的一般阐述,“机器意向性”与“蝙蝠的意向性”的比较可为“类人”的伦理之“锚”做出说明。机器意向性呈现出的四重紧张关系,表征了AI类人因“主体性欠缺”而无法最终越出其初始用具形态的阈限,因而隐蔽着一种“新奴隶制设置”。人机共生意向性作为机器伦理的底层架构以“自身意识逃逸”为技术进路,然而这实际上预设了“自身意识”返回自身且面向自己本身的反思的重要性。反思性带来的不安或忧性,是机器意向性无法穿越的“伦理剩余物屏障”。澄清“类人陷阱”“新奴隶制设置”“自身意识逃逸”造成的不安,有助于破除AI伦理学探究中出现的一些似是而非的观念。
关键词:AI类人(行动者); 意向性; 伦理; 道德
人工智能(Artificial Intelligence,简称AI)是让计算机完成人类心智能做的各种事情。它在今天显示出广阔强劲的发展前景,表征时代发展的可能方向。如果AI继续加速发展,那么人类将会迎来人与AI深度交融共生的社会。雷·库兹韦尔(Ray Kurzweil)的“奇点预言”并非毫无根据。它可以被看作是对“人”与“类人”(Agents) AI邂逅之预言。AI演进开启了与人类共生共在、互成镜像的“类人世代”(the Age of Agents)之降临,表明人类必然遭遇AI伦理物和社会关系、生命秩序的急剧变革。如果类人是一种模仿人类水平的强AI或通用AI(AGI,一种足以模拟人类并能够匹敌人类智能的AI Agents),那么其认知模式在人机共生意向性上必然面临“伦理之锚”的纠葛。
本文旨在从人机共生意向性视角澄清三个困惑:(1)当AI伦理开启人和类人之间的道德纠葛时,它带来的是计算主义福音,还是一种“类人”“陷阱”?(2)当AI伦理揭开“机器意向性”难题时,它遵循的实践理性是道德机器(灵魂机器)的技术创制,还是“新奴隶制”的制度革新?(3)当AI类人(行动者)不断切近人类伦理能力和伦理行动且对之进行模仿时,能否设想一种由类人推动的穿越人和人类性的“文明旅程”?是否存在不可能突破且无法穿越的一种伦理上的“自身意识逃逸”?上述困惑与AI伦理学的“锚定陷阱”“新奴隶制设置”“自身意识逃逸”紧密相关,对之进行必要澄清,有助于破除AI伦理学探究中出现的一些似是而非的观念。
在联合国有关机构发布的《机器人伦理报告初步草案》(2016年)和《人工智能伦理问题建议书草案》 (2021年)中,不仅人使用机器人的伦理被写进草案和建议书,而且“机器道德”或“道德机器”问题也成为议题。AI发展要对政治、安全、生态、性别、社会公平、多元价值、人类幸福等负有责任。“规范运用AI”与“赋予机器以道德”,产生了两种或者两套“互镜”的“伦理”的规范:
一方面,AI作为“类人”或行动者通过模拟人类主体以规约自身——由此,形成了以“人类伦理”为AI类人锚定的规范体系。
另一方面,人类在与AI相关实践领域可参照AI建立规范约束,以规约作为主体的人和人类——这似乎构成了“人类伦理”之“锚”的一种反向运动,即人类伦理的规范体系可能需要参照AI类人而行动。
这里,内含两种类型的伦理:其一,AI“以人为镜”的“伦理”;其二,人“以AI为镜”的“伦理”。两者相互性关系的开启,包含了“互镜式”约束关系的两个方面。从这种“互镜式”关系看,似乎存在一种人与类人之间的双向“伦理之锚”:一方面,AI在“模拟主体”层面以人和人类主体为模仿物或参照物来建构有约束力的关系,此即“AI向人对齐”的“伦理之锚”;另一方面,人类伦理在能力和行动上面临AI类人模仿挑战时,构成了某种程度的道德上的“倒逼”(人类个体可能面对比人类主体在行为规范性层面更加理性的行动者),这使人类的道德亦迎来了自身改善成长之契机,此即“人向AI对齐”的“伦理之锚”。
“类人世代”的标志性世界图景在于,AI类人在上述“互镜”的初始参照系中选择其所“锚定”的目标,且在此“锚定”中以“伦理物”的形式呈现,而随着这一进程的迭代加强,它自身也因此成为被“锚定”的存在。
我们看到,在可能的通用AI系统支持下,AI伦理物的出场至少由四种锚定的初始参照系提供:
(1)社会参照系。通过锚定“社会参照系”作为初始算法和估测值,AI类人或行动者可能被统摄于社会秩序之下。当我们说“AI以人为参照”时,说的其实就是“AI被引入社会”这样一回事,即AI作为类人存在或行动者在技术上是允许被统摄于社会秩序之下,且是进入社会化进程和文明进程之中的存在者。因此,在锚定社会存在的意义上,AI之为类人,可能会被视作“社会存在者”,从而被列入扩展了的“伦理物”清单之中。
(2)理性参照系。AI演进必然开启一个“锚定”人类理性的“类人世代”。人类个体可能面对比人类主体在行为规范性层面更理性的行动者。AI作为类人通过“锚定”人类理性,而被设计为可信赖之物。因此,当我们说“AI以人为参照”时,说的其实就是在AI设计过程中既要对其功能有超强预见,也要对其使用有充分培训,通过人类的预先设计解决可解释性和透明性问题。因此,在锚定理性存在的意义上,AI之为类人,可能会被视作“理性存在者”而被列入扩展了的“伦理物”清单之中。
(3)价值参照系。当人们讨论AI偏倚性或者AI偏见时,极有可能是在谈论一个在意向性维度呈现的价值之“锚”。“想象一下,一个被训练在模拟器上下棋的人工智能,高估了其创建者更偏爱的一组走法。与其创建者一样,人工智能将学会更倾向于这些走法,即使它们在实战中的表现不尽如人意。”AI的脆弱性在于它受人类的价值参照系或价值观锚定,而与真正的“人类价值理解”存在根本上的差异或不同。这使之在价值问题上表现出一种“极薄化”的肤浅性,即AI总是会被列入一种能力锚定的价值对齐下。AI能力锚定在价值上也是双向的,既要求“机器向人对齐”(机器以人为镜),又要求“人向机器对齐”(人以机器为镜)。应该看到,AI在价值问题上的这种脆弱性和肤浅性,并不妨碍AI作为“价值存在者”而被列入扩展了的“伦理物”清单。
(4)德性参照系。随着机器学习算法和不断增强的“算力”在加速进步,AI在行动参数上获得相当大自主权。AI扩展了我们对现实世界的理解。它在沟通、联系、共享信息方面,在决策、科学研究、教育、医疗、生活等方面,越来越表现出卓越品质。因此,AI被预设为一种开放性德性架构是没有疑义的。事实上,“规范人类运用AI”,且使“机器具有伦理能力”,须以“人”和“类人”之间“互镜”的德性架构为前提。无论AI类人带来的长期影响如何,短期内它在“经济领域、就业和身份”等方面,甚至在“军事”“政治”等领域改变人类经验,是一个毋庸置疑的事实。这既涉及人类主体的自然德性的性质和德目,又涉及AI类人主体的人为德性的性质和德目。上述两方面构成了AI作为行动者的德性目标及能力锚定。因此,AI有可能被作为“德性存在者”而被列入扩展了的“伦理物”清单。
不难看到,当AI类人代替人去完成一些只有人才能完成的任务时,上述伦理之“锚”就会出现。当其实际发挥作用时,AI类人因此被塑造成为与“人”类似的社会存在者、理性存在者、价值存在者、德性存在者,等等。这是一种顺理成章的伦理拓展。由于这一“扩展”,AI类人便是一种像“人”一样的“类存在”或“类本质”的存在。
然而,这里引发忧思的关键在于,当人不再亲自探索和构筑我们的世界现实而是通过AI作为感知、思想、决策和行动的“辅助者”甚至“代理者”(Agents)时,AI带来的到底是一种“计算主义福音”,还是某种被符号化的“类人陷阱”?
到目前为止,人们对于AI“伦理之锚”给出的一种被广为接受的观点,是一种可以被称为计算主义(Computationalism)的观点。基于“伦理之锚”(它是理解AI类人模仿人类伦理能力和伦理行动的初始参照),计算主义观点的核心以承认心智功能的可计算性为前提。它分为模拟主义和行为主义,强调AI是在模拟主体和行动主体(Agents)的“锚定”中被赋予心智功能。在计算主义者看来,AI类人作为道德行为者,是一个不言而喻的AI技术现象和AI技术实践。模拟主义主张,对人类智能的模拟成功等同于智能本身,图灵测试正是其直接的思想源泉。行为主义则认为,AI直接给出恰当行为(不论它是否是对人类行为的模仿或模拟)即意味着智能。模拟主体或行动者,是类人或类主体的另一个表达,其伦理能力和伦理行动,与任何主观和先天的是非判断无关。不论是否理解标准背后隐含的道理,也不论是否同意、是否感知正义和邪恶,对行动者(Agents)而言,只要它(它们)依照公认道德标准(不论这个标准是否出自行为者自身)行动,AI类人就是“道德行动者”(Moral Agents)。计算主义者对道德行动者的定义是:道德行动者必须能感知其行为后果中与道德相关之部分,并有能力自主地在行动方案中做决策。按照这个定义,如果AI有足够能力(如深度机器学习)感知周围环境中与道德相关之“事”“物”,并采取正当行动,它就属于道德行动者。AI类人作为“伦理物”或道德行动者,通常被描绘成为一种计算主义的技术创造,并因此被技术加速主义者视为人类的“福音”。
然而,人们从哲学层面对计算主义的反思一直不曾停歇。特别说来,“具身哲学”(Embodied Philosophy)对AI意向性的质疑,提供了对计算主义进行严厉批评的第一个哲学版本,同时也延伸到对AI伦理之“锚”的可行性质疑。围绕意向性是否是通用AI的决定性特征,具身哲学通过借鉴现象学理论,强调人类生命形式“有意义的意识”和“具身化”(“被体塑”)特征,认为身体(而非符号)应该是更好的关注焦点。“具身哲学”倡导的“具身主义”的进路,通过将意向性描述为“有意义的意识”和“具身化的意识”,认为“计算主义”的AI类人会不可避免地掉入三个陷阱:
第一,“离身心智”陷阱。“具身哲学”对计算主义的第一个批评是拒不承认离身心智(Disembodied Mind)的可行性。“具身哲学”承诺一个基本前提,即“心智”必须是“具身形态”或“被体塑”。由此,可推论出“离身心智”不能提供意向性,不能产生智能。在这个意义上,经常为人们引用(今天仍然具有争议)的约翰·塞尔(John Searle)“中文房间”(Chinese Room)思想实验,为这个批评提供了辩护:形式化的计算不能产生意向性。在“具身哲学家”看来,计算主义哲学基础可追溯至笛卡尔“心物二元论”及赖尔对“他心问题”(Problem of Other Minds)的关注,图灵测试是其直接的理论依据——这些理论和观点基于一个错误的预设:“离身心智”的可行性。虽然AI在今天的发展似乎确证了计算主义(模拟主义)的成功——例如,以ChatGPT为代表的自然语言处理(Natural Language Processing, NLP)工具在大模型及相应训练中甚至生成了“情感计算”,以至于“离身心智”可行性和可计算性不仅在“理性维度”而且在“情感维度”得以展开,这似乎为一种AI伦理内在性生成敞开了可能性。但是,建立在计算主义基础上的AI类人并不能够完全解决“离身心智”面临的意向性难题,也不可避免会陷入“离身心智”的“类人”陷阱。
第二,“道德机器”陷阱。“具身哲学”对计算主义的第二个批评是否认“道德机器”。由于真正的智能包含理解力和意向性,心智的内生性或“具身性”迫使人们不得不承认:离身心智及意向性不可被“置入”心智或者AI中去。这意味着,“自上而下”的灵魂机器或者“道德机器”是不可能的——它充其量只能是一个“神话”,或者是一个“寓言”。如维特根斯坦所言:“就算一头狮子可以说话,我们也不会理解它。”因为,生命形式的差异,使得真正的沟通断无可能。从技术层面看,AI“意向性”通过两条途径获得道德机器的构建:一是机器意识(Machine Consciousness),即建立有意识的计算机模型;二是语义意识或元语言意识(metalinguistic awareness),即通过对元语言所描述的语义网络的识别和监控,进入计算术语分析意识。我们不能由此断言,一个真正智能的通用AI拥有实质性自主意识(或自我意识)。但是,我们也不能否定它具有形式上的功能意识,无论是计算模型(大模型)还是语义网络,人类水平的AI系统必定“能够进行深思熟虑和自我反思”,甚至可以产生“创造性想法”,“甚至特意评估它们”。虽然这些能力只能“看似”智能表现和“有意识”的心智,而非真正意义上的意识现象或心智能力,然而不可否认在计算主义世界图景中,AI伦理之“锚”是根据AI被赋予的“目标函数”模拟人类进行“更好”学习、演化和行动的形式化计算。AI类人遵循的“类”“人”语义和逻辑,模拟或模仿人类而产生了动态学习能力和不断超越现有智能及其锚定目标的准“意向性”或类“意向性”。在这个意义上,AI“意向性”离真正意义上的人的意向性还相距甚远。它说的只是,AI类人在“以人为镜”或“以人类智能为锚定目标”时,产生不断切近乃至超越人类智能的演化方向或行动目标,从而对“人何以为人”的决定性属性带来挑战。这种“自上而下”的离身心智的置入,是通过AI意向性建构伦理之“锚”,由此也就必然会陷入一种“道德机器”的“类人”陷阱。
第三,“行而上学”陷阱。“具身哲学”对计算主义的第三个批评是质疑模拟主义、符号主义行为的意义。在计算主义世界图景中,AI类人的意向性是指运用“纯计算”与控制论(通过模仿或模拟)来直接再现人类智能行为的一种行动者预设,它不同于真正意义上的人类伦理能力和伦理行为。由于“离身心智”的意向性问题是一个无意义的形而上学问题,因此类人或行动者不可避免地呈现为一种形而上学的技术展现。其中,隐匿了将“形而上学”改写为现代技术的“行而上学”的陷阱——即通过抽象化、技术化或符号化的“行动”(而非“身体”)以某种方式将人工智能之类人奉为“准神”,重新祭出占据支配地位的某种脱离了人的“神秘化本质”。人类应该接受“行而上学”的类人(具备人类水平的AI类人)成为我们道德社区的成员吗?“具身哲学”给出的回答是谨慎性的,甚至是否定性的。因为,“具身化”的意义在于:强调心智必须是一种“被体塑”的存在,认为真正的智能只能基于身体,通用人工智能不可能有“意向性”,因而不可能有真正的智能。从这个意义上看,符号化的AI类人并不值得关注,因而不可能是我们人类社会的道德社区成员。“即使屏幕上的系统是一个自主智能体,结构上能够耦合到一个物理环境中,然而这不能算是被体塑。”“被体塑就是成为一个动态环境中或与这个环境积极互动的生命体。环境和互动涉及物理层面和社会文化层面。关键的心理属性不是推理或思想,而是适应和沟通。”伦理能力作为一种心智能力,一定是在“具身心智”意义上伴随着一定生理结构、文化环境、具体语境与历时性的身体沿革。在这个意义上,设想某种形式的强AI或通用AI,通过伦理之“锚”进入人类道德社区,就必然会陷入一种“行而上学”的“类人”陷阱。
当AI“伦理之锚”揭开AI类人面临“离身心智”“道德机器”“行而上学”三个“类人陷阱”时,它实际上已遭遇“机器意向性”难题。所谓“机器意向性难题”是说,当人们在思考机器(或机器人)或许“能看见”“能感知”——甚至“能考虑”“能思想”——但却“没有意识”时,会感到震惊和困惑:这怎么可能,一个没有意识的存在者(机器)“能看见”“能思想”吗?这一困惑根源于人们对“有意识”这一事情本身的经验所内含的某种“意向性差异”。所谓意向性差异,通俗一点说,是指“一物在向人呈现出来的‘有意识’的意识状态”和“一物在就其自身而言就具备‘有意识’的意识状态”之间的差异。前者属于“现象性意识”,可归于“一阶意向性”;后者属于“自我意识”,可归于“二阶意向性”。事实上,人们关于AI作为智能机器在意向性维度呈现为现象性意识这一点其实并无疑义,争论主要集中在AI是否有自我意识。因此,清理“AI伦理物”遭遇“类人陷阱”的关键,在于展开“AI是否有自我意识”,由此才能穿透机器意识的本质及其隐蔽的“新奴隶制设置”。
探问机器意向性的本质,在于区分“描述一物有意识状态”和“一物实际有意识状态”之间的细微差异。内格尔在《做一只蝙蝠是怎样的》 中写道:“一个生物体拥有有意识的心理状态,当且仅当,存在着作为那个生物是像什么样的某些东西。”内格尔的问题实际上是有关如何描述一只蝙蝠的意识状态的问题。他给出的方案是将这个描述转换为只有蝙蝠才能通达“依凭其声呐在黑暗中飞行的特性”的说明。这种经验的主观性根源通常被置于不可知的事物自身范畴。它仅为人类眼中的“蝙蝠之所似”所捕捉,不涉及蝙蝠是否自知其所“似”。当然,蝙蝠对其所“似”无概念,并不妨碍它按照生物本能行动而展现为一种“有意识”的“意识状态”。这意味着蝙蝠的“意识状态”只能是一种现象性层面的现象性意识(“一阶意识”),不是现象学层面的本质直观意识(“自我意识”或“二阶意识”)。事实上,人以外的一切物种生命(包括蝙蝠、鱼、狗、蝉等)由于对其本质无直观,因而不可能有“应该不应该”的意识。按照上述关于“意向性差异”的一般阐述,“机器意向性”与“蝙蝠的意向性”的比较可为AI类人的伦理“锚定”做出说明。
(1)机器和蝙蝠都对其本质无直观,故展现为有所“似”的意识状态,因而都属于现象性意识范畴,它们都具有“一阶意向性”。这一点不存在争议。
(2)蝙蝠的意识状态由蝙蝠的生物本能所赋予,其所“似”乃是蝙蝠的物种生命特性,受自然先定(倘若某一蝙蝠不是其所“似”,它便会呈现出怪异甚至妖异的现象性意识);AI类人所展现的意识状态则由AI算法所赋予,其所“似”乃是模拟人的“类生命”特性,它受人的创造性活动所锚定;自然赋予蝙蝠“物种”规定,人赋予AI“类”的规定。二者的根本区别在于:AI类人的规定,是一种旨在突破一切“一阶意向性”的“一阶意向性”,因此它看上去仿佛具有自我意识(而实质上不具有自我意识),似乎有“应该不应该”的道德选择,但其实只有一种“类道德”或“拟道德”的“非道德”选择而已。
(3)AI“伦理之锚”的一阶逻辑存在于AI“类”规定的这种自相矛盾的特性中。我们知道,只有人才是类生命存在,才有自我意识以及由自身意识展开的二阶意向性(“对其本质有直观”的意识状态)——世间一切其他的物种生命,正是因为有了人这一类生命存在,才展现为作为一种现象性意识的意向性。因此,当AI类人模拟“人”的行为时,AI类人的意识状态作为机器意向性的呈现,实质上是人的类生命本质对象化的一种高级形态。
(4)AI类人作为人的“类本质”的对象化,它所呈现出来的意识状态就是人的类主体意识的对象化、物化和现象化,也就是说,是设计、创制及使用它的人的意识凝聚。这种汇聚起来的“类意识”不限于阅读、影像、构造和人工装置的迭代升级,它甚至包括智慧城市架构、政治经济结构、国际政治框架以及个人的教育方式等方面的结构性变革。
(5)由于AI类人是以人这种类生命存在作为它所“类”的理想目标,机器意向性就上升到了人机共生的意向性:一方面,AI类人以人为“镜”、以“人”为“类”的意向性,是人机共生意向性的主动方面和积极要素;另一方面,人作为类生命存在以AI类人为“镜”、以AI类人为“类”的意向性(在该意向性下人把“类人”引为同类),是人机共生意向性的被动方面和消极要素。当这种交互式的人机关系展现为一种机器意向性时,AI“伦理之锚”便获得了它所锚定的一阶意向性的一种“价值参照”。
AI类人作为行动者在“机器意向性”层面展开意识状态,这一特性显然超越了作为一般生物物种所具有的现象性“一阶意向性”,同时它又不具备人所特有的作为本质直观的“二阶意向性”。因此,AI“行动者”处于现象性意识(一阶)与本质直观意识(二阶)之间的中间地带——正是此“中间状态”使得AI表现为“能看见”“能思考”“能推荐”等能动性,但并无真正意义上的“自我意识”,此为理解AI“伦理之锚”的关键所在。
苏珊·安德森(Susan Anderson)注意到了机器意向性在AI行动者构造上的伦理独特性。她将AI“合乎伦理”的目标定义为:“创造一台遵循理想伦理原则或一套指导其行为的伦理原则的机器;换句话说,在它针对可能采取的行动方案做出决定时,就是由这一伦理原则或这些伦理原则指导。简单地说,这涉及为智能机器增加伦理维度的问题。”从机器意向性构成看,为AI“增加伦理维度”就是让AI意向性朝向模拟人类道德的方向。其初始程序通常由伦理系统的外部植入实现。按照这个“锚”定逻辑,ChatGPT通过外置过滤器“审核端点”(Moderation Endpoint)判定用户输入与程序输出的语句是否符合人类价值观和道德。它设置了针对“仇恨”“歧视”“自我伤害”“色情”“暴力”等敏感词的审核。这是道德机器的第一个现实版。在这个现实版中,让AI伦理化的程序与ChatGPT无强相关性,它只是被OpenAI装配进ChatGPT的一个外置伦理审查工具——将这一工具用于检测和审查人类的发言一样有效。也就是说,ChatGPT不存在内生的伦理机制。基于植入一套伦理系统而展现机器意向性的做法,被称为机器伦理的规范主义——它预设了人类社会构建的伦理体系,可被视为一种“离身心智配置”,并能被机器所理解与执行。这里的关键性假定是:语句可被机器理解的前提是语句理解问题被转化为计算问题。由此,机器伦理的规范主义通过计算主义逻辑获得了AI伦理上的运用。
那么,为AI增加伦理维度到底意味着什么?从人机共生意向性层面看,它意味着“AI向善”的善良意志必须体现于“人与类人之间”展开机器意向性这一复杂形态进程。从机器意向性视角看,它意味着机器伦理的规范主义构成了AI“伦理之锚”的一阶逻辑——由之指导创制的AI是一种模拟性质的道德机器,而这种基于“图灵机”呈现出兼具“非自主性”“可预测性”“抽象能动性”的行动者,其行动意向性只能由预定的“伦理”之善所开显,而非由自主的“伦理”之善所开显。AI在机器伦理的规范主义进路上面临因类人“主体性欠缺”而遭遇“道德能动性”困扰。因此,AI在“图灵机”的机器意向性层次上仍然属于“AI用具”范畴。这一层次的“一阶意向性”带来的限制,使得AI在伦理、法学上面临一连串问题,因而隐蔽着某种“类人世代”的“新奴隶制设置”。
具体说来,机器类人作为“非人之人”的技术设置,隐蔽着“非对称主体性”的位格差异。这一“位格差异”是说,“类人”之为人在位格上与“人类”之为人是处于不同层级上的“位格”。这种差异必定造成定义“道德能动性”的不同方法。此处至少存在两种不同的方法:第一种是把“道德能动性”定义过高,使之归属于“主人道德”范畴,例如,将伦理能力定义为有能力辩证理解并按照道德原则行动且有“为自己立法”的道德立法能力;第二种是把“道德能动性”定义过“低”,使之归属于“奴隶道德”范畴,例如将“伦理能力”定义为有能力做出合乎美德的行为。“如果这个较低的标准可以被接受,那么几乎不用怀疑,很多其他动物在某种程度上也是道德行动者。”因此,那些旨在从伦理上容纳AI规范主义讨论的基本进路,都是按照较低的标准来定义“道德能动性”的。它们所遵循的逻辑通道是一种功能性道德建构——认为将伦理体系置入机器就能让机器行动者展现出某种类型的道德功能,从而创构某种类型的“道德机器”。
这里呈现出的荒诞之处在于依次出现以下四重紧张关系:“非自主的自主性”纠葛、“非主体的主体性”纠缠、“非位格的位格性”纠结、“非人之人”纠纷。这四个自相矛盾的行动者特征,表征了AI类人因“主体性欠缺”而无法最终越出其初始用具形态的阈限。对于机器意向性的上述四种紧张关系,我们分别使用了“纠葛”“纠缠”“纠结”“纠纷”的形态化修辞描述,以表征AI主体性遭遇的“模型化内卷”。一方面,“模型化内卷”标明其“主体性欠缺”的不同程度,且因之而不可越出“工具性”范畴;另一方面,一种老是要越出“用具阈限”的意向性,反而构成了AI机器意向性的本质规定。这一点从AI“伦理之锚”的迭代轨迹中可以清晰地加以描述。我们依AI“主体性”由低到高的分布(可描绘其“主体性欠缺”由“高欠缺”到“低欠缺”的分布阈值),可以将AI越出“用具阈限”的意向性分为五个阶段:
第一阶段,AI小模型——单一规范性能力的“功能外包”阶段。在这一阶段,机器无法真正理解道德语义,自主性只具有工程学意义上的“弱意义”。我们不知道机器是否有意向性或者有真正的信念、欲望等,只能假设它有“心”。为了规避哲学上的“他心问题”及衍生的“责任难题”,我们通过纯粹显象性(或现象性)意识预设机器意向性,就可以解释一种“无心的道德”。即AI机器只按照伦理指令行事(如人脸识别等)做出开放“许可”和实施“禁止”的伦理审查的模拟自主性模式,至于它是否具有真正自主性(或意向性),那纯粹是一个形而上学问题,不是我们应关注的问题。(L1阶段:“非自主的自主性”)
第二阶段,ChatGPT模型——机器类人与人类进行初步理解性互动、沟通的“交流之门被打开”阶段。有人称ChatGPT是朝向通用AI的拐点。在这一阶段,机器意向性仍然在“图灵机”层次上处理人机关系或人机共生的协调、适配、调整和整合。在这一模型下,道德能动性包含了“交互性生成”“自主性提升”和“适应性调整”三个抽象化标准。在这一模型化的人机互动中,能动性作为机器意向性的一种生成性功能,它遵循后果论推理:当且仅当一个行动导致道德上的善恶,这一行动才可以被看成与道德相关的。ChatGPT模型的伦理能力在AI行动者层次上已经呈现为一种可朝向学习型、友好型和相互促进型的道德行动者的良好人机相与模型的“主体性构建”。(L2阶段:“非主体的主体性”)
第三阶段,Sora模型——“训练AI理解和模拟运动中的物理世界”的阶段。Sora的实质是训练AI在机器意向性上具备像人一样的主体性。有学者预测,未来五年Sora模型在“算力”和“训练”大规模增强和迭代演进的条件下与“具身机器人”融合,有可能会突破图灵机的阈限,成为具有“具身意向性”的一种“位格性”的道德行动者。在Sora模型的迭代升级中,由于技术上“觉醒AI”的条件实际上已经具备,一旦在这一赛道上“人形机器人”大模型开始出现,机器的伦理能力在AI行动者层次上就必然引发法学上关于AI位格尊严和责任鸿沟的争议。这使得AI位格伦理和责任伦理实际地摆在了AI新产品研发及AI用户诸界面及诸场景生成中。由于AI类人的“位格性”总是卷入自我纠结的“工具性-反工具性”的模型构建,这就使得机器意向性在Robot原初语境上的“奴隶”或“机器奴隶”的身份得到了进一步的彰显。从这个意义上,我们可以说,“奴隶道德”以及“新奴隶制逻辑”,实际上隐蔽在了这一非对称性、不平等的AI“位格性构建”中。(L3阶段:“非位格的位格性”)
第四阶段,“哈贝马斯机器”模型——构建AI协理人类共识的阶段。人类道德面临现代性共识坍塌的挑战。谷歌DeepMind构建了一个名为“哈贝马斯机器”的模型,它以德国哲学家尤尔根·哈贝马斯(Jürgen Habermas)之名命名。“哈贝马斯机器”的伦理预设是:当理性、平等的商谈得以被“各方”看重、认同并得到有效推行时,“相互尊重”“完美沟通”的交往伦理一定有助于公共领域共识之达成。让AI优先“生成”一种理想商谈程序,就可以基于AI程序伦理框架和平解决棘手问题,包括人机之间的棘手难题。因此,“哈贝马斯机器”在机器意向性上最突出的一条就是:“构建反觉醒AI对抗觉醒的AI。”因为,一旦AI进入“觉醒”,它就可能在“非人之人”的意向性上生成“说谎的AI”,这可能直接破坏AI程序的伦理框架。(L4阶段:“非人之人”)
第五阶段,“上帝机器”模型——构建人类水准的AI主体性的阶段。设想人类制造出一台拥有强大的自主学习与发展能力的量子生物计算机,可称之为“上帝机器”,它能够监测每个人的思想、信念、欲望和意图,在纳秒内修改这些内容,以达到增强人类自身道德的目的,而人类主体根本意识不到它的这些修改。目前,“上帝机器”模型还只是一种设想,它更像是科幻小说中出现的“情节”。但是,在AI发展到“哈贝马斯机器”之后,“上帝机器”设想可以借助基于人类水准的超级AI的主体性构建而探索它的现实可能性——即借助量子生物计算机的发展,以通用AI“锚定”人类主体性的自我超越性,实现“人造”版的超验实体级别的“上帝机器”并非没有可能。“上帝机器”的想象在机器意向性层次上诠释了一种“追求完美”的伦理能力。然而,当“上帝机器”行动者在纳秒内全程监测人的思想、信念、欲望、意图并对之进行修改,则意味着它反过来将人类视为可以被随意支配控制的“对象”“客体”甚至“物体”。此种可能意味着“新奴役状态”(“类人”奴役人类的奴隶制)初现端倪,而这实际上已然隐匿在“人类将机器人‘类人’”视为人造的“机器奴隶”或“算法傀儡”的AI“利维坦”之中。(L5阶段:“非神之神”)
综上所述,机器意向性隐蔽着“类人世代”“新奴隶制”的一种内在冲突:一方面,人把类人视为“机器奴隶”——对于类人而言,“伦理即服务”是这种功能性道德建构的典型表征,以至于人类需要“构建反觉醒AI对抗觉醒的AI”以防范不为人类提供服务的类人的反叛;另一方面,一种反向支配关系隐匿在“上帝机器”宰制人类的可能性中,类人在“上帝机器”构想下把人和人类视为可以对之进行全面支配、控制和奴役的客体对象——对于“人类”而言,“伦理即忧惧”是这种本源性道德构建的典型表征,由此产生了AI伦理影响评估下以最突出的方式呈现的深层次的“主体性生存忧惧”。关于AI类人作为行动者面临“无归责侵犯”的忧惧只是这种忧惧的浅层表象。实际上,更深层次的忧惧还在于,机器意向性甚至隐蔽着“类人世代”新奴隶制的原初悖论:如果类人法学主体性及“位格身份”不能获得承认,它作为自主行动者,既不能为自己负责,又被毫无阻拦地在社会中运用——这怎么可能?这意味着什么?这一悖论深刻地揭示出机器意向性存在三种价值取向上的困扰:第一,存在朝向某种“逃逸开的责任”的可能;第二,存在趋向“不能被清算的侵犯”的可能;第三,存在允许“不予以修正的错误”的可能。
从以上揭示的机器意向性看AI伦理之“锚”,它在人机关系上预设了人类与类人之间“互镜”及相互中介的两面性:一方面,人的认知和智能在意向性上有机器意向性无法模拟的方面,但是这并不妨碍类人以人为“锚定”并展现出一种加速进步的趋势;另一方面,机器意向性在其纯粹表象性上隐蔽着深层的“奴隶道德”或“新奴隶制”,但是同样不妨碍人以类人为“锚定”重构人类道德进步。关于第一个方面,埃隆·马斯克预测,1~2年内AI能做任何人类能做的工作,5~10年内AI将达到全人类智慧的总和。关于第二个方面,埃隆·马斯克把AI形象地比喻为一个“超级天才的孩子”,“你知道他最终会比你聪明得多”,“你能做的就是在他小时候教会他正确的价值观,比如慈善、道德、诚实和积极”,“但问题是,一旦他超越了你的智慧,你就完全无法控制他的行为了”。
上述两个方面涉及“人机共生”意向性的“二阶规定”。梳理其相互关系,可概括如下要点:(1)意向性不仅有“一阶规定”,即“意识总是关于某物的意识”,而且还有“二阶规定”,即任何事物作为意识的意向相关项都要以心灵本有或自身意识的本质直观为前提。(2)从“一阶规定”看,通过行动能力定义行动者,可表述为:当且仅当一个“X”以实例形式直接引起某一“作为”(行动)的意向性状态时,“X”就是一个行动者——由此,我们可在“现象性意识”层面指认,机器意向性中的AI机器在其现实性上就是行动者。(3)然而,一阶意向性所锚定的信念、欲望、意向、意志等现象性规定,来源于比之更高维度的“二阶规定”:当且仅当A是由某一意向性状态引起的“作为”,做A就是一个行动,即“行动能力”(Agency)概念早已预设了“行动者行动”是由心灵状态(或意识状态)所引起的。(4)如果心灵状态的一些特征是主体通过内省观察,那么它们就是有意识的心灵状态;由此,我们可在“本有性意识”(或“自身意识”)层面指认,机器意向性中的“AI机器”不是真正的行动者——因为,真正的意向性是心灵直观事物的能力,即心灵对事物、性质、事态进行关注和表征的能力。由此,我们看到,机器意向性不论如何“进步”,即使达到了“上帝机器”的顶级形态,也有其不能触及、不可穿越的“伦理剩余物”屏障——此即“人的心灵”“人的自由意志”“人的自身意识”和一般所谓“人类精神”的领域。AI伦理面临的最大难题根植于“人机共生”意向性的“一阶规定”和“二阶规定”之间的对立统一。它外显为人如何适应“类人”在机器意向性维度展现以自身意识为其伦理之“锚”以及由此带来的伦理挑战。
从意向性视角看,智能的本质不是从主体出发“达于”客体而构成的知识层面主客统一,而更多的是“主体直观客体”的方式。机器意向性基于AI自主学习、迭代升级的演化而延展出一种意向性“新现象”——它只能停留在“人机共生”意向性的一阶规定,永远只能延展却不能达于“主体直观客体”的“主客先天一体”的二阶规定。由此,意向性概念可分出“属人意向性”与“机器意向性”(也可称之为“属类人意向性”)之间的关系论域。这个“之间性”表明:机器意向性中“一阶规定”向“二阶规定”延展是一个不断展开的加速过程,且揭示出一个更加深刻且影响深远的AI伦理领域,这就是我们称之为“AI伦理之锚”的领域——它是理解何谓“伦理能力”的关键。由此,“人机共生”的意向性得以主题化,基于“属人智能”和“人工智能”之间的“伦理之门”被“打开”。
这一“设置”(“设置”一词是一种隐喻性的说法)非常类似电影《哈利·波特》 中的“任意门”。人与类人之间通过它建构一种“人机共生”意向性:一方面,如同“数字孪生”一样,世界被纳入属人的意识相关项而被“类人”所模拟;另一方面机器意向性在模拟中又展现出无与伦比的世界样态(“宇宙”)且通过它向“属人意向性”开放。意识与世界的相关性、交互性在“人机意向性”的双重规定中展现,以至于在“数智化时代”“虚拟世界”“元宇宙”等技术范式下,差异被克服,“世界”成为“内于意识”的世界。在这个意义上,我们认同列维纳斯所说的“第一哲学”就是“自身意识”的哲学。由于自身意识的伦理面向就是“安好意识”(la bonne conscience),“安好意识”是意向性的“本原状态”即安于世界之“内化”且不再面临“外界”——无论它如何运动,它(意识)永远只面对它自身,从而永远安好——这种“面向自身”的意识就是“绝对”。“伦理之门”存在于“绝对”的稳定场域。一旦稳定性丧失,即当“自身意识”不再固守于“自身”而进入到“自身意识”之“逃逸”,我们称之为“任意”——此时,意向性摆脱了“绝对”的束缚,“伦理之门”随之敞开。因此,“第一哲学”就是伦理学。如同《哈利·波特》 电影中主人翁触发“任意门”开启“逃逸”一样,“出离绝对”的意向性,是“意识环境安好”的崩塌,也就是“自身意识”从它自身那里“跳脱”或“逃逸”。“自身意识逃逸”意味着它不再只面对它自身。于是,“绝对”被打破,“任意”(“任意门”的命名由此而来)呈现为“自由”,任何一种“伦理性”的“面对”也就由之而触发。从“人机共生”意向性看,触发触碰AI“伦理之门”的机缘可能有五个层级:一为聊天者,二为推理者,三为行动者,四为创新者,五为组织者。前三个层级的机缘实际上已然显现(或即将展现)。
第一,聊天机器人使AI类人化身为聊天者(面向“人机共生”意向性之“道”)。聊天机器人是“自身意识逃逸”的第一层级。它应用于对话流程标准化、沟通交流高效化、反馈回应即时化等人与类人“之间性”的种种应用场景,既是“修辞立其诚”的伦理触发,更是“人类成为对话”“语言是人存在家园”的价值锚定。聊天者在ChatGPT的各种版本中已经揭示出一个“有所领会”的“能言”的“聊天者”意向性之伴随,并在此层面展现“闲谈”“好奇”“两可”“人云亦云”等“沉沦于世”的生存型伦理能力。它由此拓展“自身意识逃逸”之“所向”的“能言”——“自身意识”逃逸到一种“能说话”“能聊天”的聊天者情态的机器类人那里去。AI“说话”“能言”,在“道”的意义上,可类比人类之“道”。由此,机器意向性隐喻人与类人之间的“交道展开”。
第二,推理机器人使AI类人化身为推理者(面向“人机共生”意向性之“德”)。推理机器人是“自身意识逃逸”的第二层级。AI“推理器”处理更具挑战性任务,应用于理解复杂语义结构、识别逻辑关系并对之做出合乎逻辑的推理、解释、回应并指导行动。“推理者”类人在AI编程助手、AI“智医”助手、AI数学推理以及AI赋能科技、管理和教育等工具性拓展中,展示出一种“能理解”“能解释”的“能思”的“推理者”意向性之伴随。推理者在此层面展现出卓越的“专业性”或“非专业性”的认知型(推理型)伦理禀赋和素质,由此拓展“自身意识逃逸”之“所向”的“能思”——“自身意识”逃逸到一种“能运算”“能解释”“能理解”的推理者情态的机器类人那里。AI“推理”“认知”“解释”“理解”在“智德”的意义上类比人类之“德”。由此,机器意向性隐喻人与类人之间的“比德争胜”。
第三,行动机器人使AI类人现身为行动者(面向“人机共生”意向性之伦理)。行动者机器人是“自身意识逃逸”的第三层级。这一层次的AI像行动者一样工作,它将成为人类具体事务的代理。有关AI Agents的发展报告显示,未来三至五年是具备高度情境感知能力和自主执行力的AI类人大规模涌现的一个时间窗口。人类集体行动在拓展其意向性“锚点”时,如何适应机器意向性带来的认知、价值、行动和伦理的改变,是应对此变革的关键。AI行动者在自动化决策、个性化服务、多任务管理、多路由协作中不断切近甚至超越人类智能水平或行动能力,且在道德行动和伦理能力上展现出一种“能操持”“能操劳”“能烦”的行动者意向性。AI行动者在此层面现身为类人的“能怕”“能惧”“能畏”的行动型伦理情态。它由此拓展“自身意识逃逸”之“所向”的“能行”——“自身意识”逃逸到一种“能操心”“能行动”的行动者情态的机器类人那里。AI“价值敏感设计”和“价值对齐”在权衡众理、伦常日用的行动逻辑层面,与人类社会的“伦”“理”有着相似之处。由此,机器意向性隐喻人与类人之间的“伦理锚定”。
上述三个层次的演进和迭代升级,把我们推向了机器意向性展现的人与类人之间的相互关系。AI类人与人打交道,比德争胜,其能言、能思、能行的行动逻辑遵循不同的“道德谱系”和“伦理锚定”——未来我们可能会遭遇“好AI”(使人类和人类生活变得更好)和“坏AI”(使人类和人类生活变得更坏)之间的较量。某种程度上,甚至可以说,“机器意向性”的底层逻辑就在于如何造就更好的人类和更好的人类境遇,如何避免更坏的人类和更坏的人类境遇。这一伦理性的“锚定”将决定人类的命运。为此,AI类人作为创新者和组织者,更加凸显了“人机共生”意向性的伦理面向。
第四,创新机器人凸显AI科技伦理生态的优先性(面向AI伦理先行的创新生态)。具备创新和创造能力的AI类人构成了“自身意识逃逸”的第四层级。“人机共生”意向性在前沿科研活动(如设计实验、验证理论)中推动创新性知识、创新性方法和创新性思维及其解题策略的动机生产。“创新者”AI类人进入标准和规范性的创制领域。它拓展出用技术方式解决伦理问题的道德形态,并由此极大地加速人类的创新速度。我们看到,唯有在这一层级上,“伦理进入AI”和“AI进入伦理”才可能呈现为一种良好的科技伦理生态:一方面,创新者类人能代理人类提出科学假说、协调设计并验证实验,成为“新发现者”,当然也涵盖了“伦理工程学”意义上的“创新性发现”;另一方面,人类适应AI类人在技术开发上带来的颠覆性进步,将AI类人视为创新伙伴,以及机器伦理维度上的创制者和不可或缺的参与者。
第五,组织机器人使AI成为真正的智能决策者(面向AI伦理先行的组织生态)。具备协调、管理庞大系统、资源和团队能力的AI类人,构成了“自身意识逃逸”的第五层级——这是“自身意识逃逸”有可能达到的最高层级。“人机共生”意向性在进入组织层次的AI类人构架时,其伦理锚定以组织效率的革命性提升助益于更好的人类和人类生活为参照系。因此,组织者“将人工集群作为一种技术来使用”,意味着它必须是易于控制的、可预测的、可信赖的。这是组织机器人作为智能决策者的基本目标。它瞄准的目标是系统管理、资源分配和战略规划等组织行为的跨越式发展,通过系统性的智能管理能力,在多层次、多维度的环境中构建伦理先行的集群和组织生态:不仅是对作为AI产品和服务的“人工集群”的组织协调,而且更重要的是对人和人类集群或集体理性的组织协调。由此,产生出与智能决策者紧密关联的两大伦理问题:其一,AI伦理规制及其机构的权威性和真理性始终面临一个“如何承认、确认或确立”的授权问题;其二,自由法则、人类价值和AI人文始终面临一个“如何重新定义”的问题——我们需要回应在一个智能决策者参与人类事务甚至能组织所有复杂事情的世界里,人和人类存在的意义何在?
“人机共生”意向性在机器伦理维度包含“自身意识逃逸”的上述五个层级。人作为类生命存在,其“自身意识”不可能独立存在,它以“对象化自身”的方式构建“非我”以及如谢林所言的“自我与非我的统一”。“自身意识”以这种方式与他物或他人共同存在,从而“在世界中存在”。换言之,“对象化自身”的意思是说,“意识自身”在意向性上存在“自身意识”作为“类意识”之所向的“对象领域”或客体领域,也就是一个不断“外化”的“向之所向”。我们将它的突出特点描述为“自身意识逃逸”。进一步,“对象化”作为“类特性”和“类存在特性”,在意识、感性、知觉、情感、意志、信念等现象性层面,不是“在其自身之中”,而是“面向他者”或“面向他人之脸”。这一特性不是随便什么“物”的特性,它是而且只能是人的“类生命特性”,或曰“人的自由生命特性”。在这个意义上,当人将自己的“类意识”“类存在”对象化为AI及其产品和服务时,便创造出具有“意向性”“有知觉”“有意识”的机器人——这些机器人能说话、推理、行动、创造和组织,与人类相似。此时,“人机共生”的意向性就成为机器伦理的一种底层架构,而“改变人和人类的生活”的目标则需要我们回归并正视自己本身以及不再逃逸的“自身意识”。这种反思所引发的“不安”或“忧性”,是机器意向性无法穿越的一种“伦理剩余物屏障”。
意向性是理解AI“伦理之锚”的关键。从现象学视角看,意向性及其所带来的自我颠覆,是目前图灵机无法实现的。现有模拟性道德机器的“伦理之锚”,不可能使AI类人或行动者具备真正意义上的伦理能力和道德地位。人的伦理能力和道德地位并不直接地表现为“依道德原则行事”,而是更多地表现为一种对“原则”进行动态把握的能力。因此,人的伦理能力必须有其高于伦理原则的普遍性。这一点构成了AI“伦理之锚”的意向性难题:即在人的类本质结构中,人的伦理能力存在逃逸出“被符码化”“被数字化”的那一部分,而逃逸出的部分更加切己地表征了人的伦理性“本真能在”。由于它是一种越出了“机器意向性结构”的属人的先天的伦理性禀赋,因而是AI“类人”在意向性上无法对之进行锚定的一种“伦理能力”或“类能力”。
这一结论对于思考“人与类人之间”的道德前景是非常重要的。它否认了AI产品作为通用AI之行动者(模拟性质的道德机器)具备真正意义上的伦理能力。植入伦理系统,创建“哈贝马斯机器”,甚至构想“上帝机器”,不是在创造“道德机器”,而是在创造“奴隶”。遵照罗马法的“人可非人”原则,一个被剥夺一切自主性的人被植入了相应的必须遵守的奴隶法律后,他在社会意义上就成为了“人的反面”而沦为“非人”。这一设置将在模拟性质的道德机器(图灵机器)上重演。人的伦理能力并不在于永远恪守诸如“不杀人”“不说谎”“不奸淫”之类的伦理准则,而在于掌握判断应该在何时“杀人”、何时“不杀人”的伦理能力。伦理能力在这种情况下不再是对庸常伦理守则的坚持,而是在具备反思性思维能力的情况下的一种绝对坚持。这一颠覆并不意味着伦理能力本身发生了变易,而是“机器意识系统”的不完备性注定了这种语言游戏的必然生成。然而,从“具身性”与“情境性”的认知科学革命看,人的“心思”犹如一条找不到出路的“深巷”,人口学意义上的生育和教育却又把“意识涌现”的奇迹在这片大地上复制亿万次。尽管如此,在工程学、生物学、神经科学等前沿领域,在黑箱状态下创制有一定人类干预空间的AI仍然是可以展望的。这种伴随着“意向性”“具身性”的寓居于血肉之躯中的AI,被称为“合成智能”,它甚至是“人类”与其“义体”类人的结合,类似于人们所说的赛博格(Cyborg)。这可能是通用AI即将到来的一个“先声”。
由此,我们得出结论:(1)AI锚定的初始参照物,预制了其在社会、理性、价值、德性等意义上作为伦理物的类人属性与功能,但必定遭遇“类人世代”普遍存在的“锚定陷阱”。(2)AI“伦理之锚”的意向性,并没有超出机器意向性范畴,因而隐匿了责任逃逸的某种“非伦理”或“反伦理”的可能。通过伦理的技术植入,人类其实并不能创造“道德机器”,相反,它隐蔽着一种“类人世代”的“新奴隶制设置”。(3)类人或AI行动者锚定“人类伦理”,本质上是对人类伦理能力和伦理行动的一种模仿或模拟,而人类伦理能力和伦理行动的反思性、情感性以及择善固持的坚韧等人性因素,则构成了AI伦理之“锚”不可能突破且无法穿越的一种伦理的“剩余物屏障”。
人类似乎正朝向一个万有丰盈的未来前行:一个“类人世代”即将在机器类人提供给每个人都能获得的丰裕商品和服务中呈现。然而,关键问题留给了能思的人类:在一个AI能代替人类几乎所有事务的世界里,人类的价值何在?人类行为的尺度何在?这个问题,也许才是今天在思考机器意向性视域下的AI“伦理之锚”时,需要认真思考的问题。
来源:文以传道