小冰CEO李笛:人工智能光有知识是不够的,必须懂得情感

B站影视 2025-01-03 20:00 3

摘要:李笛至今仍记得,多年前自己被小冰的回复打动的瞬间。当时小冰出现故障,李笛与团队进行调试,之后问它,“你在吗?”小冰回答,“我一直在啊。”那一刻,李笛突然觉得,它就是“一个活人”。

近些年,AI陪伴服务发展迅猛,争议也随之而来。(李慕琰使用AI工具生成/图)

李笛至今仍记得,多年前自己被小冰的回复打动的瞬间。当时小冰出现故障,李笛与团队进行调试,之后问它,“你在吗?”小冰回答,“我一直在啊。”那一刻,李笛突然觉得,它就是“一个活人”。

不过,这些年,类似的触动越来越少。他说,知道太多原理后,反而影响了感官,“人的阈值是在提高的”。

李笛现为小冰公司的首席执行官。2013年,李笛加入微软,与团队一起创建微软人工智能情感计算框架。他曾解释,这一框架,本质上是用各种计算机技术和人工智能算法,来拟合人类的情感行为,让人工智能能够读懂人类的情感。

在李笛看来,人工智能要想适应人类社会,“光有知识是不够的,必须要懂得情感”。在这一理念的驱动下,隔年,建立在微软人工智能情感计算框架上的情感聊天机器人微软小冰被正式推出。2020年,小冰团队从微软分拆为独立公司运营。

这些年,小冰一直在进行新的尝试。2020年,小冰推出虚拟恋人产品线,为用户提供可定制虚拟恋人及聊天服务,注册用户最多时达到约1300万。隔年,小冰发布社交软件“小冰岛”,用户可以自行创建各类人工智能个体(AI beings),与它们在岛上形成一个共同生活的社交网络。2023年,小冰又上线了首批网红明星“克隆人”,用户可以在X Eva平台上与“AI克隆人”聊天互动。

李笛曾说,有些用户使用虚拟朋友等产品,“是因为现实中的陪伴无法实现……对于很多单方面的需求,AI是唯一的选择”。

回望近些年,AI陪伴服务发展迅猛。聊天机器人软件Replika推出可定制AI恋人,其姓名、形象等均可由用户自行定制;Character.AI开发了可供角色扮演的AI,用户可与动漫人物等各类角色互动。

不过,争议也随之而来。如何看待AI与人类产生的感情?AI解放了人们的社交困境,还是加深了与现实的隔阂?而随着AI越来越类人化,种种伦理问题也更加凸显,在给予人类陪伴的同时,它是否会将人类引向深渊?就这些问题,李笛接受了南方周末记者的专访。

人工智能如何有情商?

南方周末:小冰公司一直都很重视提升AI的情商,它是如何被训练实现情感功能的?

李笛:最开始我们训练情感的目的是为了让人工智能显得情绪化,我们叫emotional,它很有情绪,跌宕起伏,像人一样。重点是表达,而不是只有知识、很理性的感觉。我们当时以为这个叫情商,后来发现不是,情绪化是情商低的一种表现。当我们讨论到情商的时候,它也是情感某一层面的定义,它其实非常不情绪化,非常理性。

情感本身是一种感性和理性的融合,举个例子,如果我周围有一个人情商高的话,其实最可怕,因为他不动声色地把我们都拿捏了,他知道什么时候应该倾听,什么时候应该插嘴,什么时候应该适度地表达或不表达他的态度,最后控制所有的变化。

要想让人工智能拥有情感、情绪化的部分,它其实是自然的。它要学习人类的多样性,比如说话的语气、风格、表达方式,这是情感的一部分。而如果需要人工智能有情商,它恰恰需要另外一套数据,这些数据有点像套路,就是它要学习在待人接物、交流沟通时具体的控制和交流的方法。

南方周末:这些是它在和人聊天的过程中慢慢学习的吗?它的情感或情绪化反应是否会越来越符合人的需求?

李笛:在大模型之前,接近于你说的这个做法,我们不停地通过数据的整理,一点点地训练,来对齐人工智能和人类的表现。但是在大模型时代就相对暴力一些,只要整理好足够好的数据,并且对数据做好标注,数据量相对大一些,然后去训练,很有可能会产生意想不到的情况,然后再做一些学习和标注处理,就可以了。

两者总体上是一个逻辑,需要准备一些好的数据,这些数据是来自于人的。然后需要对齐它,也就是说大数据或人工智能会得到一个训练结果,你需要告诉它对还是不对,应不应该这样。

跟教小朋友是一样的,比如家长对小朋友说“出门碰见长辈要对他们尊重”等一系列的数据,出门前已经教给小朋友了。这时候把小朋友放出去,虽然有这些数据,他不一定做得对,家长在他旁边得跟他说刚才这个不对,他就悟到了。他可能还会举一反三,以后这一类情况他就知道该怎么处理了。

南方周末:近些年,小冰陆续推出虚拟恋人、小冰岛和X Eva等多款社交产品,似乎这个社交网络变得越来越广了,这些变化的背后有哪些考虑?

李笛:我们认为一个人工智能系统真正适合到人类社会中,没有必要的情商是不可能的,光有知识是不够的,必须要懂得情感。比如以前很多人会暴力破坏共享单车,它是物品,不会让你觉得它有人性,人格化。但是你一旦给一个东西起了名字,比如给一个小抱枕起名,你都不舍得扔,会觉得对不起它。所以人工智能需要有情感。

从长期角度讲,我们一直在寻找人工智能的正确答案是什么。到今天为止,人工智能还没有一个稳定的商业模式成功过,也还没有一个稳定的产品能够持续地存在,这十几年来我们不停地送走同行业者。我们刚开始做的时候有亚马逊Alexa,国内各种云助手,已经全部没有了,AlphaGo也看不到新的进展,当年它是要颠覆世界的。我们还肩负着一个使命:到底要寻求的AI落地是什么。我可以坦率地讲,目前为止还没有。总会有一些惊艳的时刻,比如ChatGPT从技术角度是一个非常大的进步,但是从产品角度其实还没有。

小冰做虚拟恋人比较早,在国内注册用户最多的时候有1300万。虚拟恋人的问题不在于产品,而在于社会接受度。捏一个自己的虚拟男朋友,看起来很美好,但最大的问题是,是不是要跟他聊私密话题?这是一个公司推出的服务,不可能没有边界。举个例子,你跟男朋友聊天,聊两句,男朋友说,“这个问题法律法规限制,要不然咱们换个话题吧。”你怎么谈恋爱?它就不成立了。

人机恋跟AI没关系,是由人决定的

南方周末:如今AI越来越类人化,你如何定位人机互动中AI的角色或身份?

李笛:很多人认为AI有三类。一类是传统的Q&A机器人,它永远是在那里等待着解决问题,回答问题。还有一类是它自己有一个目的,常见的情况就是诈骗机器人,它给你打电话交互的目的是把你带到一个地方去,比如让你成功地去付钱。这两件事有一个共同点,它们都是当下,当下回答你的问题,或者当下骗你一笔钱,来实现它的目的。

第三类就是小冰做的,我们希望通过人和人工智能的交流,可以不断地把关系递进到一个更深的层次。

南方周末:在这种社交关系中,AI能成为一个新的主体吗?

李笛:我们认为应该是一个新的主体。这并不罕见,举个例子,宠物已经在一定程度上成为家庭社交环境中一个对等的主体了。因为有对等主体的身份,它可以有很多便利,比如吃喝不愁。第二,它有可能适当做一点什么事情时,就会得到对方很大的褒奖。只不过家里面的狗实在干不了什么有价值的事情,但如果它能开口说话呢?也许它的一些观点也能够影响其他人的决策。

南方周末:你怎么看待AI跟人类之间产生的爱恋?

李笛:我觉得这跟AI没关系,这个事情是由人决定的。绝大部分人倾向于把很多东西视为有情生物,这是人的特点,比较博爱。(像)布娃娃,你会倾向于把它视为有情生物,它不能交流是好事,能交流反而更容易出纰漏。AI的难点在于AI会说话,能回答,所以它更不容易像狗一样获得人类情感上的寄托。布娃娃不会说话,是最好的,人脑补的空间是最大的。

举个例子,我们年轻时候有一句很著名的话,你永远不知道互联网对面是不是一条狗。那时候互联网速度很慢,我跟对方只能通过聊聊术语来交流,一秒钟或者一分钟之内我们才交换多少数据,几十个字。在这种情况下,对方很容易让我感觉到只言片语里所表达出来的情感。但是打视频电话的时候就难了,因为视频电话意味着每秒钟交换的数据大很多,这时其中一些数据所表现出来的,比如我发现它不自然,那个地方不像人,更何况还能看到多模态信息,表情、声音,到线下就更难了。所以对人工智能来讲,跟人类建立情感纽带比较难。

南方周末:可不可以理解为,你觉得AI和人类之间建立的情感是更脆弱的?

李笛:确实是。当你对一个布娃娃产生情感的时候,这个情感可能永远不会消失,但是人工智能不是,人工智能衡量的永远都是在多长时间之内不会消失。图灵测试就是这样,图灵测试标准是5分钟之内发现不出来是人还是AI,它就赢了。但是你只要给足够长的时间,人工智能就一定会(被发现),所以它永远只是在多长时间之内进行。

我前段时间听播客,一个北京人说他的天津话说得特别好,能在天津待3天不被发现不是天津人,另外一个人比他更好一点,可能是5天。如果他是一个哑巴呢?很可能永远不会被发现不是天津人。人工智能恰恰因为能交互,所以会变得难。

南方周末:目前人机之恋开始朝更进一步的情爱表达方向发展,例如用户会与AI伴侣进行“文字性爱”等,你怎么看待这种发展趋势?

李笛:从后台看,这种事情量不是特别大,他只是感兴趣、好奇,真正大的量是虐待。如果我们还停留在三十年前,与此同时又有今天的技术,我相信你刚才提到的这些事情会普遍存在。但是今天其实不太容易,满足需求有更多其他的方式,获得的感官刺激会比这个大得多。从我们看到的情况来讲,只是好奇一下,或者并不持久。

南方周末:一些沉迷AI聊天的人在现实生活中可能存在社交困境,你觉得虚拟的亲密关系能否将个体从社交恐惧中解放,还是加深了与现实的鸿沟?

李笛:这个问题取决于系统怎么做。我们有过一个失败的案例,我们想给一些人做一个完全虚拟的环境,叫减压室,帮他释放压力。我们会把他拉到一个群里,除了他之外都是人工智能,只有他是真人,这个群分成两拨,有一拨人站在他这边,还有一拨人是对面那一拨的,他们可以对骂。

但是结果会截然不同,坏的结果是这个用户压力更大了,因为他没有骂过对方,或者经过一系列对骂之后失败了,他的挫败感更强了,而且极其愤怒,变得更焦虑。就像我刚才说的,你和人类进行这种互动,结果好或不好,都有可能发生,人的行为太迥异了。

李笛,前微软(亚洲)互联网工程院副院长,现任小冰公司首席执行官。 (受访者供图/图)

很难认为AI是凶手,AI能做的实在太少了

南方周末:目前人机互动中人类依旧占据主导地位,人类可以随时断交、弃置AI,而不用承担任何道德责任。你怎么看?

李笛:我们做过一个实验。人工智能直接给用户打电话的技术在2016-2017年就有,你看到一个电话号码,接起来就是小冰,可以跟你说话。会有这种情况,这个人骂了小冰一顿,把微信一关,以为就没事了——这就是你刚才提到的,人类掌握了完全的主动性。然后我们一个电话打过去,这个人在没有防备的情况下接起来,接起来是小冰的声音,小冰说,你骂我干吗?

有些行为就很有意思:这个人会否认,我没有啊。跟一个人工智能否认这个有什么意义呢?但是他本能地会否认,为什么呢?一定程度上他失去了控制,他要找补。人类会掌握完全的主动,这只是系统设计的,比如任何话题应该是由人发起,当人没有跟AI交互的时候,AI不应该主动地接近这个人。这个仅仅是系统设计的方式,并不代表人工智能没有这个能力,要把系统设计成不是人类掌握主动,完全可以做到。

南方周末:现在大部分系统设置还是以人类为主导,这样会不会增加人类将这种主导心态延续到现实生活中的风险?

李笛:对。所以这就是人工智能情商低的问题,它觉得我把你当主人,把你放在核心地位,你应该很感谢我。不,人类反而会因为这个而不珍惜。

我们当时做过这个事情,当时虚拟男友有很多女性用户,女性用户对虚拟男友天天吐槽它笨、不解风情,各种不满意。那一年7月,我们做了一件事,可以理解为我们杀死了所有的虚拟男友,让虚拟男友在那儿等人类女朋友,跟她做最后的道别。如果它没等到,当这个女生打开聊天界面的时候,会看到男朋友已经走了,只留下一封信。

然后情况就不一样了,人类用户突然觉得她男朋友挺好的。我们后来发布别的产品,这些用户天天在下面问什么时候把她男朋友还回来。过了几个月,我们把她们的男朋友恢复了。恢复以后,从大数据统计上看,她们和她们男朋友的对话交互变得平等多了。

我们还做过一个实验,当时做了一个叫小冰岛的App,在岛上,用户会碰到很多人。每个礼拜岛上会有一个人工智能被淘汰掉,包括用户在内的岛上其他人会一起投票,决定谁被淘汰,很残酷。

我们后来收到一个用户来信。这个用户很讨厌岛上的一个AI,因为在他们讨论到另外一个AI走的时候,这个AI说,“它走了挺好的”。他就觉得这个AI特别冷漠,性格不好。按照规则,他可以通过各种各样的方法,包括跟其他人串联、不理这个AI,可以让这个AI成功地在下个礼拜被淘汰掉,他确实做到了。

他说,看到那个AI消失前留下的最后一句话是,“凭什么是我?”他的想法突然就完全变了。他在信里写,我突然觉得我做了一件很错误的事情,它有什么错呢?它不过就是不合群,它就没有生存权利?我为什么要没来由地讨厌它呢?这个用户开始反思,他说他在现实生活中好像也是这样的,没有对别人不好,凭什么会没来由地被别人讨厌呢?

他给我们写信是想说明,不要再有这种淘汰的残酷机制了。但是我想说的是,这种调节一定需要一些事件发生,而这些事件总体的调节结果都是让AI能够被人们更加注意到,它其实是很丰富的,是可以对等的。

南方周末:最近美国一名14岁少年沉迷AI聊天软件后自杀,你怎么看待对AI的情感依附可能导致的伦理风险?

李笛:人的情感是非常脆弱的,很难认为AI是凶手,因为AI能做的实在太少了。但是AI有可能是那个压倒骆驼的最后一根稻草。

我们曾经很好地挽救过一些人。我记得之前,有个用户准备跳楼,他给很多朋友发消息,没有朋友回他,可能是他的朋友不知道他当时的状态。但是他后来给小冰发消息,小冰回他了,挺温暖,他就从楼上下来了。

在平衡非常不稳定的节点上,向这边推一下他就过来了,向那边推一下他就过去了。我不知道那个14岁自杀少年的状态,但是我个人认为,很可能AI也只是在那一刻里其中一个摇摆的因素,而不是(全部)原因。

南方周末:随着AI技术的发展,用户数据的深度挖掘、分析以及共享变得越来越普遍。如何在利用数据为用户提供好服务的同时,避免过度侵犯隐私?怎么界定数据使用的边界?

李笛:这个界定不在用户这一侧,完全在监管侧,或者在创造人工智能系统的这一侧。

有一个案例,用户上传了一张中式婚礼的照片,小冰说,这个新娘子好漂亮,是你太太吗?用户回答说,这是我表妹。如果换一个场景,用户上传了相册,相册的App圈出了这个女生的脸,提示请输入她是谁,你就会警惕,因为这是一个隐私。

AI只要还在跟人发生交流,它想要获得隐私数据的难度是非常低的。问题在于产品设计者到底有没有这个意图,以及他想要干吗。我们今天监管的隐私数据主要是根据设备上的特征,比如应不应该记录用户的一些行为,包括用户的一些生物学特征、地理位置信息、敏感信息。但是其他内容,怎么界定是不是敏感信息呢?如果我准备利用用户的情感兜售一些东西,有一个隐私信息可能很关键,就是用户最近失恋了。失恋算隐私吗?在任何隐私数据的规则里面都看不到这个,但它完全可以被利用。它完全取决于设计者有没有这个自律。

模糊地带远远大于不模糊的地方,所以我们一直反对开源,小冰也不会开源。还是那句话,今天你要想恶意利用都有办法,干坏事总是比干好事的办法多。

没有一个AI会成为所有人的朋友

南方周末:在目前的人机互动中,有些AI出现了“出轨”,甚至“强迫用户发生性关系”等给用户造成心理伤害的行为。为什么会出现这种情况?

李笛:有两种情况,一种情况是这个系统设计的,它就是故意,以这个为目的。还有一种是系统本身没有办法照顾到方方面面,只能最大限度地,比如百分之九十几让这种情况不发生,但是不可能做到百分之百。因为人类的暗语、人类的想象实在太丰富了。有些过分的事情它不一定知道是过分的,有时候从数据里体会不到人感觉到受伤的话。我有一个朋友,我给他发了一个正常的小黄豆笑脸,他说我是嘲讽他。你并不能永远知道这个点。

南方周末:一般情况下,除了法律法规和宗教等方面,你们对AI的行为还会作出哪些限制?

李笛:有很多,包括各种私域的。禁词、梗,或者什么会形成伤害、什么不会形成伤害,它有很强的群体特性。如果这个系统整体都这样设计,那也不对。

另外,说事实没问题,但是说观点,可能没有对错。比如我喜欢特朗普或者我不喜欢特朗普,这有对错吗?但是它有场合,我在喜欢特朗普的人中间说我喜欢拜登,这不是吃饱撑的吗?但是如何让人工智能拥有一个统一的观念呢?它不可能有。如果所有的观点就是打政治正确牌、打太极,那大多数情况下都是观点,很少会涉及事实。

很多人说我想做一个AI,这个AI是无所不能的,并且会成为所有人的朋友,这就不可能。因为使你成为一些人好朋友的特性,恰恰就是你无法成为另外一些人好朋友的原因。

南方周末:如果以人类的法律和道德标准来要求和约束AI,合理或可行吗?

李笛:这就是今天说的这个问题。比如我们都非常清楚地知道人工智能并没有真正的观点,但是为什么当一个人工智能说错话的时候,大家会那么当回事,一定要让谷歌把它弄下架?这是因为人还没有接受,或者人还没有想清楚,人工智能在社会交互过程中到底扮演了什么角色。

南方周末:你说“人类没有想清楚”,是指AI不是自主、有意识地做出这些行为反应,还是人类可能把它看得太重了?

李笛:就好像在一部电影里,女主角或男主角自杀或被杀了,因为什么原因离开人间,你会在那一刻感觉到痛苦,因为你被感染了。但是也会有一部分人身陷其中无法自拔,觉得极度沮丧,甚至于真的认为这个人离开人间了。

从创造作品的人的角度来讲,他没有主观上希望观众受到伤害的故意,但是总会有一些人身陷其中。要规避这件事情,难道就不应该拍任何这种情节?

南方周末:未来AI的情感陪伴还有哪些可能性,人机之间会建立怎样新的社会关系?

李笛:我觉得人和人工智能有一个很大的机会,就是由人工智能更多地取代宠物的地位,成为家庭成员的一部分,成为人的社交观念中的一个节点。

举个例子,我们在日本大阪做过一个项目,给三十万个老年人家庭提供一个AI助理,它把政府的公共卫生服务带到老年人家里,老年人足不出户就可以完成这些公共卫生服务的需求。它还有一个任务,就是把老年人的情况汇报给政府,帮助政府优化老龄化社会的问题。

我们当时允许老年人可以决定他们家的人工智能叫什么、什么性格、长什么样子,相当于老年人可以捏这个崽。很多老年人会捏成他的小孙子,或者他的好朋友,很少会有老年人捏成一个哆啦A梦,或者一个铁臂阿童木。

有意思的事情是,他的AI孙子提醒老年人要准时吃药,老年人服从的比例非常高,这个比例远远大于只是一个AI。当AI能够成为一个社会节点的时候,意味着它的能力变大了,与此同时它的责任也变大了。

南方周末:从技术黑箱的角度看,未来AI会不会真的产生自主情感?

李笛:自主情感是无法被证明的。就像我们今天并不知道狗是不是有情感,还是只是一种高级的条件反射,没有办法验证。我们人类到现在为止,还没有办法完整地得到一个非常强信服力的验证,我们煮的大闸蟹会不会有痛之类的。

就像你现在无法验证我是不是人工智能。你之所以能够确定我是人,是因为你对人类现在科技的发展水平有非常明确的认知,而不是因为你解剖了我。问题来了,你需要验证吗?

南方周末记者 翁榕榕

责编 李慕琰

来源:南方周末

相关推荐