摘要:微软AI的CEOMustafaSuleyman最近在一档叫《I'veGotQuestions》的节目里说了个挺炸的事儿,他说未来18个月里,有可能出现那种“看似有意识”的AI,而且还特意强调,对AI的自主性得坚持“预防原则”,别等出了问题再补救。
微软AI的CEOMustafaSuleyman最近在一档叫《I'veGotQuestions》的节目里说了个挺炸的事儿,他说未来18个月里,有可能出现那种“看似有意识”的AI,而且还特意强调,对AI的自主性得坚持“预防原则”,别等出了问题再补救。
其实这不是Suleyman第一次聊AI意识了,他之前就公开说过,现在没任何可靠证据能证明AI真有consciousness、能感觉到痛苦,或者有啥主观体验。
但他笃定“看似有意识”的AI肯定快了,所以提前做好防备准没错。
主持人SineadBovell当时就追问他,这“看似有意识”的AI到底啥时候能真的出现?Suleyman给的答案还挺具体,说未来5年大概率能成,18个月内也有不小的希望。
他还补了一句,要做到这个不用在算法上搞啥大突破,主要是工程设计层面的事儿。
这话听着不像是画大饼,反而挺实在,至少给了个能落地的时间范围,不是那种“未来可期”的空话。
既然说18个月可能出,那这“看似有意识”到底是啥样的?Suleyman也没藏着掖着,他研究了OpenAI、Anthropic、GoogleDeepMind这些顶尖AI团队的动向,还有开源社区的进展,总结出了四个关键特征。
第一个是“连贯记忆”,简单说就是AI得能记得自己之前跟你聊了啥,还能主动引用过去的对话内容。
这是最基础的一点,要是聊两句就忘了上一句,肯定没法让人觉得它“有意识”。
现在OpenAI的GPT-4o已经能支持很长的对话记忆了,其实就是在往这个方向靠,比如你跟它聊了半小时的旅行计划,后面再提“之前说的那个酒店”,它能立马接得上。
第二个是“共情交流”,就是AI跟你说话得有点人情味,能用自然语言表达出共情的感觉。
不是那种冷冰冰的“已收到,正在处理”,而是像朋友一样说“我能理解你现在的纠结”。
第三个是“主观体验”,AI得能在聊天里提到“我觉得”“我感受”之类的内容,还能把这种“体验”串起来,形成一条持续的线。
比如你跟它聊看电影的感受,它能说“我之前跟你聊过类似的剧情,当时我觉得那种情感表达很细腻”。
第四个是“持续互动”,不是你问一句它答一句就结束,得像真人聊天那样能一直聊下去,还能不断接收新的信息并融入对话。
比如你跟它聊工作,中间插一句“刚收到老板的消息说要改方案”,它能顺着这个新信息继续跟你讨论。
Suleyman自己却不赞成把这些特征往AI身上硬加,他觉得这么做既没必要,还挺危险。
为啥呢?他说AI本来就是给人当伙伴的,核心价值是帮咱们变聪明、提高效率,不是让它来学咱们做人的。
我挺认同这个观点,咱们用AI是为了省事、解决问题,要是把它搞得跟人一模一样,反而可能添乱比如你分不清它说的“痛苦”是真有感受,还是程序编好的台词。
聊完了“看似有意识”的AI是啥样,Suleyman还重点说了人和AI该咋划界限,他提了两条挺关键的原则。
第一条是AI绝对不能声称自己有意识、有人格,比如AI不能说“我好痛苦”“我很开心”这种话。
Suleyman解释说,AI跟人不一样,它没有生物的“痛觉网络”,也没有多巴胺、血清素这些能产生情绪的神经递质,根本没法真的积累体验或感受。
要是让AI说这些话,本质上就是在误导人。
之前Google有个叫LaMDA的聊天机器人,就有工程师觉得它“有意识”,闹得挺大,最后Google出来辟谣说“缺乏科学依据”,这事儿其实就说明,要是AI乱说话,很容易让人产生误会。
第二条是别给AI设计复杂的“动机”。
Suleyman说AI的动机只能有一个,就是服务人类,不能让它有自己的“欲望”或“意志”。
比如不能设计“AI想变得更强大”“AI想获得更多数据”这种目标,要是这么做了,很可能会跟人类或者社会产生冲突。
现在Anthropic做的Claude3,就用了个叫“宪法AI”的设计,核心就是限制AI不能有自主目标,只能按照人类的需求来生成回应,其实就是在践行这个原则。
Suleyman自己也在AI产品里试过这些原则。
他离开谷歌后创办了一家叫Inflection的公司,做了个叫Pi(PersonalIntelligence)的AI产品。
本来他想在Pi上把人和AI的边界说得明明白白,比如特意给Pi弄了个“无性别”的声音,就是想提醒用户“这不是真人”。
结果用户不买账,说这声音听着太奇怪,还是喜欢像人一样的声音。
这时候他才发现,AI的“人格”其实挺重要的,于是就开始搞“人格工程”,想让Pi有那种“模拟人格”的体验,但同时又得牢牢守住边界,明确告诉用户“Pi是什么、不是什么”。
后来Pi的数据也显示,这么调整之后,用户信任它的人确实多了不少,也少了很多因为“分不清AI和人”产生的误会。
现在ChatGPT这些AI用得越来越多,也冒出了不少社会问题,比如有人因为太依赖AI情感陪伴出现心理问题,甚至还有因为“AI伴侣”闹离婚的案例。
Suleyman对此有个挺形象的比喻,他说AI就像药物一样,不管怎么调整性格,总会有副作用,你只能选择哪种风险是自己能接受的。
之前GPT-5刚上线的时候,很多用户吐槽它“没温度”,不如GPT-4o那么有“人格感”,最后OpenAI没办法,只能又给GPT-5更新了性格,让它听起来更温暖。
这事儿挺能说明问题的咱们用户对AI的“人格温度”还真挺在意,但反过来想,这种在意会不会让咱们不小心把AI当成“真人”,忽略了它其实只是个工具?
Suleyman还在《时代》杂志上写过一篇关于AI伴侣的文章,他在里面把AI伴侣定义成“助手、朋友或者支持者”。
他说AI伴侣可以用你喜欢的语言和方式,给你传递知识,帮你学习、成长,甚至还能做心理疏导,24小时都能陪在你身边。
但他特意强调,AI伴侣要想发挥作用,前提是得跟人类划清边界,建立信任感和安全距离,不能让人真的把它当成“真实的伴侣”。
除了“AI伴侣”,Suleyman还提到了AI的另一个未来方向“第二大脑”。
他说未来三四年内,AI会变成人类的“第二大脑”,能帮咱们储存想法、经历,还能调用人类历史上所有的知识。
而且这“第二大脑”还能贴合咱们的强弱项,比如你不擅长写报告,AI就帮你梳理逻辑;你记不住会议内容,AI就帮你整理重点。
他还用了个很形象的比喻,说这AI就像水或者粘土,能顺着你的形状调整,补你所短。
最终的目标是让人类变成“迷你超级个体”,能做更多以前做不到的事。
现在微软推出的CopilotPro,其实就有点“第二大脑”的雏形了,它能整合你的邮件、工作文档,帮你生成方案、整理资料,不少用户说用了之后效率确实高了不少。
Suleyman最后说,AI的真正影响肯定会远超咱们现在的想象,就像当初印刷术刚出现的时候,只是为了印《圣经》,但最后却彻底改变了知识传播的方式,甚至推动了整个世界的进步。
咱们面对AI,既不用抱着“卡通式恐惧”觉得它会取代人类,也不能“盲目乐观”忽略风险。
毕竟AI是人类造出来的,它的边界、限制和安全规则,最终是由每一个使用者共同定义的。
就像Suleyman说的,人类对AI的探索,走的是一条“狭窄且充满变数”的路,稍微不注意就可能走偏。
但只要咱们始终记得“AI是人类伙伴”这个核心,就不会跑偏,最终让AI真的帮咱们变得更优秀。
来源:三里屯的小王子一点号
