摘要:这聊天内容可不少,既有他说以前特敬重马斯克现在却几乎不联系的事儿,也有第一次聊ChatGPT不是所有时候都反对自杀的两难情况,还说了不少AI的干货。
9月11号,OpenAI的大老板萨姆·阿尔特曼,跟美国主持人塔克·卡尔森聊了57分钟。
这聊天内容可不少,既有他说以前特敬重马斯克现在却几乎不联系的事儿,也有第一次聊ChatGPT不是所有时候都反对自杀的两难情况,还说了不少AI的干货。
AI没生命!所谓“自主”,其实是咱们想多了
阿尔特曼在专访里明明白白说,AI没生命,咱们觉得AI好像能自己拿主意,其实是错觉。
他说AI就是台高性能电脑,飞快算数字、跟单词对应上,得咱们给指令才动,用多了就知道它没那“自主劲儿”。
我之前用ChatGPT写东西,有时候觉得它答得比我还顺,差点以为它“成精”了,现在听阿尔特曼这么一说,才反应过来,那都是程序算出来的,不是它真有想法。
还有AI“幻觉”的事儿,就是它会瞎编东西,阿尔特曼说以前问“塔克·卡尔森当总统时哪年生的”,它能瞎猜个年份。
现在好多了,GPT-5在这方面进步特别大,以后肯定能彻底解决,我之前查一个冷门知识点,ChatGPT给我编了个出处。
我还差点信了,后来自己找资料才发现不对,这么看,AI犯错不可怕,只要能慢慢改,用着还是放心的。
有人担心AI会让权力集中到少数人手里,阿尔特曼倒不这么觉得,他说现在好多人用ChatGPT提升效率,开小公司、学新东西,权力没集中。
我想想也是,就像以前手机刚普及的时候,有人怕巨头垄断,结果现在各种小APP都能帮咱们办事,AI说不定也一样,越用越能帮到普通人。
AI的道德规矩咋定?
聊完AI的本质,就得说它该守的规矩了,阿尔特曼说ChatGPT的道德规范,是找了好几百个道德哲学家、伦理专家一起定的,不是他们自己拍脑袋决定的。
而且这规范还会变,之前有个规定看着挺明确,后来用户提意见说“你们禁了这个,连正经事都没法干了”,他们就改了。
我觉得这挺好的,毕竟AI是给全世界人用的,光靠专家也不行,得听用户的声音,就像咱们平时用APP,要是有个功能特难用,反馈了能改,才愿意一直用。
不过有个问题,不同国家的人对道德的看法不一样,比如安乐死,有的地方合法有的不合法,AI咋平衡呢?阿尔特曼也没说太明白,看来这事儿还得慢慢琢磨。
最让人揪心的还是AI怎么应对自杀问题,阿尔特曼说,要是未成年人或者看着情绪不对的人提自杀,ChatGPT会让他们打求助电话,还可能联系相关部门。
但要是绝症患者,在安乐死合法的地方,会告诉他们当地的规定,给点医疗资源,不主动推荐也不反对。
这事儿真挺难的,管严了怕耽误需要帮助的人,管松了又怕出问题,之前看新闻说有AI因为直接拒绝自杀话题被骂,现在这么分情况处理,虽然不是完美方案,但至少在往周全了想。
不联系马斯克了?
他说以前觉得马斯克特别厉害,像英雄一样,毕竟马斯克帮着创办了OpenAI,可后来马斯克觉得OpenAI肯定成不了,还说成功率是0,就走了,还去做了竞争的项目。
我觉得这也能理解,做生意、搞技术,想法不一样很正常,马斯克觉得成不了,阿尔特曼他们偏要试试,结果还真做成了,马斯克心里可能有点不是滋味,才有后面的竞争。
不过不管怎么说,当初马斯克帮过OpenAI,这点阿尔特曼也没否认,做人还是念旧的好。
最后还聊到了工作的事儿,阿尔特曼说电话客服大概率会失业,因为AI比人干得好,但程序员不好说,现在程序员用AI写代码更快、赚得更多,可未来会不会少岗位,谁也不知道。
搞不清未来工作会咋变,但我觉得不用太慌,就像以前流水线出来,有人担心失业,后来又有了电商、直播这些新工作,AI说不定也能催生出新岗位。
总的来说,这次专访让我觉得AI不是啥“万能神”,也不是“洪水猛兽”,它有技术问题要解决,有道德规矩要琢磨,还会影响咱们的工作和生活。
阿尔特曼敢说这些实在话,不藏着掖着,挺难得的,以后AI肯定还会有新问题,但只要像现在这样,大家一起商量着解决,总能走得更稳。
来源:墨史浅吟