摘要:9月6日,OpenAI研究人员在最新论文中扔出一颗“炸弹”:困扰全球AI的“幻觉”问题(即AI一本正经胡说八道),根源竟是人类自己设计的评估标准出了问题。这就像老师总夸“蒙对答案的学生”,结果全班都学会了瞎猜。
9月6日,OpenAI研究人员在最新论文中扔出一颗“炸弹”:困扰全球AI的“幻觉”问题(即AI一本正经胡说八道),根源竟是人类自己设计的评估标准出了问题。这就像老师总夸“蒙对答案的学生”,结果全班都学会了瞎猜。
研究指出,现有AI训练像一场“应试教育”——模型靠“蒙答案”能拿高分,坦率说“不知道”反而扣分。比如问“秦始皇用iPhone吗?”AI若拒绝回答,评分可能比胡诌“他用iPhone14”还低。难怪ChatGPT们宁可编故事也不认怂。
有趣的是,Anthropic的Claude走另一极端——面对不确定问题直接装死,拒答率超高。OpenAI调侃:这像考试交白卷,虽然不扣分,但用户体验稀碎。
观点插播:
这事儿像极了职场潜规则——老板奖励“表面圆满”,打工人只能硬着头皮吹牛。AI的“幻觉”,本质是人类功利思维的镜像。
OpenAI的解法很直接:改评分规则!未来AI“承认无知”不再吃亏。但问题来了:如果AI动不动说“我不懂”,你还愿意用吗?这场“诚实vs有用”的博弈,或许才是真正考验。
大家怎么看呢?欢迎评论区讨论留言,喜欢的可以关注一下小编后续文章。每日分享科技热点!
来源:码上1024