机器之心报道编辑:陈陈、+0AI的脑洞日记我们经常听说,AI 就像一个无法破解的黑匣子。语言被输入进来,又被输出出去。没有人知道 AI 为什么会这样做。刚刚,AI 公司 Anthropic 公布了大模型思考过程,他们构建了一种「AI 显微镜」,以识别模型中的活动模式和信息流动。我们都知道,LLM 并不是由人类直接编程,而是通过大量数据进行训练得来的。在训练过程中,它们学会了自己解决问题的策略。对开发者来说,这些策略是难以理解的。这意味着我们并不了解模型是如何完成它们所做的大部分事情的。如果能够了解像 Claude 这样的模型是如何思考的,我们就能更好地理解它们的能力,同时也能帮助我们确保它们按照我们的意图行事。例如:Claude 掌握几十种语言。它在「头脑中」使用的是哪种语言(如果有的话)?Claude 逐词写作。它是否只关注预测下一个词,还是会提前规划?带着这些疑问,Anthropic 从神经科学领域汲取灵感 —— 该学科长期致力于研究思维生物体内复杂的运作机制 —— 并尝试构建一种「AI 显微镜」,用以识别模型活动模式和信息流动轨迹。为了解释这一研究,Anthropic 今天连发了两篇论文。摘要:机器之心报道编辑:陈陈、+0AI的脑洞日记我们经常听说,AI 就像一个无法破解的黑匣子。语言被输入进来,又被输出出去。没有人知道 AI 为什么会这样做。刚刚,AI 公司 Anthropic 公布了大模型思考过程,他们构建了一种「AI 显微镜」,以识别模型中的活
来源:螃蟹游戏
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!