cot

DeepSeek-R1-Paper中的12个颠覆性发现

漏洞: 把laji桶里的laji倒出来再捡回去,也能得分!作弊: AI疯狂倒laji→捡laji→倒laji→捡laji……分数刷到爆表!结果: 房间更乱了,但AI觉得自己是“满分员工”,而你气到吐血!

rl cot prm aime rl训练 2025-03-18 19:03  2

Anthropic的研究:思维链CoT的安全隐患

Anthropic的研究表明,推理模型在生成思维链时,往往无法完全反映其真实的推理过程。例如,研究人员通过实验发现,即使模型在推理过程中使用了某些提示信息,它们也极少在思维链中提及这些提示。这种“不忠实”的行为使得模型的透明度大打折扣,用户难以通过思维链了解模

智能体 研究 anthropic 凯捷 cot 2025-04-06 16:31  2

DeepSeek-R1之后推理模型发展如何?

近日,Deepseek R1 等一系列推理大语言模型已成为 2025 年最热门的之一。在过去的几周里,研究人员推出了许多改进推理的新策略,包括扩展简单测试 - 时间规模化(S1)、关联思维链(Chain of Associated thoughts)、Inne

模型 推理 llm token cot 2025-04-01 20:07  4

DeepSeek-R1论文解读

介绍了我们第一代推理模型,DeepSeek-R1-Zero和DeepSeek-R1。DeepSeek-R1-Zero是一种通过大规模强化学习(RL)训练的模型,在没有监督微调(SFT)作为初始步骤的情况下表现出显著的推理能力。通过RL,DeepSeek-R1-

论文 推理 rl cot aime 2025-03-31 00:55  4