CoT推理大溃败?哈佛华人揭秘:LLM一思考,立刻就「失智」 DeepSeek-R1引爆了LLM推理革命,人们几乎形成了共识:推理能力越强,LLM越好。但多位华人参与的研究揭示:思维链CoT分散模型「注意力」,可能是性能崩塌的导火索。 推理 llm 哈佛 cot cot推理 2025-05-20 16:48 7