庙号为“汉高祖”的四位帝王,一位开创大一统,其他三位割据一方
在历史上,庙号为“高祖”的帝王不胜枚举,但史称“汉高祖”的皇帝却少之又少,总共有四位;他们分别是西汉的刘邦、前赵的刘渊、后汉的刘知远以及南汉的刘䶮。
在历史上,庙号为“高祖”的帝王不胜枚举,但史称“汉高祖”的皇帝却少之又少,总共有四位;他们分别是西汉的刘邦、前赵的刘渊、后汉的刘知远以及南汉的刘䶮。
五代十国,乱世沉浮。曾经的街头浪子背负刺青,经历妻离子散、满门尽没的血海深仇,最终以澶州兵变首开王朝新章。他推行废除苛税新政,临终仍心系民生,黄金甲下的孤寂印证一代传奇——后周太祖郭威,一个街头古惑仔在乱世烽烟中杀出帝王之路。
“DeepSeek R1的开源,让全球的人能够意识到深度思考的能力。这相当于让整个人工智能领域再次迎来了类似于2023年初ChatGPT的时刻,让每个人感受到大模型的能力又往前迈进了一大步。但同时,我们也需要合理地评估DeepSeek本身的重要意义。”清华大学
科技圈从来不缺新闻,但 DeepSeek-R1 的出现,却像一颗石子投入平静的湖面,激起了层层涟漪。这家来自中国的 AI 初创公司,以其开源的推理大模型 R1,正在搅动全球 AI 格局。R1 不仅拥有媲美甚至超越 OpenAI o1 的性能,更以其低廉的成本和
1月20日,国内人工智能技术企业深度求索(DeepSeek)官宣了其最新AI推理模型DeepSeek R1。该模型在数学、代码和自然语言推理等任务上表现优异,性能直接对标美国OpenAI最新的推理模型o1。此时,距离o1的正式发布过去还不到半年。
刘知远从未怀疑过出题人,反而怀疑是不是自己太笨了,“理解不了题目”。多年后深入学习语言哲学之后,他才渐渐意识到这其实是种天赋,“我就比较善于抓住语言里面那个不确定的地方”。
今年下半年,关于大模型领域的公共信仰Scaling Law是否“撞墙”的讨论络绎不绝。但不论支持还是反对,都需要意识到的一点是,Scaling Law并非衡量大模型能力的唯一视角。
近期,来自清华大学刘知远教授团队发现并提出大模型的Densing Law —模型能力密度随时间呈指数级增长,2023年以来能力密度约100 天翻一倍。这意味着每100天,我们可以用一半参数量实现当前最优模型相当的性能。LeCun团队提出NWM-可控视频生成模型
尺度定律之外,清华研究团队发现,大模型还有另一种度量与优化的空间,能力密度(Capability Density),它为评估不同规模 LLM 的训练质量提供了新的统一度量框架。
模型 scalinglaw 刘知远 2024-12-09 17:42 9
近期,关于 Scaling Law 能否持续的争论不断,有人认为 Scaling Law 可能将会“撞墙”;也有观点认为,Scaling Law 的潜力远未被充分挖掘,OpenAI CEO Sam Altman 更是以一句直白的“There is no wal
llm scalinglaw 刘知远 2024-12-07 22:19 11