摘要:5月28日凌晨,当大多数开发者还在梦乡,DeepSeek官网悄然上线了新版R1模型(DeepSeek-R1-0528)。没有发布会,没有通稿,只有一句简短通知:“开启深度思考,体验升级版。”这种“低调到尘埃”的风格,却藏不住硬核升级:
网络图片,谨慎参考
5月28日凌晨,当大多数开发者还在梦乡,DeepSeek官网悄然上线了新版R1模型(DeepSeek-R1-0528)。没有发布会,没有通稿,只有一句简短通知:“开启深度思考,体验升级版。”
这种“低调到尘埃”的风格,却藏不住硬核升级:
网友实测后惊呼:“以前像ChatGPT早期版,现在像GPT-4o亲兄弟!”
网络图片,谨慎参考
“We want R2!!!”
“R2搞快点,别装聋作哑!”
这种“一边夸一边骂”的荒诞场景,背后是用户对下一代模型的饥渴期待:
传闻中的“核弹级”R2:1.2万亿参数、华为Ascend芯片加持、成本比GPT-4低97%;多模态悬念:能否处理图像/视频?能否终结“中文模型弱多模态”的魔咒?官方“拖字诀”:3月曾辟谣“R2发布是假消息”,5月又用R1升级转移视线。一位开发者调侃:“DeepSeek怕不是把R2改名叫R1更新了?”
网络图片,谨慎参考
基座不变,暴力提效沿用2024年的V3基础模型,但通过强化学习+思维链蒸馏,将8B小模型(DeepSeek-R1-Qwen3-8B)性能拉到接近235B巨头的水平——用“算法杠杆”撬动算力限制。工具调用“暗度陈仓”
新R1支持函数调用(Function Calling),在航空、零售任务中达到OpenAI o1水平。虽未明说,但被视作R2多模态交互的“前哨战”。开源霸权
坚持MIT协议开源,允许企业免费商用。网友戏称:“OpenAI在收订阅费,DeepSeek在收人心。”
网络图片,谨慎参考
性能对标国际,用户却永不满足:87.5%的AIME得分已超旧版GPT-4,但网友仍嫌“没碾压o3”;成本革命VS生态短板:华为芯片训练效率超英伟达A100集群91%,但工具生态远落后于OpenAI;“挤牙膏”式创新遭反噬:用户要的是代际跨越(R2),而非小修小补(R1更新)。一位投资人直言:“DeepSeek在赌——用R1拖住对手,用R2憋个大招。”
网络图片,谨慎参考
当DeepSeek用R1证明“中国模型可平视世界”,用户却已望向下一代地平线。技术竞赛没有终点,但有一件事确定:中国AI的野心,早已不止于“追赶”。
网友热评预定:
✅ “R1干活更稳了,但R2再鸽我就跳槽Kimi!”
✅ 华为芯片+1.2万亿参数?R2不发布对得起国产算力吗!
✅ 建议改名叫DeepSeek-PRO Max,毕竟R2才是真旗舰(狗头)
(本文基于公开资料,DeepSeek官方未回应R2发布时间)
郑重声明:以上内容仅代表我个人的观点,仅供各位娱乐消遣时参考。文中部分图片和内容取材自网络(或AI生成),若不慎侵犯了您的权益,请立即联系我,我会毫不犹豫地将相关内容删除,以保障您的合法权益 。
来源:精选阅读会