摘要:5月28日,DeepSeek小助手在官方交流群中发布通知称,DeepSeek R1模型已完成小版本试升级,欢迎前往官方网页、App、小程序测试(打开深度思考),API接口和使用方式保持不变,DeepSeek并在Huggingface上新了DeepSeek-R1
5月28日,DeepSeek小助手在官方交流群中发布通知称,DeepSeek R1模型已完成小版本试升级,欢迎前往官方网页、App、小程序测试(打开深度思考),API接口和使用方式保持不变,DeepSeek并在Huggingface上新了DeepSeek-R1-0528,但这并不是从2月就开始宣传的DeepSeek R2版本。
虽然不是DeepSeek R2,但据众多网友实际测评,新版DeepSeek R1在性能和体验上有明显提升,并非只是DeepSeek官方所说的“微小变化” ,而有Berkeley背景的代码测试平台Live CodeBench中显示,DeepSeek-R1-0528当前已达第四,不过这个榜单没有Claude 4。而根据X(Twitter)博主OpenRouterAI的比较,新版的确有变化,上下文长度(context length)更长,也更贵了。
此前5月13日,全球最大的大模型整合应用平台Poe发布《2025年春季人工智能模型使用趋势》报告。报告显示,国内著名的大模型公司深度求索的DeepSeek R1的消息份额从2月中旬的高峰7%下降至4月底的3%,下降50%以上。Poe的报告表示,由于其他公司有竞争力的推理模型相继发布,DeepSeek的影响力似乎已减弱。
发送到人工智能模型的消息(随时间的推移)
此次R1升级版本的发布,似乎意在回应外界质疑,为逐渐冷却的市场情绪重新“加温”。此前,多家媒体曾报道称,DeepSeek计划在四月底至五月初发布新一代R2模型,甚至一度传出“提前上线”的消息。
5月14日,梁文锋及其团队发布一篇14页论文,详述在DeepSeek-V3的研发过程中,如何借助2048块H800 GPU实现超大规模集群等效训练,人们又开始期待R2在架构上的继续升级,而此次的R1的发布,似乎显得比较有策略,既回应了用户期待,又给自己留足了升级架构的时间。
DeepSeek创始人梁文锋的故事,读者或许已耳熟能详。1985年出生的他,从小就展现出超常的数学天赋,在集邮这一爱好中亦显现出“以邮养邮”的商业头脑。在浙江大学本硕毕业后,他起初对金融产生了浓厚兴趣,与同学组队探索机器学习在全自动量化交易中的应用,并成功赚取了人生第一桶金。随后,他创立了幻方量化,迅速在国内量化投资领域崭露头角。
梁文锋在探索交易策略的时候,很早就注意到AI模型,2018年,他荣获中国私募行业的最高奖项——金牛奖,并在颁奖典礼上发表主题演讲《一名程序员眼中中国量化投资的未来》,首次系统阐述AI在量化投资中的广阔前景。他在演讲中提到:“量化投资的未来,是用技术让市场更有效率。”
彼时金融行业大多数公司尚未了解AI大模型是何物,幻方量化再次于2019年前瞻性地大规模布局AI算力,自主研发“萤火一号”训练平台,投资近2亿元,配备1100块GPU。2021年,投资加码到10亿元的“萤火二号”投入使用,搭载约1万张英伟达A100显卡。凭借如此前期准备,恰逢2023年AI大模型迎来爆发之年,梁文锋宣布正式进军通用人工智能领域,创办杭州深度求索人工智能基础技术研究有限公司,即DeepSeek。
DeepSeek采用差异化的技术路线,开发了新型MLA(多头潜在注意力机制)和MoE架构,大幅降低显存占用和推理成本,仅为传统MHA架构的5%-13%,2024年12月26日,DeepSeek发布V3模型,使用2048颗H800 GPU,训练成本仅557.6万美元(对比GPT-4o的7800万美元),性能却超越多个开源模型,如Llama 3.1 405B,并可与GPT-4o、Claude 3.5 Sonnet等闭源模型竞争,被硅谷称为“来自东方的神秘力量”。
2025年1月20日,DeepSeek发布R1模型,部分性能可以追赶上当时最先进的大模型之一OpenAI o1模型,而且DeepSeek能做到完全开源,7天内用户增长至1亿,登顶中国和美国苹果应用商店免费APP榜,超越ChatGPT。R1的成功进一步巩固了DeepSeek的全球影响力,当即引发美国科技股抛售,如英伟达市值损失了6000亿美元。
DeepSeek R1的发布被业内誉为“AI的斯普特尼克(Sputnik)时刻”,Sputnik作为1957年苏联发射的第一颗人造卫星斯普特尼克1号(Sputnik 1)的代称,曾标志着美苏太空竞赛达到的新高度。
美国总统特朗普也对DeepSeek给予正面评价,“深度求索低价但不低质的AI带来的是积极的影响,因为这可以让硅谷企业可以以更低的成本进行创新,而且DeepSeek给美国行业敲响警钟,意味着美国企业需全力以赴与中国企业进行竞争。”
DeepSeek R1的发布也引发业内专家和头部公司的高度关注。NVIDIA CEO黄仁勋称其为“送给全球AI行业的礼物”,Meta首席科学家杨立昆(Yann LeCun)则肯定其在开源和技术优化上的重大突破。微软、OpenAI、亚马逊等企业亦表达出对其技术实力的认可,其中亚马逊的AWS Bedrock率先接入了DeepSeek。
彰显自身技术实力以外,DeepSeek的崛起也标志着中国AI正从“技术追随者”向“自主创新者”转型。长期以来,业内及全球投资人普遍认为,中国在AI核心技术领域难以实现真正的原创,更多扮演的是模仿和追随者的角色。然而,DeepSeek的异军突起打破了这一固有认知,其展现出强烈的技术自主性与前瞻布局,如此发展下去,将重塑全球AI竞争格局。
很快,震撼变成了警惕,这种警惕又迅速转化为具体的限制措施,地缘政治争议和信任危机为DeepSeek的出海发展设置了结构性障碍。
微软在DeepSeek发布初期曾在其Azure云服务上提供DeepSeek模型接入,但随后迅速转变态度,采取强硬禁用措施,封杀DeepSeek相关服务。Microsoft副董事长兼总裁布拉德·史密斯 (Brad Smith)5月8号在参议院听证会上表示,“出于数据安全和宣传方面的考虑,Microsoft员工不允许使用DeepSeek。”
同样改变看法的还有OpenAI,在社交媒体上发表完“一款令人印象深刻的模型”评价之后的第二天,1月29日,OpenAI公开指控DeepSeek使用“蒸馏技术”(Model Distillation),通过提取ChatGPT的输出数据训练其开源模型R1,涉嫌违反服务条款。
3月13日,OpenAI向美国政府正式提交了一份长达15页的信函,信中称,DeepSeek的模型可能受到中国的操控,使用这些模型可能带来重大风险,尤其是在关键基础设施和高风险应用中。OpenAI在信函中还提出“应实施AI出口管制”,限制向中国等国出口美国AI技术,“禁止在政府设备上使用DeepSeek”等措施。
有些专家对此评论道,这份报告从根本上反映了美国科技界对中国人工智能实力迅速崛起的深度警惕,特别是在DeepSeek于底层技术与开源生态方面取得关键突破的背景下。
《金融时报》引述加州大学伯克利分校AI政策研究员里特维克·古普塔(Ritwik Gupta)的观点,“AI能力没有护城河”,而英特尔前CEO帕特·基辛格(Pat Gelsinger)亦表示,资源受限反而激发了中国团队的创造力。多重信号表明,围绕人工智能主导权的地缘政治竞争将持续升温,并进入一个更加复杂的竞争态势。
针对DeepSeek出现的新情况,并不局限在几家人工智能科技公司,从DeepSeek R1发布伊始,美国各类智库就对美国科技产业发展、中美竞争及出口管制政策制定等方面展开讨论,西方学者普遍认为,DeepSeek问世彰显出中国能够以低成本输出高质量AI产品的实力,促进资源共享和推动竞争,同时也存在数据安全隐患,并对美国人工智能先进地位产生威胁。
不只是研究层面,事实上,美国多个政府部门开始对DeepSeek采取限制措施。如美国商务部、国防部以及德克萨斯州、纽约州和弗吉尼亚州在内的多个美国州已禁止在政府设备上使用DeepSeek。
美国在立法层面也加大了限制力度。2025年2月,参议员乔什·霍利(Josh Hawley)提出《美国人工智能能力与中国脱钩法案》,明确禁止美国个人或机构下载、使用DeepSeek开发的应用程序,违者最高可判20年监禁并罚款100万美元。法案还禁止与中国在AI领域的学术合作、技术转移和投资,违规行为将面临重罚。
美国以外,多个国家和地区出于国家安全、数据隐私和技术主权的考量,禁止在政府机构、公共部门或关键基础设施设备上安装或运行DeepSeek的相关应用与模型。
2025年1月底,意大利成为全球首个禁用DeepSeek的国家,其数据保护局(Garante)以潜在隐私风险为由,禁止政府机构和公共部门使用DeepSeek;主要理由是DeepSeek收集的用户数据存储在中国服务器上,可能违反欧盟《通用数据保护条例》(GDPR)。
澳大利亚政府则于2月4日正式发布禁令,禁止所有联邦政府设备使用中国公司DeepSeek开发的人工智能程序R1,理由是基于“国家安全考量”和“不可接受的安全风险”。
韩国不仅在政府部门禁用DeepSeek,部分大型企业如水力原子力、Kakao、LG U+等也相继禁止使用。韩国国防部、产业通商资源部等重要政府机构已下令禁止内部使用DeepSeek,并全面封锁DeepSeek相关应用在韩国各大应用商店的下载渠道。
对此,中国外交部发言人郭嘉昆回应道,中国政府高度重视并依法保护数据隐私和安全,从来没有也不会要求企业或个人以违法的形式采集或存储数据。而DeepSeek自身的公关策略比较侧重于技术实力与合规的正面塑造,试图缓解国际社会的质疑和压力。
对于前者,DeepSeek主动公开其模型代码、技术论文及训练细节,例如其发布53页技术报告,详细披露R1的训练细节,对于后者,DeepSeek则通过学术界背书,如MIT媒体实验室的审计报告,证明其隐私保护强度高于美国企业平均水平,还通过法律团队向欧盟监管机构提交合规说明,解释数据跨境传输的加密措施,此外DeepSeek能借助开源优势,在Github、Huggingface等技术社区与开发者积极互动,以Github为例,其中DeepSeek V3的Star数量达到9.72万,DeepSeek R1的Star数量也能达到8.95万。
然而,DeepSeek当前的应对策略尚不能阻止上述国家的政府设备禁令、欧盟的监管调查以及安全漏洞争议。在国家安全高度敏感的背景下,单靠技术层面的解释与反驳,难以真正撼动政策制定者对其潜在风险的判断。可以预见,DeepSeek的全球发展之路仍将面临重重阻力与结构性挑战。
在5月28日重新回到公众视线之前,DeepSeek经历了长达三个月的沉寂期。外界对梁文锋的动向和团队的进展一无所知,只是听到DeepSeek R2的传闻一遍遍在重复。
早在今年2月,路透社就曾报道R2预计于4月底或5月初发布。到了3月,市场一度传出“3月17日提前发布”的消息,但随后被DeepSeek辟谣。此后,情况变得愈发神秘。直到5月28日R1 0528版本发布之际,仍有自媒体和博主在追问:到底还有没有R2。
然而竞争对手的行动并没有按照DeepSeek的节奏来进行。
OpenAI很快发布了o3系列模型,作为o1的升级版本,显著提升了数学、科学和复杂推理任务中的表现。o3引入了“私有思维链”机制,使模型在生成回答前进行更深入的思考,尽管响应时间有所增加,但准确性和深度得到了增强。紧接着,GPT-4.5 “Orion”、深度研究功能面世,在推出o3正式版的同时,又推出了o4-mini,进一步向着低幻觉、高情商方向进发,最近亦有GPT-5的消息传出,旨在将多个产品整合为统一系统。
OpenAI的长期竞争对手Anthropic则于2月推出Claude 3.7 Sonnet,其通过模型压缩技术降低运行成本,并强化数据隐私保护。到5月23日,Claude Opus 4和Claude Sonnet 4同时推出,前者可连续7小时不间断生成工业级高质量代码,后者则在权威软件工程评测SWE-bench中以72.7%的成绩超越多数竞品。
Google也没有落后。在2025年5月的Google I/O大会上,Google发布了Gemini 2.5 Pro和Flash版本,在编程和复杂推理任务中表现优异,该模型在发布后大约六周就占据了Poe近30%的推理消息市场份额,超越DeepSeek R1。值得一提的是,Gemini能够在单一工作流程中无缝处理文字、图像、音频、视频,包括摄像头和代码库信息。
带有推理能力的模型在文本子类别中的消息份额
此外,阿里巴巴开源的大模型Qwen3、马斯克旗下xAI的Grok-3,以及Meta的Llama 4均在今年上半年陆续亮相,展现出强劲实力,均可能成为DeepSeek在全球市场上的潜在竞争对手。
在权威大模型评测平台Chatbot Arena LLM Leaderboard上,DeepSeek R1目前已下滑至第9位,前列基本被上述主要竞品占据。值得注意的是,DeepSeek-V3-0324作为V3模型的升级版本,于3月24日发布,重点提升了编程能力。DeepSeek并非没有持续优化,但仍然赶不上竞争对手的步伐。
从用户下载与活跃度的角度,我们也做了调研。据手机下载排名权威网站Sensor Tower旗下的Data.ai显示,DeepSeek仅仅在全球下载排名中目前稳定在第11位,而用户活跃度、使用时长(Total Time Rank)、用户渗透(Usage Penetration Rank)等排名中,前100名均看不到DeepSeek的身影。
iphone下载总排名及免费榜排名(2025.5.27)
而从苹果App Store排行榜中,选择美国,我们也无法在前100名中看到DeepSeek,而其竞争对手ChatGPT和Gemini却稳坐第一名和第四名,这与今年1月28日的景象完全不同,当时DeepSeek超越了ChatGPT取得了第一名的位置。
App store美国iphone 应用排名
(左:2025.5.27,右:2025.1.28),来源:apple
从近期多项数据来看,DeepSeek的市场份额出现下滑并非偶然,其背后有迹可循。综合业内分析与实测反馈,原因大致可归结为以下三方面。
第一,新旗舰模型往往“快速蚕食”旧模型。DeepSeek R1的“病毒式传播”在2月中旬到达顶峰,但随着其他模型的快速崛起,用户注意力被更优质的模型所吸引,如Gemini 2.5 Pro和OpenAI的o3、o4系列,“一代”产品几乎无法和“二代”、“三代”竞争,自然削弱了R1的竞争力。从5月28日这版发布可以看出,在憋大招的DeepSeek已经意识到了问题,并追赶上了。
第二,X用户@KuittinenPetri指出,DeepSeek R1的最大问题是“推理速度慢”,尤其在高频交互场景中,如实时对话,相比竞争对手慢了不少。R1的MoE架构(6710亿参数,370亿活跃参数)虽降低训练成本,但推理仍需高性能硬件,如英伟达最新一代GPU
第三,与大厂生态基本没有绑定。OpenAI和Gemini通过与Azure、Google等平台的深度整合,提供了更无缝的开发者体验,国内的Qwen与阿里生态的绑定,豆包与字节跳动的绑定,在数据猿发布的文章《别再瞎搜了!这个“高搜商”AI“先思考后搜索”秒解生活难题 》中,我们分析了夸克产品搭载了阿里的大模型成为阿里AI的重要入口,根据Data.ai的最新数据,夸克的iphone下载量在中国排名第六。
业内久盼的DeepSeek R2并未如期而来,只盼来了DeepSeek R1以优化为主的版本,然而正是这些“微小”的变化消除了上一版本40%-45%的幻觉,带给用户更为准确的结果。据悉,这次升级主要集中在以下几个方面:
☆深度思考能力强化:平均每题思考token数从12K增加至23K,反映其在解题过程中进行了更为详尽和深入的思考
☆复杂推理任务表现显著提升:通过加大后训练阶段的算力投入,显著增强了“深度思考”能力,在AIME(数学)、GPQA(科学)、LiveCodeBench(代码生成)、Humanity’s Last Exam(推理与百科知识)等测试中大幅超越了自身水平,也超越一众竞争对手
☆促进蒸馏小模型的开发:蒸馏DeepSeek-R1-0528 的思维链后训练Qwen3-8B Base,得到了DeepSeek-R1-0528-Qwen3-8B,其亦在AIME测试中取得了仅次于新版DeepSeek的分数,而超越原始的Qwen3-8B(+10.0%),这对于学术界推理模型的研究和工业界针对小模型的开发都将具有重要意义
☆创意写作更简便更像人类:新版R1在原有基础上,对议论文、小说、散文等文本类型进行了深化优化,具备生成更长篇幅、更具结构性和内容完整性的能力,同时展现出更符合人类审美与表达习惯的写作风格。
另外值得注意的是,DeepSeek R1 0528版本在Live CodeBench权威大模型测评和Artificial Analysis 报告中,分别排名第四和第二。从开源大模型来看,DeepSeek在1月凭借第一个R1版本成为首个跻身榜单排名第二的开源权重模型;而今天发布的R1更新,再次将其推回这一位置。
最新大模型评测(2025-05-29),来源:Live CodeBench
而此前的5月14日,梁文锋及其团队发布的回顾性论文《深入解读 DeepSeek-V3:AI架构的扩展挑战与硬件思考》(Insights into DeepSeek-V3: Scaling Challenges and Reflections on Hardware for AI Architectures),或许才是真正展现DeepSeek底层实力与技术深度的关键信号。
我们看到,该论文深入剖析了DeepSeek-V3(6710亿参数,370亿活跃参数,MoE架构)的架构设计与硬件协同优化,强调如何通过软硬件协同设计实现成本高效的训练和推理。
一方面,论文介绍了DeepSeek-V3在模型架构的创新是如何提升内存效率和计算性能的。其中,多头潜在注意力机制(MLA)通过压缩注意力机制中的键值缓存,显著减少了内存占用,提升推理效率;混合专家架构(MoE)则优化了计算与通信之间的权衡;FP8混合精度训练的应用,充分发挥了硬件的计算潜力,降低了训练成本。
另一方面,面对大规模语言模型训练带来的硬件挑战,论文提出了硬件感知的模型协同设计策略。DeepSeek-V3在2048块NVIDIA H800 GPU上进行训练,采用了多平面网络拓扑结构(Multi-Plane Network Topology),有效减少了集群级别的网络开销,提升了通信效率,以满足日益增长的AI工作负载需求。
DeepSeek-V3的基本架构
这篇论文展示了DeepSeek在对幻觉优化之外,架构层面的创新方向:随着模型规模的不断扩大,当前硬件架构在内存容量、计算效率和互连带宽等方面的限制日益突出。为应对这些挑战,论文建议未来的AI系统应注重硬件与模型的协同设计,探索智能网络、内存中心的创新以及网络内计算与压缩等方向,为下一代AI系统的设计提供了理论基础和实践指导。恐怕这才是梁文锋及团队真正发力之处。
不过R1 0528版本的发布,也让我们欣喜地看到,DeepSeek正逐步走出实验室,迈向更广阔的世界。它似乎正借鉴OpenAI、Anthropic等模型巨头的战略,把控产品节奏,不断重燃市场信心,并逐步培育起一批具有“信仰感”的核心用户群体。
值得注意的是,DeepSeek在全球开发者开源社区方面做了很多努力,通过MIT协议开源R1并构建开放生态来重塑其国际形象。虽然当前尚未形成类似Meta Llama那样的“飞轮效应”,如果DeepSeek在性能和工具链方面进一步实现突破,并提供更加友好的部署与微调能力,那么DeepSeek或许有机会绕开主流市场封锁,从全球开发者群体走出一条非典型的国际增长曲线。
要真正撬动这一增长曲线、实现从技术输出到全球化运营的转变,DeepSeek面临的已不仅是模型能力的比拼,更是一场关于“信任+生态+节奏”的全面战斗。
在信任层面,AI已不是一场纯粹的技术竞赛,而是信任机制的较量。谁能赢得用户、开发者和社会对其价值观、安全性与可持续性的信任,谁才能获得客户的长期信赖;生态层面,模型只是起点,真正决定竞争力的,是应用能力、开发者工具链以及落地生态的广度与深度;开发节奏上,面对全球市场的技术竞速,唯有持续迭代、快速响应,才能不断为用户带来优良体验,保持竞争优势。
毫无疑问,未来的征程将是一场围绕信任与生态的系统性博弈。DeepSeek的技术突破固然打开了通往全球的大门,但能否穿越复杂的国际环境、以透明实践赢得信任,并构建真正开放协作的全球AI生态,才是其能否引领下一波人工智能浪潮的关键所在。在全球AI格局尚未定型的当下,DeepSeek仍握有机会,关键在于它能否真正接得住这场时代的挑战。
来源:塞北小七