摘要:昨天OpenAI、Anthropic还在带头冲锋,想方设法使绊子。一夜间,基础设施厂商们却纷纷“真香”了起来。
鱼羊 发自 凹非寺
DeepSeek冲击下,硅谷可太精彩了。
昨天OpenAI、Anthropic还在带头冲锋,想方设法使绊子。一夜间,基础设施厂商们却纷纷“真香”了起来。
在微软之后,英伟达、AWS也加急上线DeepSeek模型托管服务。
正如英伟达官推评论区网友评价的,“打不过,就加入”。
咱们且一桩桩一件件把这瓜捋上一捋。
先说个新消息,OpenAI这边的最新应对举措今日出炉:筹钱,筹钱,筹钱。
《华尔街日报》爆料,OpenAI正在以3000亿美元估值,寻求新一轮的400亿美元(约合2875亿人民币)融资——
这将打破由OpenAI自己保持的硅谷单轮最高融资纪录。
本轮融资由软银领投。此前的消息显示,软银此番计划最多向OpenAI投资250亿美元(约合1797亿人民币)。
而这距离OpenAI以1570亿美元估值筹获66亿美元,其实也就刚过去4个月时间。
短短几个月,估值再次翻番,也从侧面印证了市场传闻:OpenAI对上一轮融资并不满意。
并且现在,OpenAI或许真有点被逼急了:
另一个消息是,o3在当地时间周五就会发布。
但AI应用这边,画风就又有些不同了。
比如程序员最爱的Cursor,已经大大方方接入了新模型,号召大家伙而一起实测见真章。
只留下中间的模型厂商在风中凌乱,对于云服务和应用来说,先全部支持上是正经嘛(doge)。
具体详情,咱们往下接着唠。
o3周五见根据爆料,OpenAI筹集资金的目的之一是兑现对Stargate(星际之门)计划的承诺。
这项计划由OpenAI和软银牵头发起,Arm、微软、英伟达、甲骨文都将作为关键技术伙伴参与其中,目标是在未来4年内投资5000亿美元(约合3.64万亿人民币)在美国建立多个AI数据中心。
OpenAI的承诺是:1000亿美元。
官方公告透露了一些细节:
The Stargate Project是一家新公司,计划在未来四年内投资5000亿美元,在美国为OpenAI建设新的AI基础设施。我们将立即投入1000亿美元。
该项目的初始股权投资者(The initial equity funders)包括软银、OpenAI、甲骨文和中东AI基金MGX。软银和OpenAI是项目的牵头合作伙伴,其中软银负责财务,OpenAI负责运营。孙正义将担任董事长。
Arm、微软、英伟达、甲骨文和OpenAI是关键初始技术合作伙伴。建设工作目前正在进行中,从德克萨斯州开始,我们在最终确定协议的同时,正在评估全国各地的潜在地点以建立更多园区。
作为《星际之门》项目的一部分,甲骨文、英伟达和OpenAI将紧密合作构建和运营这个计算系统。这建立在OpenAI和英伟达自2016年以来的深度合作,以及OpenAI和甲骨文的新合作基础上。
这也建立在OpenAI与微软现有的合作关系之上。随着OpenAI继续与微软合作,利用额外的计算能力来训练领先模型并提供出色的产品和服务,OpenAI将继续增加对Azure的使用。
另外,这笔钱也将被OpenAI用来填补亏损。尽管在2024年8月,OpenAI的月收入已达3亿美元,相较于2023年初增长了1700%,但在10月份时,OpenAI预计其全年亏损仍达50亿美元。
随着融资消息而来的,还有o3的最新时间表。
OpenAI首席全球事务官Chris Lehane在接受NPR采访时透露:
o3将在周五发布。
(也就是北京时间周六。)
消息一出,网友们小马扎已经准备好了。
不过也有网友指出,他所说的“o3”还是指o3-mini,对于这一模型的上线,奥特曼本人已经预告已久。
毕竟,酸归酸闹归闹,DeepSeek正在大洋彼岸引发更多的“真香”效应。
继微软前脚指指点点,后脚就在自家AI平台上接入了DeepSeek模型之后,程序员们最爱的Cursor今天也最新宣布:
现在,DeepSeek模型在Cursor上可用啦。
值得注意的是,Cursor提到,在实际编程任务中,还是Sonnet 3.5更胜于DeepSeek的新模型。
但Cursor官方并没有给出具体的示例,这就引发了围观群众们的好奇:
看来是时候用实测来说话了,如果你已经上手体验,不妨在评论区第一时间分享给我们大伙儿~
同样,说话很大声的Anthropic,背后金主爸爸AWS也已第一时间接入DeepSeek模型,丝毫没有因为争议而犹豫(doge)。
更受关注的还有股价真被DeepSeek冲了一波的英伟达——
DeepSeek-R1已上线英伟达NIM平台。英伟达官方还大夸特夸了一波:
DeepSeek-R1是具有最先进推理能力的开源模型。DeepSeek-R1这样的推理模型不直接给出回答,而是在查询上执行推理,通过思维链、共识和搜索方法,生成最佳答案。
DeepSeek-R1是测试时Scaling Law的一个完美例子,证明了为什么加速计算对于代理AI的推理需求至关重要。
英伟达表示,DeepSeek-R1 NIM微服务可以在单个NVIDIA HGX H200系统上每秒传递3872个token。
而针对Anthropic等面对DeepSeek竞争的不敞亮反应,也有越来越多反对的声音正在出现。
比如HuggingFace联合创始人Thomas Wolf,就直接批评说:
老实说,Dario的文章读起来非常痛苦。
他在小作文中写道:
将开源研究与模糊的封闭研究,以及未公开的评估进行比较的做法,让我对Anthropic的领先地位信心不如从前。
更重要的是,随着Open-R1的发展和DeepSeek的论文,未来几个月来自世界各地的团队都将发布开源推理模型。比如今天,艾伦研究所和Mistral就分别发布了Tülu and Small3,来追赶DeepSeek-V3。
开源将对我们的安全越来越重要。
你觉得呢?
参考链接:
[1]https://blogs.nvidia.com/blog/deepseek-r1-nim-microservice/
[2]https://www.wsj.com/tech/ai/openaiin-talks-for-huge-investment-round-valuing-it-up-to-300-billion-2a2d4327
— 完 —
关注我们,第一时间获知前沿科技动态签约
来源:量子位