亚马逊云科技为何上架Qwen和DeepSeek的最新模型

B站影视 内地电影 2025-09-19 20:08 1

摘要:9月19日,在亚马逊云科技的Amazon Bedrock模型平台上,上架了两家中国模型公司的新模型,分别是阿里巴巴Qwen3系列四款模型、DeepSeek-V3.1。这两款模型上架Amazon Bedrock,也标志着标志中国的开源模型正在被全球云计算生态认可

主动上架包括阿里巴巴Qwen3和DeepSeek-V3.1这两家中国模型,说明亚马逊云科技“Choice Matters”战略不是口号,是正在落地的行动

文|吴俊宇

编辑|谢丽容

中国的开源模型,在全球的技术影响力又取得了重大进展。

9月19日,在亚马逊云科技的Amazon Bedrock模型平台上,上架了两家中国模型公司的新模型,分别是阿里巴巴Qwen3系列四款模型、DeepSeek-V3.1。这两款模型上架Amazon Bedrock,也标志着标志中国的开源模型正在被全球云计算生态认可。

入选Amazon Bedrock门槛并不低。亚马逊云科技会评估全球范围内的大模型,严格筛选并最终上架。早在今年1月DeepSeek爆火时,Amazon Bedrock就曾上架DeepSeek的V3和R1这两款模型。

目前,Amazon Bedrock上架了包括Anthropic、Meta、OpenAI等全球14家模型厂商的200多款精选模型。在中国市场,仅有阿里巴巴的Qwen、DeepSeek上架了Amazon Bedrock。

阿里巴巴的Qwen3、DeepSeek-V3.1是两款免费的开源模型。它们在全球开源社区备受好评,且被开发者广泛使用。开源模型任何人都能下载、部署、使用。它们像种子,会不断散播并生根发芽,并被全球开发者二次训练或部署。

企业客户在Amazon Bedrock使用这两款模型时,不需要为模型厂商付费,只需要为亚马逊云科技支付调用模型后产生的计算、存储、传输费用。

此次Amazon Bedrock上架阿里巴巴的Qwen3话题性很足。过去云计算厂商之间,通常只会主推自己的模型,几乎不会上架同行的模型。比如,微软主推OpenAI的模型,谷歌则是主推自研的Gemini模型。它们不会上架对方的模型。逻辑是,独家占有某个模型,可以绑定一批客户使用自己的云资源。

但亚马逊云科技打破了这个惯例。“Choice Matters”(选择大于一切),这是它在大模型竞争中,长期坚持的战略。亚马逊云科技主动上架包括Qwen3等模型,说明“Choice Matters”战略不只是一句口号,而是正在落地的行动。

对亚马逊云科技来说,让Amazon Bedrock平台保持中立、做大生态更重要。它不会押注单一赢家,而是提供开放平台。只要模型足够好,就立刻上架Amazon Bedrock,为开发者提供多种选择。

为何上架Qwen和DeepSeek?

开放生态是对抗封闭的最佳武器。

国际市场调研机构Gartner 2025年8月公布的数据显示,截至2024年亚马逊云科技在全球云计算市场份额为37.7%,位居首位。

亚马逊云科技在云计算市场的基本盘够大,它不需要像其他云厂商一样,通过绑定独家模型,或禁止其他模型上架自家平台的方式去守住市场份额。

阿里云近两年的大模型策略是,通过免费开源的Qwen系列模型,扩大自己在全球开源社区的影响力,进而吸引开发者使用阿里云。截至2025年7月末,阿里巴巴开源的Qwen家族模型超过300个模型,全球下载量超过3亿次,衍生模型超过10万个。

把全球主流模型纳入自己的生态,哪怕是微软、阿里巴巴等云计算厂商投资或自研的模型也不例外——这是亚马逊云科技的一贯做法。

今年8月,Amazon Bedrock也上架了OpenAI的两款开源模型。一种常见看法是,OpenAI是微软投资的,两者关系更密切。理论上说,OpenAI是亚马逊投资的大模型创业公司Anthropic的竞争对手。但亚马逊云科技仍然上架了OpenAI这两款开源模型。

这种做法的好处是,保持中立性。这给开发者、企业客户传递的明确信号是,无论它们的数据、应用部署无论在哪朵云上,都可以自由选择其他模型,并正常获得服务。这更容易争取信任,尤其是吸引那些担心被单一平台绑定的企业。

对亚马逊云科技自己来说,这种做法也可以一批新客户,增加客户黏性,甚至是降低客户流失的潜在风险。

比如,如果一个企业客户想用Qwen或是OpenAI的模型,但Amazon Bedrock上没有,客户就可能为了这个模型而转向其他云平台。将Qwen、OpenAI等模型引入Amazon Bedrock,会让客户的AI工作负载都沉淀在亚马逊云科技的生态内,大幅增强客户黏性。因为客户使用模型、算力后,还可能会进一步配套使用数据库、数据分析、安全等服务。

这也符合亚马逊云科技的利益。因为它的核心商业模式是,客户按需消耗云资源(计算、存储、网络、数据库等)。客户在Amazon Bedrock上每调用一次Qwen或是OpenAI的模型,无论模型本身是否由亚马逊研发,都会消耗亚马逊云科技的算力资源(如CPU芯片的EC2实例、自研AI芯片的Trn2 实例等),并产生数据存储、传输等费用。这会带来丰厚的收入和利润。

对亚马逊云科技来说,模型很重要,但它不会绑定一家公司。Amazon Bedrock模型货架上的商品越丰富、越有吸引力,使用亚马逊云服务的客户就越多,消耗的资源也会更多。

这也是过去两年已经发生的事情。Amazon Bedrock可以看到亚马逊的大模型客户变化情况。2023年12月,亚马逊云科技在re:Invent 2023曾披露,Amazon Bedrock客户规模为数千人。但2025年二季度财报电话会,亚马逊管理层披露Amazon Bedrock客户数量超过10万。

大模型为亚马逊云科技的生成式AI业务带来了数以万计的新增客户,这同样也带动了亚马逊云业务的收入增长。亚马逊近两年的财报显示,2025年二季度云业务营收增速17.5%,相比两年前的2023年三季度同比提升5.2个百分点。

亚马逊总裁安迪·贾西(Andy Jassy)在2025年二季度财报后的投资者电话会披露,亚马逊的生成式AI业务目前年营收增速达到三位数,价值数十亿美元,目前需求量已经超过了供应能力。

两款中国开源模型有何优势?

在全球地缘政治环境面临不确定因素的大背景下,引入更多领先的中国模型,对于亚马逊来说,可以尽量降低客户的供应链风险。

事实上,中国模型厂商在全球开源社区正在拥有越来越大的影响力。无论是Qwen3还是DeepSeek-V3.1,这两款模型的性能在全球均处于领先位置。它们是企业和开发者正在广泛使用的模型。

这次Qwen3上架Amazon Bedrock的一共是四款模型,包括旗舰模型Qwen3-235B-A22B,两款编码模型Qwen3-Coder-480B-A35B-Instruct、Qwen3-Coder-30B-A3B-Instruct,一款适合移动设备和边缘计算部署的小模型Qwen3-32B (Dense)。DeepSeek-V3.1则是中国首款支持混合推理架构(同时支持思考模式与非思考模式)的大模型。

国际市场调研机构Artificial Analysis长期对全球主流模型进行性能基准测试。截至9月19日,阿里巴巴的Qwen3-235B-A22B-Thinking-2507性能仅次于OpenAI的GPT-5和o3、谷歌的Gemini 2.5 Pro、xAI的Grok-4,位居全球第四。DeepSeek-V3.1紧随其后,位居全球第五。

更重要的是,Qwen3和DeepSeek-V3.1在和OpenAI、Anthropic等全球领先模型性能接近的同时,还拥有一定的价格优势。

大模型调用价格通常是按照每百万Token(词元,AI推理算力的计量单位,一个Token可以是单词、标点、数字、符号等)的输入/输出价格计算。

Artificial Analysis长期跟踪全球主流模型的API调用价格,该机构截至今年9月19日的数据显示,Qwen3旗舰版本Qwen3-235B-2507价格是0.7美元/8.4美元,DeepSeek-V3.1的价格是0.55美元/2.19美元,而OpenAI的GPT-5(high)价格是1.25美元/10美元,Claude 4 Sonnet价格是3美元/15美元。

也就是说,Qwen3和DeepSeek-V3.1的价格,在全球所有领先的模型中几乎是最低的。对于需要处理大量文本的应用场景,例如内容创作、智能客服等,选用这两款中国模型,能大幅降低运营成本。

一位中国创业公司的开发者今年8月曾表示,在他的实际测试中,Qwen3、DeepSeek-V3.1实际性能可以达到OpenAI、Anthropic旗舰模型的80%-90%,但价格只要30%-60%。

只有开发者用起来的模型,才是好模型。被消耗了多少Token,可以侧面证明一款模型是否真正被使用。

OpenRouter是全球大模型API(接口)聚合平台,它集成了全球主流模型。OpenRouter数据显示,截至9月18日,阿里巴巴Qwen3系列两款模型(Qwen3 30B A3B、Qwen3 Coder 480B A35B)的Token月消耗量分别位居全球9和第10;DeepSeek-V3.1系列两款模型的Token月消耗量则分别位居全球第11和第12。

性能有优势,价格不算贵,客户也有需求,这也解释了为什么Amazon Bedrock会上架Qwen3还是DeepSeek-V3.1这两款来自中国的开源模型。

多模型协同是未来?

“模型大战”已经持续三年多,至今依然没有诞生能够“一统天下”的模型。现在,越来越多人预判,这场竞赛最终也不会有“一统天下”玩家。

2025年,全球科技公司的大模型迭代速度都越来越快,更新速度以“天”计算。据我们的综合调研统计,2025年1月1日-7月25日的206天内,中国、美国参与模型竞争的11家科技公司(包括阿里巴巴、字节跳动、腾讯、百度、华为、DeepSeek、月之暗面、谷歌、OpenAI、Anthropic、xAI)发布或迭代了至少29版大模型,平均每7.1天就会有一版新的大模型被发布。

现在的最强模型,3个-6个月后就可能被超越。企业如果将自己的AI战略完全押注在某一个封闭、独家的模型上,将会面临巨大的技术和商业风险。

在大模型的竞赛中,大语言模型、图像模型、语音模型、视频模型、3D/4D模型层出不穷。几乎每一个细分领域、每一个赛道,都有单项性能领先的选手。

比如,代码领域,Anthropic的Claude系列被公认为更强;图像和视频领域,Stability AI的Stable Diffusion系列更有优势;当驱动Muti-Agent(多智能体)应用时,OpenAI的GPT-5规划能力超出大部分模型。

选定了模型的专业领域,还要面对“不可能三角”——在成本、速度、性能三者之间权衡,最终找到适合自身业务的模型。

在真实的商业场景中,仅凭借单一模型很难满足所有需求。在这种复杂情况下,要像搭积木一样,把不同的模型组合起来,这种“多模型协作”的方法才能达到最佳的效果。

一位中国营销出海软件公司的软件负责人曾对我们表示,一个多语言客服应用,英文、小语种处理部分可能用Claude 4效果更好,但中文处理部分用Qwen3的效果更高。当企业希望获得性价比,而且对幻觉率要求不高的时候,DeepSeek可能更合适。

一位国际ERP(企业资源管理)厂商人士曾提到,他们的业务之中使用了10余款模型,可以随时调用切换。他认为,选择丰富之后,才能根据模型的性能、成本、表现选型。这可以尽量降低试错成本,也可以动态切换成本更低的模型,避免被一家模型公司绑定。

一位中国科技公司大模型平台业务负责人今年6月的看法是,Muti-Agent应用即将在2025年底成熟。未来,企业内部的真实模型使用场景可能是,一个模型驱动一款Agent,不同模型驱动的不同Agent在一起协同工作。

安迪·贾西曾在re:Invent 2023对此解释,要给开发者自主选择的权利。使用模型时,拥有多种选择至关重要,因为“永远不会出现一种工具在某个领域一统天下的情况”。

在亚马逊云科技的“Choice Matters”的大模型战略拼图中,至少为开发者提供了300多款模型。开发者既可以利用SageMaker平台精调、训练属于自己的模型,也可以用Amazon Bedrock直接使用全球主流模型。

Amazon Bedrock上架了全球14家模型厂商的200多款精选模型。它的使用门槛更低,可以通过API调用全球主流大模型。如果企业目标是快速将强大的生成式AI能力集成到自己的应用中,可以选择Amazon Bedrock。

在Amazon Bedrock上,客户可以在同一个平台,用同一个API,对来自中国、美国的主流模型进行性能、成本的A/B测试,进而选择适合自己的模型。

对亚马逊云科技来说,让自己的大模型平台保持中立、做大生态,才是最重要的。它不执着于在基础模型研发上与OpenAI、谷歌等公司一较高下,而是希望提供一个全面、开放、易于使用的模型平台,尽量囊括全球优秀模型,让客户根据自身需求自由选择。

来源:财经杂志视频

相关推荐