混元推出多款小尺寸开源模型,部分PC、手机、平板设备可直接接入

B站影视 日本电影 2025-08-05 14:05 1

摘要:上述四款模型参数分别为0.5B、1.8B、4B、7B,消费级显卡即可运行,适用于笔记本电脑、手机、智能座舱、智能家居等低功耗场景,且支持垂直领域低成本微调。目前,四个模型均在 Github 和 HuggingFace 等开源社区上线,Arm、高通、Intel、




公司情报专家《财经涂鸦》获悉,8月 4 日,腾讯混元宣布开源四款小尺寸融合推理模型,进一步丰富混元开源模型体系。

上述四款模型参数分别为0.5B、1.8B、4B、7B,消费级显卡即可运行,适用于笔记本电脑、手机、智能座舱、智能家居等低功耗场景,且支持垂直领域低成本微调。目前,四个模型均在 Github 和 HuggingFace 等开源社区上线,Arm、高通、Intel、联发科技等多个消费级终端芯片平台也都宣布支持部署。

据悉,Agent和长文能力是四个模型的共同亮点,实际应用中可以轻松胜任深度搜索、excel 操作、旅行攻略规划等任务。

此外,模型原生长上下文窗口达到256k,意味着模型可以一次性记住并处理相当于40万中文汉字或50万英文单词的超长内容,相当于一口气读完3本《哈利波特》小说 ,并且能记住所有人物关系、剧情细节,还能根据这些内容讨论后续故事发展。

部署上,四个模型均只需单卡即可部署,部分PC、手机、平板等设备可直接接入,主流推理框架(例如,SGLang,vLLM and TensorRT-LLM)和多种量化格式均能够支持。

应用层面,四款小尺寸模型都能够满足从端侧到云端、从通用到专业的多样化需求,并且已经在腾讯多个业务中进行应用。例如,依托模型原生的超长上下文能力,腾讯会议AI小助手、微信读书AI问书AI助手均实现对完整会议内容、整本书籍的一次性理解和处理。

在端侧应用上,腾讯手机管家利用小尺寸模型提升垃圾短信识别准确率,实现毫秒级拦截,隐私零上传;腾讯智能座舱助手通过双模型协作架构解决车载环境痛点,充分发挥模型低功耗、高效推理的特性。

在高并发场景中,搜狗输入法基于模型的多模态联合训练机制使嘈杂环境下提升识别准确率;腾讯地图采用多模型架构,利用意图分类和推理能力提升了用户交互体验;微信输入法“问AI”基于模型实现输入框与AI即问即答的无缝衔接。

在需求各异、约束严苛的垂直行业应用中,金融AI助手通过Prompt优化和少量数据微调实现95%+意图识别准确率,展现出金融级的高可靠性;游戏翻译和QQ飞车手游NPC充分利用模型的理解能力在多语言理解能力、方言翻译和智能对话方面有突出表现,这些能力在专业客服、内容出海甚至电商直播等场景有巨大应用潜力。

目前,混元的开源模型已覆盖文本、图像、视频和3D生成等多个模态。

腾讯表示,开源是混元大模型长期坚持的方向,未来也将不断提升模型能力,继续积极拥抱开源,推出更多尺寸、更多模特的模型,加速产业落地和应用,与开发者和合作伙伴共建大模型开源生态。


作者:苏打

编辑:tuya

出品:财经涂鸦(ID:caijingtuya)

来源:财经涂鸦

相关推荐