摘要:天玑9500采用第三代3nm工艺和全大核架构,集成超300亿晶体管,NPU性能比上代提升111%,功耗降低56%;
生成式AI
一、 联发科推出了新一代旗舰 5G 智能体 AI 芯片天玑 9500
1. 天玑9500采用第三代3nm工艺和全大核架构,集成超300亿晶体管,NPU性能比上代提升111%,功耗降低56%;
2. 芯片采用超性能+超能效双NPU架构,首次引入存算一体设计和BitNet 1.58 bit量化推理框架,支持端侧模型训练;
3. 在实际应用中,支持128K长文本处理、4K画质图像生成,vivo和OPPO等厂商旗舰新机将搭载该芯片实现个性化AI场景。
二、 奥特曼预告「计算密集型」新产品,Pro也要额外收费!
1. OpenAI已投入160亿美元租用计算资源,计划在2024-2030年间砸下3500亿租赁服务器,2030年单年预计花费1000亿;
2. 近期公司与甲骨文签署5年3000亿美元算力合同,额外追加1000亿美元用于备用服务器,打破传统科技巨头研发成本仅占收入10%-20%的规模;
3. 奥特曼预告未来几周推出计算密集型新产品,但Pro用户也需额外付费,引发用户不满。
三、 谷歌开源新Deep Research范式,教Agent真正的思考
1. 谷歌突破传统Agent"规划-检索-生成"模式,提出新的研究框架,像人类专家一样先打草稿,再不断检索学习迭代修正;
2. 新框架采用"扩散式降噪"过程,让Agent能基于草稿发现信息缺口,从外部搜寻证据,反复优化研究内容;
3. 谷歌还引入多版本智能自我批判和报告级降噪技术,在GAIA等任务上全面优于OpenAI DeepResearch,已在Google Agentspace可试用。
四、 DeepSeek 发布 DeepSeek-V3.1 的终极Terminus版本
1. DeepSeek发布模型DeepSeek-V3.1的终极(Terminus)版本,针对用户反馈进行了两个方面改进;
2. 新版本缓解了中英文混杂、偶发异常字符等语言一致性问题,并进一步优化了Code Agent与Search Agent表现;
3. DeepSeek-V3.1-Terminus在官方App、网页端、小程序与DeepSeek API模型均已同步上线,同时开源版本可在Hugging Face和ModelScope平台下载。
五、 实测可灵AI 2.5新视频模型,它生成的动作戏酷到封神
1. 可灵2.5视频模型在运动能力和表情表演方面实现重大突破,能准确表现人物的微表情变化与复杂情绪,并维持不同场景下的角色一致性;
2. 模型能完美衔接下落、奔跑、骑摩托等连续动作,保持环境交互的真实感细节,且理解复杂的因果关系;
3. 可灵2.5在动作戏上表现极佳,能生成高质量的跑酷、跨越、战斗和爆炸场景,连续性和物理真实感大幅提升,已对超级创作者灰度内测。
六、 美团发布了全新高效推理模型 LongCat-Flash-Thinking
1. 美团LongCat团队发布高效推理模型LongCat-Flash-Thinking,在保持极致速度的同时,逻辑、数学、代码和智能体等多领域达到全球开源模型最先进水平;
2. 新模型首创领域并行强化学习训练方法,采用异步弹性共卡系统实现三倍提速,并设计双路径推理框架提升智能体能力;
3. 在推理基准测试上全面领先开源模型,AIME和LiveCodeBench等测试中与GPT-5等顶级闭源模型表现相当,形式化推理能力在MiniF2F-test基准上大幅领先所有参评模型。
七、 百度开源视觉理解模型Qianfan-VL,采用自研芯片计算
1. 百度智能云千帆发布视觉理解模型Qianfan-VL并全面开源,提供3B、8B和70B三种规格,支持OCR识别和教育垂类等场景;
2. 模型由百度团队基于开源模型开发,在自研昆仑芯P800上完成全流程计算,支持单任务5000卡规模并行计算;
3. Qianfan-VL系列具备思维链能力、OCR全场景识别和复杂版面文档理解能力,在多项基准测试中表现优异,已可在百度智能云免费体验。
前沿科技
八、 2025 年度"35岁以下科技创新35人"亚太区入选者发布
1. 《麻省理工科技评论》公布2025年度"35岁以下科技创新35人"亚太区入选名单,共35位创新者来自AI、机器人、材料等领域;
2. 夏斐、閔世媛等多位入选者在人工智能领域取得突破,包括具身智能、非参数大语言模型等方向;
3. 中国入选者最多,截至2024年共完成11届评选,中国共82人入选、领先新加坡76人,反映亚太地区从技术追随向创新引领的变化趋势。
报告观点
九、 Nano Banana核心团队:图像生成质量到顶?及下一步
1. 图像模型未来会像LLM一样从创意工具转变为信息查询工具,最大挑战是把LLM的"世界知识"融入图像模型,让模型理解用户真实意图;
2. 现有图像模型质量"上限"已接近顶点,但"下限"仍有巨大提升空间,未来图像模型发展将专注于提高"模型可表达性"和复杂场景下的表现;
3. 未来交互界面将整合文本、图像、语音等多种模态,但用户对一步到位生成"成品"的期望不切实际,专业工作流程中AI模型与传统工具将长期共存。
来源:腾讯研究院