摘要:华鑫证券发布研报称,6月13日,AMD推出MI350X和MI355X两款GPU。与前代MI300X相比,MI350系列的算力提升4倍,推理速度提高35倍。6月10日,中国科学院计算技术研究所处理器芯片全国重点实验室,联合中国科学院软件研究所,基于大模型等AI技
智通财经APP获悉,华鑫证券发布研报称,6月13日,AMD推出MI350X和MI355X两款GPU。与前代MI300X相比,MI350系列的算力提升4倍,推理速度提高35倍。6月10日,中国科学院计算技术研究所处理器芯片全国重点实验室,联合中国科学院软件研究所,基于大模型等AI技术,推出处理器芯片和相关基础软件全自动设计系统——“启蒙”。
华鑫证券表示,继续看好海外算力链。中长期,建议关注临床AI产品成功落地验证的嘉和美康(688246.SH)、以AI为核心的龙头厂商科大讯飞(002230.SZ)、芯片技术有望创新突破的寒武纪(688256.SH)、高速通信连接器业务或显著受益于GB200放量的鼎通科技(688668.SH)、已与Rokid等多家知名AI眼镜厂商建立紧密合作的亿道信息(001314.SZ)、加快扩张算力业务的精密零部件龙头迈信林(688685.SH)、持续加码高速铜缆的泓淋电力(301439.SZ)、新能源业务高增并供货科尔摩根等全球电机巨头的唯科科技(301196.SZ)等。
华鑫证券主要观点如下:
算力:AMD发布MI350系列GPU性能升级,预告MI400联合OpenAI研发
6月13日,AMD推出MI350X和MI355X两款GPU。与前代MI300X相比,MI350系列的算力提升4倍,推理速度提高35倍。
MI350系列产品在性能上可与英伟达B200竞争。其内存容量为B200的1.6倍,训练及推理速度与B200相当或更优。此外,由于该芯片功耗低于英伟达同类产品,在MI355X上,每1美元的投入可支持处理的tokens数量比B200多40%。同时,AMD预告将于2026年推出MI400系列产品,并透露OpenAI参与了该系列产品的联合研发工作。
MI350X与MI355X核心设计相同,差异在于散热方式适配:前者采用风冷,后者与B200一致采用液冷。二者均基于第四代Instinct架构(CDNA4),配备288GBHBM3E内存及8TB/秒带宽,容量为英伟达GB200、B200的1.6倍。功耗方面,MI350X最高TBP为1000W,MI355X达1400W,更高功耗使其性能优于MI350X。
AMD下一代GPUMI400系列将于2026年推出,该系列由AMD与OpenAI联合研发,OpenAI为其训练和推理需求提供关键反馈。MI400系列将采用下一代CDNA架构,预计速度较MI300系列快10倍,FP4运行速度达40PFLOPs,配备432GBHBM4内存及19.6TB/s内存带宽,搭配2nm的VeniceCPU和Vulcano网卡,MI400可以组装成完整的HeliosAI机架。Venice搭载256个Zen6核心,计算性能较TurinCPU提升70%。代号Vulcano的下一代AI网卡支持PCIe与UAL接口,线速吞吐量达800GB/s。Helios机架最多连接72个GPU,扩展带宽达260TB/s。
AI应用:Gemini周平均访问量环比+11.26%,中国科学院发布「启蒙」芯片设计系统
6月10日,中国科学院计算技术研究所处理器芯片全国重点实验室,联合中国科学院软件研究所,基于大模型等AI技术,推出处理器芯片和相关基础软件全自动设计系统——「启蒙」。
芯片设计向来是科技界的「皇冠明珠」,传统设计流程需要顶尖专家团队耗时数月甚至数年攻坚,极具挑战性,而「启蒙」系统可以全自动的实现芯片软硬件设计各个步骤,达到或部分超越人类专家手工设计水平。
目前,研究人员已基本完成第一步中软硬件各个步骤的自动设计,后续将继续推进跨层协同设计数据集的建立和处理器芯片大模型的训练。研究人员将继续实现从自顶而下到自底而上的设计路线,并组成迭代的循环,最终朝着实现整个「启蒙」系统自演进的目标迈进。未来,还将通过符号主义、行为主义及连接主义等不同人工智能路径的交叉探索,不断提升「启蒙」系统的处理器芯片软硬件全自动设计能力,同时持续拓展「启蒙」的应用边界,为更广泛的处理器芯片设计应用场景提供智能化支持。
AI融资动向:Multiverse完成2.17亿美元B轮融资,LLM压缩技术达95%
6月13日,西班牙人工智能公司MultiverseComputing于周四宣布完成1.89亿欧元(约2.17亿美元)B轮融资。本轮融资由BullhoundCapital领投,HPInc、ForgepointCapital和东芝等知名机构参投。
该公司的CompactifAI技术可将大语言模型(LLM)压缩高达95%,且不影响性能表现。这项技术通过"量子启发式算法"和张量网络,能够识别AI模型中最相关和次要部分,从而显著减少模型体积。其压缩后的模型运行速度比原始模型快4-12倍,推理成本可降低50%-80%。
CompactifAI还可用于边缘设备,如个人电脑、智能手机等。该技术巧妙地结合了量子物理和机器学习的原理,通过模拟量子系统工作,但无需使用量子计算机。此轮融资使Multiverse成为西班牙最大的AI初创公司,跻身欧洲顶级AI创业公司行列,与Mistral、AlephAlpha、Synthesia、Poolside和Owkin等优秀企业并肩。Multiverse已成功推出多个压缩版本的大语言模型,包括Meta的Llama、中国的DeepSeek和法国的Mistral,并计划推出更多模型。该公司CEOEnriqueLizasoOlmos表示:"我们专注于压缩最常用的开源大语言模型,这些都是企业已在使用的模型。企业客户中大多数都在使用Llama系列模型。"目前,该工具已在AWSAI市场上线。
公司已获得包括HPE在内的大企业客户认可,后者正使用该技术将AI本地化部署到个人电脑。这轮融资相比2024年3月的2500万美元A轮融资显著增长,反映了市场对AI模型压缩技术的强烈需求。
投资建议
继续看好海外算力链。甲骨文(Oracle)周三盘后公布财报显示,该公司第四财季业绩超预期,虽然云基建略微逊于预期,但管理层预计2026财年云基础设施营收预计将增长超过70%,同时资本支出继上年猛增三倍后,新财年将继续增至250亿美元。首席执行官SafraCatz表示,预计总云收入的增长将在2026财年从2025财年的24%加速至40%以上,云基础设施增长将从50%跃升至70%以上,且预计FY26的RPO将增长超过100%,意味着未来合同订单储备将大幅激增。
中长期,建议关注临床AI产品成功落地验证的嘉和美康(688246.SH)、以AI为核心的龙头厂商科大讯飞(002230.SZ)、芯片技术有望创新突破的寒武纪(688256.SH)、高速通信连接器业务或显著受益于GB200放量的鼎通科技(688668.SH)、已与Rokid等多家知名AI眼镜厂商建立紧密合作的亿道信息(001314.SZ)、加快扩张算力业务的精密零部件龙头迈信林(688685.SH)、持续加码高速铜缆的泓淋电力(301439.SZ)、新能源业务高增并供货科尔摩根等全球电机巨头的唯科科技(301196.SZ)等。
来源:智通财经APP