摘要:IBM近日宣布研发出一项创新光学技术,该技术能够显著加快AI模型的训练速度,并大幅降低能源消耗。IBM指出,数据中心内部虽然使用光纤电缆与外界连接,但GPU加速器之间仍依赖铜线,导致GPU在等待数据时大量时间闲置,消耗能源。IBM的共封装光学技术(CPO)有望
❶IBM推出新型光学技术,大幅提升AI模型训练速度并降低能耗
IBM近日宣布研发出一项创新光学技术,该技术能够显著加快AI模型的训练速度,并大幅降低能源消耗。IBM指出,数据中心内部虽然使用光纤电缆与外界连接,但GPU加速器之间仍依赖铜线,导致GPU在等待数据时大量时间闲置,消耗能源。IBM的共封装光学技术(CPO)有望改变这一现状,通过提高数据中心带宽,减少GPU闲置时间,加速AI处理。据称,这项技术可以将大型语言模型的训练时间从三个月缩短至三周,同时提高能源效率,降低成本。(IT之家)
❷海格通信中标中国移动研发北斗通导融合终端芯片项目
12月10日,海格通信公告称,近日收到中国移动通信集团终端有限公司“2024年至2025年通导融合终端芯片研发服务采购项目”的中选通知书,公司为该项目中选单位之一,预计中选合同金额为3,106万元。据介绍,此次中标项目是研制北斗通导融合终端芯片,产品未来可广泛应用于大众消费、物联网和行业应用。此次中标志性意义较强,这意味着海格通信在北斗领域及芯片研发能力受到了业界更广泛的认可。利于推进海格通信在北斗大众消费和物联网应用领域的规模化推广,进一步扩大北斗规模化应用场景和市场份额。(每经网)
❸美光科技获美国商务部61亿美元资金支持,加速国内芯片生产
美国商务部宣布,根据2022年的《芯片和科学法案》,美光科技已获得61.65亿美元的资金,用于在美国本土制造半导体。这笔资金将助力美光实现其“二十年愿景”,包括在纽约投资约1000亿美元、在爱达荷州投资250亿美元建设新工厂,预计将创造约20,000个新工作岗位。此外,美国商务部还与美光科技达成初步协议,将额外提供2.75亿美元资金,用于扩建和现代化改造位于弗吉尼亚州的DRAM内存芯片工厂。美光首席执行官Sanjay Mehrotra表示,作为唯一一家总部位于美国的存储芯片制造商,美光将推动美国内存制造的领先地位,加强技术领先并促进创新。(IT之家)
❹华邦电子推出全新车规级W77T安全闪存
华邦电子(全球半导体存储解决方案厂商)正式发布TrustME® W77T安全闪存产品系列。该产品系列专为汽车行业设计,符合ISO26262 ASIL-D、ISO21434、UNECE WP.29以及TISAX在内的多项行业认证和规范,旨在满足不断增长的汽车应用需求(如软件定义车辆和电气电子系统),为网联和自动驾驶汽车提供高级别安全保护。(36氪)
海外要闻
❶谷歌推出最新AI模型Gemini 2.0
12月11日,谷歌宣布推出Gemini 2.0,称这是其迄今为止最强大的模型。即日起,谷歌将2.0开放给开发者以及受信任的测试人员,并正在积极推进将其整合到公司的产品中,率先从Gemini和Search开始。即日起,Gemini 2.0 Flash体验版模型将对所有Gemini用户开放。同时,谷歌还推出了Deep Research的新功能,它运用高级推理和长上下文处理能力,承担研究助手的角色,帮助用户探索复杂的主题并撰写报告。该功能自今日起对Gemini Advanced用户开放。(36氪)
❷苹果正与博通合作开发人工智能芯片
苹果正在研发专门为人工智能设计的服务器芯片,并正与博通合作开发该芯片的网络技术。新芯片的内部代号为Baltra,预计到2026年可量产。此举凸显了苹果长期避免从主导人工智能处理器市场的英伟达购买芯片的立场。报告指出,这也标志着苹果芯片团队的一个里程碑,该团队最初为iPhone设计芯片,然后转向为性能和能效设定新标准的Mac处理器。(36氪)
❸LG推出EXAONE 3.5开源AI模型,强化长文本处理能力并降低“幻觉”现象
12月9日,LG人工智能研究院于发布了EXAONE 3.5开源AI模型,并推出了面向LG员工的企业级AI智能体服务ChatEXAONE。该模型在处理100页文本的20项基准测试中表现出色,尤其在长文本处理、编码和数学方面领先其他开源AI模型。EXAONE 3.5通过独特的检索增强生成技术和多步推理能力,有效降低了“幻觉”现象,提高了答案的准确性。同时,ChatEXAONE作为企业级工具,具备强大的查询分析和用户自定义搜索功能,并配备了加密和隐私保护技术,确保公司内部的安全使用。(IT之家)
来源:AI芯天下