摘要:据telesputnik网4月11日报道,俄罗斯Yandex科学家开发出新方法HIGGS,能在不损失质量的情况下压缩大型语言模型(LLM)。
据telesputnik网4月11日报道,俄罗斯Yandex科学家开发出新方法HIGGS,能在不损失质量的情况下压缩大型语言模型(LLM)。
HIGGS方法让强大神经网络可在普通智能手机和笔记本电脑上运行,使小公司和独立开发者等广大用户能使用先进技术。
现DeepSeek-R1和Llama 4 Maverick等开源模型的压缩版本已可在移动设备上测试和部署。HIGGS方法无需额外数据和复杂参数优化,即能改善质量、大小和计算要求之间的平衡。
实验表明,HIGGS在与Llama 3和Qwen2.5模型配合使用时,表现明显优于其他量化方法。开发人员已在Hugging Face和GitHub上发布HIGGS。
此前,Yandex已将新一代语言模型YandexGPT 5 Pro应用于Alice聊天中,其响应水平与全球同类模型相当,并在某些任务中超越它们。YandexGPT 5 Pro现可供Yandex Cloud平台上的用户使用。
(编译:胡伟)
来源:邮电设计技术