mamba

KAIST团队:如何让AI模型更高效?

想象一下,如果你的手机能够在处理复杂任务时既快速又节能,那该多好?韩国科学技术院(KAIST)的研究团队刚刚在2025年3月的《机器学习研究汇刊》上发表了一项令人兴奋的研究成果,他们开发出了一种让人工智能模型变得更高效的全新方法。这项研究的第一作者是宋佑民(W

模型 mamba token kaist kaist团队 2025-06-11 17:28  7

Mamba 架构实现推理性能超 Gemma3-27B!推理模型开始迈入「无注意力」时代

推理大模型中的注意力机制可以去掉吗?这是当下最具挑战性的开放问题之一。过去半年,伴随长思维链的爆火,模型在复杂推理任务中普遍需要生成成千上万的 tokens 才能产出高质量解答。然而,这也与 Transformer 架构天然矛盾:随着生成长度的增长,Atten

推理 架构 推理模型 mamba mamba架构 2025-06-07 12:58  4