kv

中国算力市场,不能只讲“堆卡”的故事

当以“降本”闻名的马斯克对外公布由 10 万个液冷 H100 GPU 组成的超大集群,并宣布未来几个月内还要再增加 10 万颗 GPU 时,业界对 AI 基础设施的衡量标准,一时间变得有些单一——大家更倾向于对比卡的数量,而对集群性能,尤其是特定业务场景下的性

阿里云 pai oss cache kv 2025-04-09 18:35  4

如何选择适合您的X射线无损检测设备

在工业检测领域,X射线无损检测(RT,Radiographic Testing)设备以其对内部缺陷“看得见”的优势,被广泛应用于焊缝检测、铸件质量控制、电子元件封装检查等领域。但面对种类繁多、参数复杂的X射线检测设备,许多采购人员和技术工程师常常感到无从下手。

工件 成像 x射线 kv 屏蔽室 2025-04-08 15:21  4

阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%

随着当前大语言模型的广泛应用和推理时扩展的新范式的崛起,如何实现高效的大规模推理成为了一个巨大挑战。特别是在语言模型的推理阶段,传统注意力机制中的键值缓存(KV Cache)会随着批处理大小和序列长度线性增长,俨然成为制约大语言模型规模化应用和推理时扩展的「内

mla kv kv缓存 2025-01-18 03:52  10

阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增

随着当前大语言模型的广泛应用和推理时扩展的新范式的崛起,如何实现高效的大规模推理成为了一个巨大挑战。特别是在语言模型的推理阶段,传统注意力机制中的键值缓存(KV Cache)会随着批处理大小和序列长度线性增长,俨然成为制约大语言模型规模化应用和推理时扩展的「内

kv kv缓存 factorization 2025-01-17 16:45  6