DeepSeek 团队神操作:用“汇编”取代CUDA 让性能狂飙
在人工智能领域,DeepSeek 引发了巨大轰动。它借助由 2048 块英伟达 H800 GPU 组成的集群,仅用约两个月时间就完成了拥有 6710 亿参数的混合专家(MoE)语言模型训练,效率比 Meta 等人工智能行业领军企业高出 10 倍。据 @Juka
deepseek cuda deepseek团队 2025-01-29 10:03 7
在人工智能领域,DeepSeek 引发了巨大轰动。它借助由 2048 块英伟达 H800 GPU 组成的集群,仅用约两个月时间就完成了拥有 6710 亿参数的混合专家(MoE)语言模型训练,效率比 Meta 等人工智能行业领军企业高出 10 倍。据 @Juka
deepseek cuda deepseek团队 2025-01-29 10:03 7
近期,DeepSeek团队在AI圈乃至全网引发了巨大关注。他们以1/11算力训练出超过Llama3的开源模型DeepSeek-v3,这一成就震撼了整个AI领域。紧接着,关于“雷军开千万年薪挖DeepSeek研究员罗福莉”的传闻,更是让人们的目光聚焦到了Deep
应届生 deepseek deepseek团队 2025-01-11 13:19 10
DeepSeek-v3大模型横空出世,以1/11算力训练出超过Llama 3 405B的开源模型,震撼了整个AI圈。
应届生 deepseek deepseek团队 2025-01-04 13:13 9