摘要:8月27-28日我们组织了2025年秋季策略会,在AI论坛《Token加速的AI时代》上,嘉宾分享了Agent在投研场景下的应用案例,包含业绩点评撰写、公司研究和调研大纲生成,强调Agent相对Chatbot在能力层面的优势。我们看到不同应用场景下Token调
8月27-28日我们组织了2025年秋季策略会,在AI论坛《Token加速的AI时代》上,嘉宾分享了Agent在投研场景下的应用案例,包含业绩点评撰写、公司研究和调研大纲生成,强调Agent相对Chatbot在能力层面的优势。我们看到不同应用场景下Token调用的加速,认为算力需求有望加速增长。
核心亮点:
1、全球AI算力需求呈现上升趋势。通过云厂商数据可以跟踪AI算力趋势:Token量体现当前AI算力需求,资本开支情况体现未来AI算力预期。从Token来看,Google的Token数从25年5月到7月实现翻倍,达到每月960万亿,25年6月底国内日均Token量较24年初增长300多倍达到30万亿,反映了当前全球算力需求的持续增长。25Q2海外云厂商资本开支均呈现高速增长趋势,资本开支指引乐观,未来算力需求有望持续增长。
2、Agent加速落地带来算力需求增长。我们看到AI Agent在不同应用场景的落地探索,我们认为与Chatbot相比,Agent在执行任务时会进行任务的分解与编码,将带来交互次数、任务复杂度、使用频率的提升,整体Token消耗或提升十倍以上。以嘉宾分享的投研场景为例,在业绩点评撰写环节投研Agent需要获取数据、提取并计算数据、阅读并学习框架,最后生成点评,相较普通对话形式更加复杂。从应用效果来看,多Agent和多工具调用能有效提升模型效果,我们认为Agent分解任务并使用工具是AI对人类解决问题过程的模仿,带来的额外算力需求是提升AI能力的必要消耗,未来有望看到算力需求的持续提升。
3、推理范式变化打开算力需求的广阔空间。随着推理范式变化,Agent加速落地,我们认为未来算力需求中存在两个倍数关系,共同决定了算力需求的广阔空间:1)推理和Token调用量之间不是线性关系,这是因为多Agent协作和多工具调用会带来Token消耗量加速增长;2)算力需求与Token的增长之间不是线性关系,这是因为随着推理过程更加复杂,同样算力条件下计算时间也将增长,实时性和交互性带来对计算速度的要求。我们认为,随着Agent的不断渗透,Token调用量将增长十倍以上,而对应的算力需求将增长百倍以上,我们长期看好算力需求的持续快速增长。
风险提示:宏观经济波动;技术落地不及预期;本研报中涉及到未上市公司和未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。
全球AI算力需求呈现上升趋势
我们观察到,全球AI算力需求仍然保持上升趋势。通过Token消耗量和大厂资本开支数据可以跟踪 AI算力趋势:Token量体现当前AI算力需求,资本开支情况是对未来AI算力预判。我们认为,推理范式的变化正在推动AI算力需求持续增长。
当前AI算力需求:持续增长
Token持续增长,推理需求正在加速。Google 在25Q2业绩会表示月处理Token数相较于25年5月I/O大会公布的480万亿翻了一倍,达到每月960万亿。我们认为Google的Token消耗主要来自搜索相关的AI功能AI Overview和AI Mode以及Gemini模型,预计随着AI Mode渗透率的增长以及Agent功能的深入,Google Token消耗会在未来继续加速。根据中国国家数据局,截至25年6月底,中国日均Token消耗量突破30万亿,相较24年初的日均1千亿增长300多倍。Token量的增长反映了国内外推理需求的加速。
未来AI算力需求:有望高速增长
海外大型云厂商资本开支均呈现高速增长趋势。25Q2海外大厂资本开支合计950亿美元,同比+66%,环比+24%。Microsoft/Google/Meta/Amazon 的资本开支分别达到242/224/170/314亿美元,均呈现高速增长趋势,同比+27%/+70%/+100%/+92%,环比+13%/+30%/+24%/+29%。三大资本开支需求——训练、云、应用进入高速增长周期,资本开支投入有望持续扩大。
资本开支指引乐观,未来算力需求有望持续增长。海外大厂均给出乐观的资本开支指引,25/26年资本开支预计将继续增长,从投入方向来看,资本开支主要投入算力芯片和数据中心建设,主要满足AI工作需求。大厂算力建设投入体现对未来算力需求的乐观判断,算力需求有望持续增长。
推理范式变化是算力需求增长的重要动力
我们观察到,AI应用厂商正在不同场景探索Agent的落地,从而实现AI产品从Chatbot到Agent的升级。Agent带来任务分解与工具调用,有望带来Token调用量十倍以上的提升,从而带动算力需求加速增长。
Agent加速落地带来算力需求增长
Agent需求的快速增长或将带来Token十倍以上的提升。据Artificial Analysis统计,在Scaling Law初期,模型的发展方向是更大参数,能够带来约5倍的算力提升。随着模型进入后训练和推理时代,模型输出的Token数将有约10倍的提升。而Agent时代,每个Agent在处理单任务时所需的请求数(request)有约20倍的提升,且Agent基本都是由推理模型驱动的,因此整体Token增长十倍以上。
大量的工具调用与信息交互带来Token消耗量数量级的提升。Agent在执行任务时会进行任务分解与编码,复杂任务常常涉及几十个不同的任务,这些与Chatbot阶段不同的任务流程将大大提升Token的消耗。同时,未来多Agent互联的场景下,不同Agent间的通讯合作将再度加大算力的需求。我们认为,Agent的落地带来交互次数、任务复杂度、使用频率的提升,同时多模态的场景进一步加大Token的消耗。以嘉宾分享的投研场景为例,对于让Agent完成业绩点评的任务,Agent需要模仿人类研究员的行为,先后获取数据、提取并计算数据、阅读并学习框架,最后生成点评。根据讯兔科技披露,从25年1月到8月,公司产品中Agent渗透率持续提升,带动公司产品单月Token消耗量翻了5.5倍。
多Agent和多工具调用能有效提升模型应用效果,是提升AI能力推动应用的必要过程。根据xAI官网,Grok 4在HLE测试中,Grok 4本身的得分为25.4%,但如果使用工具(例如代码执行或如Web搜索的外部辅助)得分会达到38.6%。使用工具并通过多个AI Agent分解任务的Grok 4 Heavy得分进一步跃升至 44.4%。我们认为Agent分解任务并使用工具是AI对人类解决问题过程的模仿,带来的额外算力需求是提升AI能力的必要消耗。
推理范式变化打开算力需求的广阔空间
随着推理范式变化,Agent加速落地,我们认为未来算力需求中存在两个倍数关系,共同决定了算力需求的广阔空间:
1) 推理和Token调用量之间不是线性关系:以Deep Research为例,相对于单次问答,其推理Token量与Agent数量和迭代搜索次数的乘积相关。多Agent的协作和多工具调用会带来Token消耗量加速增长。
2) 算力需求与Token的增长之间不是线性关系:Token量增长十倍,所需的算力量可能增长百倍。这是因为推理过程变得更加复杂,计算Token数量增长十倍,在同样的算力条件下,计算的时间也将增长。用户太久的等待将失去耐心,如果要求模型具备交互性与实时性,则需要将算力提升百倍。
上述两个倍数关系决定了未来随复杂任务推理的拓展,Token调用量将增长十倍以上,而对应的算力需求将增长百倍以上,我们长期看好算力需求的持续快速增长。
研报:《2025年秋季策略会速递—AI推理范式变化带来算力需求增长》2025年9月1日
来源:新浪财经