摘要:与以往单一依赖云端大模型的方式不同,大小模型协同智能计算强调云-边-端一体化融合。大模型凭借深度理解与跨模态推理能力,在复杂任务中表现突出;小模型则以轻量、高效、低延迟为优势,能够在本地快速响应并满足定制化需求。这种协同模式不仅有助于缓解高延迟响应和高算力消耗
与以往单一依赖云端大模型的方式不同,大小模型协同智能计算强调云-边-端一体化融合。大模型凭借深度理解与跨模态推理能力,在复杂任务中表现突出;小模型则以轻量、高效、低延迟为优势,能够在本地快速响应并满足定制化需求。这种协同模式不仅有助于缓解高延迟响应和高算力消耗问题,还能在隐私保护与合规治理中发挥独特作用。
为了推动“大小模型协同智能计算”的研究,本论坛汇聚行业精英与学术权威,深入探讨以下核心议题:
(1)异构计算与自主可控架构:针对大模型依赖高性能计算生态与自主可控难题,探索面向边缘与云端的大小模型融合架构,提升资源利用率与自主安全能力。
(2)跨媒体智能的大小模型协同:面向多模态大模型的幻觉、多任务效率与专用能力不足问题,构建大小模型互补的跨媒体智能体系,实现高效、可靠的跨模态推理与生成。
(3)端侧推理优化与智能体构建:突破终端设备算力与能耗瓶颈,发展面向低延迟、高隐私需求的端侧推理优化方法及大语言模型驱动的终端智能体技术。
(4)移动端轻量化与端云协同计算:结合移动终端的计算与存储能力提升,发展轻量化智能推理、分布式联合学习及端云协同支撑系统,实现广域高效智能计算。
(5)类脑低功耗通用智能架构:借鉴大脑信息处理机制,探索树突脉冲神经网络等新型架构,构建可替代现有Transformer的低功耗、可扩展类脑通用大模型体系。
论坛安排
论坛名称:
大小模型协同智能计算
论坛主席
王田
CCF杰出会员,北京师范大学长聘教授
博士生导师,国家级青年拔尖人才,教育部“大数据云边智能协同”工程研究中心主任,科技部重点研发计划首席科学家,广东普通高校创新团队带头人。香港城市大学博士,连续5年入选全球前2%顶尖科学家终身榜单,入选ScholarGPS前0.05%顶尖科学家。从事物联网、边缘智能领域的研究工作,在CCF A类以及Transactions系列期刊上发表论文100余篇。论文被引17000多次,H指数76,ESI高被引论文10篇(含3篇ESI热点论文),授权发明专利30项(转化2项),主持科技部国家重点研发计划1项、国家自然科学基金5项,获广东省科技进步二等奖(排名第一)、福建省自然科学三等奖(两次,排名第一)、福建省科技进步二等奖(排名第二)、广东省计算机学会青年科技奖(年度唯二)、中国仿真学会自然科学一等奖、IEEE/ACM IWQoS 2024 Best Paper Runner-up奖、IEEE CBD 2024 Best Paper奖、IEEE MSN 2024 Best Paper奖、UbiSec 2024 Best Paper奖、BlockSys 2025 Best Paper奖。
论坛讲者
陈俊龙
华南理工大学特聘讲席教授
华南理工大学特聘讲席教授、计算机科学与工程学院院长,教育部健康智能与数字平行人工程中心主任,广东省人工智能产业协会联席会长。他是IEEE Life Fellow、AAAS/IAPR Fellow、欧洲科学院院士、俄罗斯工程院外籍院士、中国自动化学会、中国人工智能学会及香港工程师学会会士等。曾任中国自动化学会副理事长,获IEEE诺伯特·维纳奖、IEEE约瑟夫·沃尔终身成就奖、吴文俊人工智能领域杰出贡献奖等荣誉、2025福布斯中国人工智能影响力人物。
报告题目:大小模型融合创新技术与边缘智能之探讨
报告摘要:随着大模型技术的发展,国内外大量的研究机构都开始进行大模型参数量竞赛与算力竞赛,这引发了学术界对当前人工智能发展道路的批判性思考。一方面,大模型研究与应用仍高度依赖以国外为主的高性能计算生态,对于大模型技术的自主安全难以把控。另一方面,当前大部分的工业智能化场景对于大模型性能的利用与付出的计算成本不成正比,反而需要更高效、更轻量的模型,尤其是在边缘端与环境交互的部署。针对这一发展问题,本次汇报将结合当前的大模型与小模型的研究现状,分析未来人工智能的大小模型协同发展的技术探讨及其对于未来产业发展的趋势,同时也探讨边缘智能的理论基础、算法与模型。
庄越挺
浙江大学求是特聘教授
国家杰出青年基金获得者,教育部长江学者特聘教授,973项目首席科学家,中国人工智能学会、图像图形学学会会士,浙江省特级专家。现任浙江大学学术委员会副主任,中国人工智能学会副理事长,教育部人工智能协同创新中心主任,浙江省计算机学会理事长等。主要从事人工智能、大数据智能处理等领域的研究。作为第一完成人,曾获国家科技进步奖二等奖、浙江省科技进步奖一等奖等多项奖励。
报告题目:基于大小模型协同的跨媒体智能研究及进展
报告摘要:多模态预训练大模型(MLLM) 是当前实现跨媒体智能最有效的途径,在理解、推理、生成等能力上的性能表现已经达到了新的高度,甚至超过人类水平,在具身智能上具有重要的应用前景。 但MLLM并非万能,存在着幻觉多、推理效率低、成本高、专用能力缺乏等问题;另一方面,开源社区中已积累了数量众多的小模型,它们具有丰富多样、轻量高效、专用性强等优点,也被广泛地使用着。大小模型协同,便是将两者的优势互补,将大小模型紧密协作起来。本报告从大小模型协同思想的背景出发,剖析其中的科学问题,综述当前国际上的主要研究现状,重点是分享报告人及团队近期的研究进展。
刘云新
清华大学国强教授
清华大学智能产业研究院首席研究员,IEEE Fellow,国家重点研发计划项目负责人,国家高层次人才项目入选者,长期从事AIoT、移动计算、边缘计算、异构计算等研究,发表学术论文150多篇,拥有发明专利20余项,研究成果应用到微软的多项产品中。获得2023 中国自动化学会科技进步一等奖、2022 中国计算机学会科技进步一等奖、MobiSys 2021大会最佳论文奖、MobiCom 2015最佳演示奖等奖项。曾任MobiSys 2023程序委员会共同主席和MobiHoc 2021大会共同主席。
报告题目:端侧模型推理优化和终端智能体
报告摘要:端侧智能技术通过将AI模型直接部署并运行在手机、无人机、自动驾驶汽车、机器人等终端设备上,在数据安全、隐私保护、低延迟、低成本及高可靠性等方面具备显著优势。然而,由于终端设备在算力、内存容量和带宽、以及电池能量供给等方面的资源限制,端侧模型推理往往面临性能瓶颈。本报告将阐述端侧智能领域的技术挑战,重点介绍端侧模型推理优化技术,并探讨大语言模型驱动的终端智能体研究。
吴帆
上海交通大学特聘教授
现为上海交通大学计算机学院特聘教授、常务副院长,国家自然科学基金杰出青年科学基金获得者。在移动端智能计算、大小模型协同、无线网络等领域发表学术论文300余篇。先后担任IEEE Transactions on Mobile Computing等5个国际学术期刊编委。曾获教育部自然科学奖一等奖2项、上海市科技进步奖一等奖,以及7次国际学术会议论文奖。作为项目负责人承担科技创新2030“新一代人工智能”重大项目、国家自然科学基金重点项目等。
报告题目:移动端轻量化智能计算
报告摘要:随着手机、可穿戴设备、机器人、无人车、无人机等移动终端设备在计算、存储等方面能力的大幅提升,在移动端设备上进行智能化的数据处理(例如特征计算、模型推断和训练)成为新趋势。本报告将会追寻端智能技术的发展脉络,分享我们团队在端侧智能推理、大规模联合学习以及端云协同分布式智能支撑系统等方面的研究进展。
李国齐
中国科学院自动化所研究员
脑认知与类脑智能全国重点实验室副主任,通用类脑智能大模型北京市重点实验室主任,国家杰出青年基金获得者;在Nature、Nature子刊、Science 子刊等期刊和AI顶会上发表论文 200余篇,论文被引用1.7万余次;主持国家自然科学基金重点项目、联合重点项目、科技部重点研发项目等30余项;曾获得中国自动化学会自然科学一等奖,ECCV最佳论文奖提名,中国算力大会最佳论文奖等。
报告题目:类脑通用智能大模型
报告摘要:当前大模型主要基于Transformer架构,在Scaling law驱动下越来越大,然而Transformer具有二次方计算复杂度,Scaling law驱动难以为继;我们需要思考如何找到一条可持续推动当前AI系统到下一个阶段的通用人工智能道路。本报告借鉴大脑信息处理机制,聚焦树突脉冲神经网络,结合报告人的科研进展,阐述构建新一代通用类脑智能大模型基础架构的主要科学问题,探索一条基于新架构构建低功耗人工智能的新路径。
王田
报告题目:大小模型协同在智能作业批改中的应用
报告摘要:智能作业批改通过自动化技术大幅提高了批改效率,减少了教师的工作负担,同时能够提供即时反馈,帮助学生及时了解自己的学习情况并进行改进。本报告介绍大小模型协同技术的应用,有效提升了批改效率与准确性。大模型凭借强大的语言理解与生成能力,负责解析题目要求、理解学生答案的语义,并生成初步评分与反馈建议。小模型则专注于特定题型或知识点的精细判断,从而实现高效、精准的局部判断。通过大小模型协同,系统兼顾计算效率与批改质量,为教育智能化提供有力支持。
CNCC2025将于10月22-25日在哈尔滨举办。专题论坛将在往年多样化主题的基础上,首次通过“基础-前沿-未来”的一体化设计,满足不同背景参会者的需求,构建从知识获取到创新激发的完整路径,打造系统化、进阶式的参会体验。重点设置9大主题板块,每个主题板块的专题论坛由三大核心模块组成:面向前沿领域的体系性Tutorial、聚焦前沿突破的专题论坛以及探讨未来发展路径的思辨论坛。
来源:CCFvoice