03摘要:6G以构建内生智能网络为核心目标,其物理层的设计面临着高频信道建模、超大规模天线阵列优化和动态任务适配等多方面挑战。传统方法主要依赖数学模型和专用的模型,难以适应当前复杂场景需求。以大语言模型(LLM)为核心的基础模型,凭借其强大的泛化能力和多模态融合特性,为
【语义通信与语义信息论
基础理论与关键技术】专题
王文1,2,孙亚萍1,4,许晓东3,121,马楠3,1,崔曙光4(1.鹏城实验室,广东 深圳 518000;
2.深圳大学,广东 深圳 518060;
3.北京邮电大学,北京 100876;
4.香港中文大学(深圳),广东 深圳 518172)
【摘 要】6G以构建内生智能网络为核心目标,其物理层的设计面临着高频信道建模、超大规模天线阵列优化和动态任务适配等多方面挑战。传统方法主要依赖数学模型和专用的模型,难以适应当前复杂场景需求。以大语言模型(LLM)为核心的基础模型,凭借其强大的泛化能力和多模态融合特性,为物理层智能化开辟了新方向。系统综述大语言模型在信道预测、波束管理、资源分配等物理层任务中的应用进展,梳理其关键技术和方法的应用,包括模型架构创新、参数高效微调及多模态信息处理策略。通过深入分析当前模型性能优势与局限性,提出构建基于LLM的动态化信道知识库与强化信道知识库对语义通信的赋能能力等未来研究方向。结合可信赖性增强、机理-数据融合及边缘智能落地等技术的协同突破,为6G物理层任务智能化的演进提供理论支撑。
【关键词】大语言模型;物理层智能化;6G通信;信道建模;多模态学习;参数高效微调;基于LLM的信道知识库
doi:10.3969/j.issn.1006-1010.20250520-0002
中图分类号:TN929.5 文献标志码:A
文章编号:1006-1010(2025)07-0021-10
引用格式:王文,孙亚萍,许晓东,等. 大语言模型驱动的无线通信物理层任务智能处理技术综述[J]. 移动通信, 2025,49(7): 21-30.
WANG Wen, SUN Yaping, XU Xiaodong, et al. A Survey of LLM-Driven Intelligent Processing for Physical-Layer Tasks in Wireless Communication[J]. Mobile Communications, 2025,49(7): 21-30.
0 引言
信息通信技术的飞速发展正推动人类社会向万物智联时代迈进,如图1所示。作为未来数字社会的核心基础设施,第六代移动通信系统(6G)被赋予构建内生智能网络的使命,其目标不仅要实现通信速率、时延、连接密度等传统指标的量级突破,更需要支持全息通信、工业4.0、元宇宙等新型应用场景的智能交互需求。物理层作为无线信息传输的基础,其智能化的水平将直接影响6G网络能否突破性能极限,实现从“连接泛在”到“认知泛在”的范式跃迁。
然而,大语言模型在无线物理层的运用仍面临严峻挑战:信息模态鸿沟导致信号-语义对齐困难,物理一致性约束影响模型输出的可靠性,计算复杂度制约实时性部署。本文系统综述该领域最新研究进展,梳理关键技术体系与应用方法,整体框架结构如图2所示,致力于为构建AI Native物理层提供理论框架与方法论指引,推动6G网络从“连接智能”向“环境智能”跨越。
1 通信大语言模型关键技术体系
将大语言模型应用于无线通信物理层需要多层次的关键技术来克服应用中的挑战,其主要关键技术涵盖模型架构设计、跨模态表征对齐、参数高效适配及可信赖推理机制。在模型架构层面,基于Transformer的自注意力机制[14]为处理序列的长距离依赖提供了基础能力,但其计算复杂度也成为关键瓶颈。针对物理层数据的序列特性,Decoder-only架构(如GPT、LLaMA)因生成能力强成为当前架构主流选择,而掩码自编码器[15](MAE, Masked Auto Encoder)因其非对称结构在自监督学习和表示中表现突出,被WiFo[16]等无线基础模型采用。专家混合(MoE, Mixture of Experts)架构[17-18]通过动态激活稀疏专家网络,结合参数高效微调技术(如MoE-LoRA),为多任务的处理和模型扩展性提供了新的方向。跨模态表征对齐的核心是为了弥补物理层数据与文本序列之间的鸿沟。文献[16]、[19]提出了分块嵌入(Patching)技术,将高维CSI张量切割为时空频局部块并映射为Token序列,有效处理了高维输入数据并保留了信道结构特性。数值编码策略需平衡精度与效率,文献[20]-[21]采用归一化-离散化方法处理连续参数(如功率、角度),通过嵌入层将输入数据转换为稠密向量。多模态数据融合依赖跨域对齐技术,文献[5]、[12]利用对比学习将视觉、定位等信息映射到统一的语义空间,例如通过Vision Transformer提取环境语义特征,球面坐标编码处理几何信息,两者结合构建几何感知嵌入,增强模型对环境的理解能力。
模型的学习与适配机制是使大语言模型具备无线领域能力的关键,需应对标注数据稀缺与动态环境等巨大挑战。自监督预训练成为构建无线基础模型的主流范式,文献[16]、[19]提出掩码信道建模(MCM, Masked Channel Modeling)任务,通过重建被遮蔽的信道块来学习信道信息的内在物理规律。参数高效微调(PEFT, Parameter-Efficient Fine-Tuning)技术则用于微调模型,进行任务适配,LoRA[22]通过低秩矩阵分解实现权重增量更新,文献[11]、[23]进一步结合MoE架构动态分配微调参数;Adapter Tuning与LN Tuning[24]技术也为轻量化适配提供了替代方案。在线学习方面,文献[25]提出强化学习与联邦学习相结合,使模型具备持续演进机制,来应对无线环境动态变化的需求。知识的应用与生成是大语言模型能够处理物理层任务的核心环节,主要解决语义指令到物理量输出的精确转换,运用到的相关技术如图3所示。提示工程通过结构化模板[20,26]与上下文学习][20](ICL, In-Context Learning)来激活预训练模型能力,例如文献[27]引入思维链(CoT, Chain-of-Thought)促进复杂推理。检索增强生成[12, 25](RAG, Retrieval-Augmented Generation)通过引入外部知识库(如信道冲激响应数据库)来约束输出分布,提升模型领域任务的准确性。输出端适配器[11, 23]则将LLM的隐层表示映射为具体物理量(如预编码矩阵),例如文献[25]支持调用凸优化求解器等外部工具来增强模型数值计算精度。2 大语言模型驱动的物理层任务处理
如图4所示,基于LLM的物理层通信架构,通过波速管理、CSI反馈、资源分配以及多模态感知等功能的运用,致力于实现优越的频谱效率、能源效率和链路可靠性,为下一代无线网络的发展提供基础。
2.1 信道预测与建模
高频信道的时空频耦合特性导致建立准确的模型变得非常困难,LLM为此提供了新的思路,如表1所示。早期研究聚焦将信道作为通用的时间序列来建模,探索大语言模型的少样本、零样本泛化能力。文献[21]提出LLMTime框架,利用数值字符串编码将时间序列映射为字符串文本输入LLM,利用预训练LLM的自注意力机制捕捉序列的长距离依赖关系来预测下一个次元,在零样本条件下展现出与专用的时间序列模型相当的预测能力。然而,这种方法对信道物理特性的适配不足,难以捕捉信道时空频联合特征,促使后续研究专注信道领域适应性的改进。文献[28]随后提出LLM4TS框架,引入多尺度时间嵌入与序列对齐预微调策略,实现了时序数据特性与预训练语义表征空间的跨模态对齐,显著地提升小样本场景下的预测精度。在此基础上,文献[29]进一步提出TIME-LLM模型框架,如图5所示,采用模型重编程技术将时间序列Patch动态映射至文本语义空间,并通过结合Prompt-as-Prefix (PaP)提示指令,在冻结LLM主干参数的情况下,实现了少样本场景预测性能的突破性提升。与此同时,时间序列领域专用的基础模型也被探索——文献[30]构建TimeGPT-1,通过大量的不同领域的时间序列进行预训练,使模型获得零样本迁移能力,验证了专用模型的技术可行性,但直接将通用时间序列预测方法应用于无线信道建模可能会忽略信道独特的物理结构。
针对无线信道的独特物理结构,研究逐步开始向微调LLM或者构建无线专用基础模型来进行适配。文献[31]属于微调方式的代表,提出了LLM4CP模型,基于GPT-2架构设计CSI Attention模块,通过时空频分块与可学习位置编码处理3D信道数据,结合参数高效微调实现高效的TDD/FDD信道预测,在小样本与跨场景任务中展现显著优势。专用基础模型成为重要发展方向:文献[16]构建了WiFo模型,采用掩码自编码器(MAE)架构进行信道块重建预训练,利用非对称编解码结构实现了高精度零样本预测能力;文献[32]的WirelessGPT模型则进一步通过大规模信道数据进行预训练生成通用表示,支持信道估计、预测与感知等物理层多任务联合优化。生成式建模则向多模态融合的方向进行拓展,文献[24]提出ChannelGPT,通过融合射线追踪数据与NeRF(Neural Radiance Field,神经辐射场)环境重建技术构建数字孪生信道模型;文献[1]研究基于Score Function的信道分布生成框架,通过将物理层知识融入生成式模型,能够为贝叶斯推理提供可学习的先验分布,推动模型向数据驱动与物理机理相结合的方式转变。
尽管LLM在信道预测方面取得了较好的性能,但当前技术仍面临许多挑战。例如,通用模型在面对复杂遮挡场景时的多径效应建模能力仍然有限;生成式建模的物理一致性保障机制尚未完善,模型输出结果容易偏离物理规律;专用基础模型的训练数据获取成本较高且计算效率较低。
2.2 信道状态信息(CSI)处理
CSI的准确获取与高效压缩反馈是超大规模MIMO系统的核心挑战,基于LLM的相关研究如表2所示。传统迭代算法在面对高维、低信噪比的场景下性能下降,基础模型提供的先验知识为算法改进提供了新路径。文献[1]创新性地提出基于Score Function学习的物理驱动优化框架,将学习到的信道分布先验先验知识嵌入OAMP(Orthogonal Approximate Message Passing Algorithm,正交近似消息传递算法)、EP(Expectation Propagation Algorithm,期望传播算法)等迭代算法中的去噪环节,有效提升低信噪比场景下的估计精度。文献[19]则采用自监督学习方法,提出的LWM模型通过掩码信道重建任务来提取通用信道特征,模型生成的CLS向量(Classification Vector,分类向量)可替代传统设计特征作为估计器输入,在降低导频开销的同时还能保留信道空间结构信息。文献[32]进一步扩展表征学习边界,WirelessGPT通过大规模无标注数据进行预训练生成信道通用表示,其下游采用简单分类器即超越传统数据驱动方法,验证了基础模型在跨任务、跨场景中的表征强泛化性。
CSI压缩反馈方面呈现从传统量化编码向语义压缩编码的范式转变。文献[19]的LWM模型开创分层压缩框架:低维CLS嵌入反馈全局信道特性,高维Patch嵌入保留局部细节,可根据反馈带宽动态调整反馈的粒度实现高效压缩;文献[32]的WirelessGPT通过生成式表征实现端到端压缩,其隐空间表示同时支持信道重建与波束优化等多物理层任务需求。这些方法突破了传统方法中稀疏性或低秩性假设的局限,但在实际部署中仍面临挑战。
2.3 波束管理
在高频段与超大规模MIMO场景下,实现波束管理的实时性与精准性成为系统设计的核心挑战。传统波束扫描与优化方法受限于高维空间计算复杂度高的问题,而大语言模型技术的发展为动态波束控制提供了新范式,如表3所示。在波束预测方面,研究逐步从时序建模向语义表征深化:文献[33]率先探索将LLM的时序处理能力引入波束预测领域,基于GPT-2架构设计了前缀提示(Prompt-as-Prefix)适配机制,将历史波束索引编码为语义向量输入模型,验证了LLM在复杂无线场景中处理波束序列的可行性且具备跨场景泛化优势;文献[19]进一步提出基于特征提取的方法,利用LWM模型提取信道空间嵌入特征,通过轻量化下游模型实现小样本条件下的高效波束预测,证明了基础模型学习到的通用表征具有良好的数据效率。文献[34]提出BeamLLM框架,突破传统波束预测对历史索引与到达角信息的依赖,首次实现了纯视觉驱动的波束优化路径。该框架通过特征重编程技术将RGB视觉特征(如物体边界框序列)跨模态映射到冻结LLM(GPT-2)的语义空间,形成融合“视觉-波束”联合表征体系,为复杂动态无线环境中的波束管理提供了新范式。
多模态感知为实现智能化波束管理提供了新动能。文献[5]、[12]利用视觉与LiDAR(Light Detection and Ranging,光探测与测距数据)数据构建环境语义地图,通过多模态语义对齐(如信道空间信息与物体位置关联)优化波束空间特征提取,提升高遮挡场景下的波束对准效率。尽管技术前景广阔,但当前研究仍面临核心瓶颈:LLM的推理时延难以满足亚毫秒级实时相应的要求;多模态数据的时间同步误差会引入偏差;复杂约束下的数学推理准确率亟待提升。
2.4 信号处理
信号检测、调制识别等底层信号处理任务是物理层的基础,对实时性与计算效率要求极高,大语言模型的应用需在算法增强与轻量化部署之间寻找到平衡点。在模型因信号处理的实时性要求和处理复数IQ信号的模态鸿沟受限;文献[1]提出了一种迭代算法的增强方法,将物理层基础模型学习获得的Score Function先验嵌入AMP框架,通过优化去噪模块提升低信噪比检测性能,这种方法既保留传统算法的理论保障,又融入数据驱动优势。信号分类任务则展现了LLM表征学习的潜力——文献[19]利用LWM模型提取的CLS嵌入实现LoS(Line of Sight,视距)/NLoS(Non - Line of Sight,非视距)分类,只需少量样本训练轻量化分类器就显著超越基准模型,表明了预训练学习到的通用信道表征的判别性特征捕捉能力;文献[32]进一步扩展应用场景,其WirelessGPT生成的通用表征支持跨模态感知任务(如人类活动识别),为设备指纹识别等衍生应用提供技术启示,如图6所示:
2.5 资源分配
资源分配的动态性与复杂性推动大语言模型技术向多层次优化范式演进。早期研究聚焦LLM的直接决策能力,文献[20]通过少样本提示实现双用户功率控制,验证了LLM处理低维、约束简单优化任务的可行性。然而,此方法在高维、复杂约束场景中的精度与稳定性尚显不足。为此,研究向交互式优化进行探索:例如文献[37]提出迭代提示(Iterative Prompting)与自修正提示机制(Self-refined Prompting),利用历史交互数据动态调整决策策略,无需更新模型参数即可适应网络状态变化,展现了LLM在动态资源管理中的独特优势。
强化学习(RL, Reinforcement Learning)与大语言模型融合路径同步发展,文献[38]将LLM作为RL智能体核心,通过语义指令解析与空间特征提取协同优化基站部署,突破了传统算法对精确数学建模的依赖。与此同时,LLM强大的知识理解和代码生成能力为传统优化问题提供了新的思路,文献[39]提出LLM-OptiRA框架,该框架能够自动识别非凸问题结构并生成凸化求解代码,结合可行性验证闭环降低领域知识门槛。此外,为了支撑更精细化的网络分析与资源管理决策,文献[40]提出了Mobile-LLaMA模型,通过指令微调开源LLM使其专门用于5G网络的深度分析任务;该模型利用自指令(Self-instruct)学习赋能开源LLM,使其生成网络分析脚本并集成专业工具库,为数据驱动的资源优化方向提供了支持。
针对大语言模型在网络资源分配任务中面临的多模态数据处理和低效答案生成等挑战,文献[41]提出的NetLLM框架实现了多模态资源分配的系统性突破。该框架通过异构多模态编码器统一处理时序数据、拓扑结构与视觉信息,构建跨域联合表征;创新结构化输出头直接生成资源决策矩阵,规避传统逐词生成的效率与可靠性瓶颈。其核心贡献在于数据驱动的低秩适配(DD-LRNA, Data-Driven Low-Rank Networking Adaptation)机制:监督学习场景下直接微调领域数据,强化学习场景则通过离线经验池注入知识,仅调整少量低秩参数即可实现领域适配,在保留预训练模型泛化能力的同时,显著降低计算开销。NetLLM验证了“单一模型赋能多任务”的可行性,并在资源分配等决策任务上展现出优越的泛化能力和效率优势。当前技术瓶颈主要在于高维非凸问题的求解精度与实时性之间矛盾,以及符号推理与数值计算的语义隔阂;表4展示了LLM在各模型中作用的对比。
2.6 多模态物理层与环境感知
多模态感知是实现环境智能通信的基础,其基于LLM的技术研究路径主要为“特征融合→语义理解→因果推理”,如表5所示。文献[42]率先提出多模态时空融合框架,通过3DCNN提取RGB图像、雷达与LiDAR的局部特征,结合Transformer实现跨模态特征交互,为毫米波波束管理提供高维联合表征;文献[12]提出RAG框架,通过融合视觉、定位与物体检测数据等多模态数据实现环境感知,利用CLIP-ViT(Contrastive Language-Image Pretraining-Vision Transformer,对比语言-图像预训练模型-视觉 Transformer)提取环境语义特征,结合Haversine距离计算构建空间拓扑表征,生成场景化决策上下文,为下游任务提供场景化知识支撑;文献[5]构建LMM统一架构,支持文本、点云与射频信号的联合编码,为跨模态推理提供技术基底。进一步,文献[43]提出MLLM赋能的集成传感与通信(ISAC, Integrated Sensing and Communication)统一框架,通过多模态编码器对齐、指令调优与生成式推理,实现通信与感知功能的深度耦合,其基于大语言模型的波束预测实验证明了跨模态因果推理的可行性。与此同时,视觉辅助通信成为重点研究方向:文献[44]、[45]提出多模态融合方法,结合视觉数据、毫米波波束序列与LiDAR深度信息,通过YOLOv3和EfficientDet实现障碍物追踪与用户定位,动态优化波束指向;文献[24]则利用环境智能构建ChannelGPT模型,探索融合视觉等多模态信息以生成高精度数字孪生信道,从而增强传播预测精度。
跨模态推理则是更深层的应用,不仅要融合多模态信息,还要理解不同模态信息之间的特征关联及其对无线信道的影响。文献[46]探索GPT-4V在零样本场景理解中的潜力,其物体关系推理能力为构建环境-信道因果模型提供了启示;文献[47]提出分布式多智能体协作框架,移动端执行轻量化感知,边缘端融合全局知识进行因果推理,实现全局环境建模。然而,当前难点集中于多模态数据时空校准、边缘部署效率及因果建模的可解释性。
2.7 多任务物理层处理
多任务处理是提升物理层效率的重要路径,表6展示了当前技术探索在于架构创新和通用表征。早期研究聚焦多任务架构设计,文献[11]提出基于LLaMA的统一框架,通过共享Transformer主干提取跨任务特征,结合LoRA微调与任务特定解码器实现预编码、信号检测与信道预测的联合优化,证明了任务间相关特征挖掘的可行性。为进一步提升扩展性,文献[23]开发LLM4WM框架,引入MoE-LoRA混合架构动态分配专家网络,支持信道估计、波束赋形等六类物理层任务的并行处理,通过稀疏门控机制实现任务适配与知识共享。
通用表征学习则推动着多任务架构转向信道基础模型,如图7所示。文献[32]提出的WirelessGPT框架,通过大规模信道数据进行预训练生成通用表示,直接支持通信-感知一体化任务(如信道估计与人类活动识别),为智能超表面(RIS, Reconfigurable Intelligent Surface)等新兴技术的多任务协同处理提供了启示。此类通用基础模型的核心优势在于能够隐式捕捉信道物理规律,但其训练数据规模仍需扩大,任务多样性同样有待丰富。
当前将大型语言模型应用于多任务无线通信系统仍面临着许多问题:任务间的迁移导致性能波动;MoE架构的专家网络动态调度增加了推理延迟;通用基础模型的通用表征能力受限于预训练任务设计等,还需进一步的探索和优化。
3 未来研究方向
大语言模型赋能的物理层智能化仍处于快速演进阶段,其未来发展需围绕“可信赖性增强”“机理-数据融合”“边缘智能落地”三大方向深化探索。在这一进程中,基于LLM构建动态化、可扩展的物理层信道知识库将成为突破现有方法的核心支撑。要构建的知识库并非仅是对信道数据与理论模型的简单融合,而是深度结合LLM的上下文理解与多模态融合能力,对高频段传播特性、超大规模天线阵列的近场效应、动态环境下的多径效应规律等物理层任务的底层逻辑进行系统性建模。通过对大量信道数据与多模态环境语义信息的融合分析,知识库能够逐步构建覆盖时空频多维特征的隐式物理规律图谱,不仅为信道预测、波束管理等任务提供跨场景的领域知识支撑,更能通过动态修正大模型在复杂信道环境中的推理边界,有效解决现有技术因物理规律缺失导致的预测偏差与幻觉现象,为实现物理层任务智能处理奠定基础。
在此基础上,信道知识库的构建将深度赋能语义通信的底层逻辑。通过实时感知CSI的动态变化并预测其趋势,信道知识库可为语义编解码机制提供物理层先验知识。例如,在低信噪比的场景中,信道知识库可分析当前多径分布对语义特征传输的影响,引导编码端自适应调整语义提取粒度,或者为解码端提供基于信道传播规律的纠错先验,从而提高低信噪比场景中语义信息重构的准确性。同时,知识库中集成的资源分配策略与动态优化经验,能够支撑语义通信网络实现任务自适应的智能资源优化——针对高时效性语义交互任务,优先分配低时延波束资源;面向高质量语义传输需求,动态适配冗余频段和功率资源。这种“语义-信道-资源”的深度协同模式,将推动通信系统从传统的比特传输向高效的语义传递演进。
为了实现这一愿景,未来需在多维度实现技术突破:
在模型架构层面,需突破传统Transformer范式,构建通信感知一体的混合智能架构:(1)时空频物理感知稀疏注意力:设计具有物理感知能力的稀疏注意力机制,通过引入天线阵列空间位置与子载波频点关联性等物理先验知识,引导模型优先聚焦于物理相关性强的信道分量。这能有效提升对近场效应、非平稳信道等复杂传播特性的建模效率。(2)感知-推理分层解耦架构:架构前端采用轻量图卷积网络将CSI压缩为低维的物理表征,后端则通过LLM执行高层语义推理与决策,这种分层结构实现了信号处理与环境认知的协同优化。(3)场景自适应的模块化专家系统(MoE):针对多径散射、多普勒频移等核心物理现象,训练专用的专家模块。通过动态路由机制,根据实时感知的环境特征自适应组合调用相关专家,构建面向异构复杂场景的信道模型,有效解决当前模型泛化性的难题。
在部署层面,需研究模型复杂性与实时性的平衡策略,实现云-边-端协同的轻量化智能部署:(1)三级知识蒸馏协同框架:通过构建云端基座模型生成全局信道知识库;在边缘侧部署中等规模模型,融合区域环境数据进行训练;终端则运行高度轻量化的微模型,执行纳秒级响应的关键任务。通过动态知识蒸馏机制,实现由云端向边缘、终端的逐级传递与增强。(2)硬件感知自适应推理:边缘节点依据实时时延与能耗预算,动态调整模型计算强度(例如采用4-bit量化结合结构化剪枝策略),在满足资源约束的同时,最大化推理准确率与效率的平衡。(3)隐私保护的联邦增量演进:终端设备在严格差分隐私机制保护下,上传局部信道观测数据。云端通过聚合这些分布式数据,持续构建并更新能够反映环境动态演化的全局知识库,支撑整个模型体系的协同优化与性能提升。
此外,可信赖性体系构建同样紧迫,未来需构建覆盖幻觉抑制、对抗防御与可解释性评估的全方面保障机制,例如通过RAG约束信道预测输出的物理合理性,或利用注意力热力图揭示模型决策与信道传输之间的关联,推动系统从“黑箱推理”向可视化演进。通过上述技术路径的协同突破,信道知识库将不仅成为物理层任务智能化的核心知识库,更将成为6G实现“环境智能”与“语义泛在”的核心基础架构。
4 结束语
大语言模型技术为6G物理层智能化开创了全新范式,其通过通用表征学习与多模态推理能力,在信道状态预测、动态波束优化等核心物理层任务中展现出突破性性能。参数高效微调、检索增强生成及通信专用基础模型等技术,正推动着物理层设计范式从“人工特征设计”向“环境认知优化”转变。面向未来,LLM仍面临可信赖性增强、机理-数据深度融合及边缘智能实时性保障等核心挑战。研究机遇则聚焦于构建动态信道知识库、语义-物理协同优化框架及边缘智能部署等方面,通过攻克上述技术瓶颈,大语言模型将重塑无线通信理论基础与实践框架,推动网络从“连接泛在”向“智能泛在”跨越,为6G“万物智联”奠定核心基础。
[1] Yu W, He H, Song S, et al. AI and Deep Learning for THz Ultra-Massive MIMO: From Model-Driven Approaches to Foundation Models[EB/OL]. (2025-04-16)[2025-04-28]. https://arxiv.org/abs/2412.09839.
[2] De Carvalho E, Ali A, Amiri A, et al. Non-stationarities in extra-large-scale massive MIMO[J]. IEEE Wireless Communications, 2020,27(4): 74-80.
[3] Wang B, Jian M, Gao F, et al. Beam squint and channel estimation for wideband mmWave massive MIMO-OFDM systems[J]. IEEE transactions on signal processing, 2019,67(23): 5893-5908.
[4] Luo C, Ji J, Wang Q, et al. Channel state information prediction for5G wireless communications: A deep learning approach[J]. IEEE transactions on network science and engineering, 2018,7(1): 227-236.
[5] Xu S, Thomas C K, Hashash O, et al. Large multi-modal models (LMMs) as universal foundation models for AI-native wireless systems[J]. IEEE Network, 2024.
[6] Bariah L, Zhao Q, Zou H, et al. Large generative aimodels for telecom: The next big thing?[J]. IEEE Communications Magazine, 2024,62(11): 84-90.
[7] Zhou H, Hu C, Yuan Y, et al. Large language model (llm) for telecommunications: A comprehensive survey on principles, key techniques, andopportunities[J]. IEEE Communications Surveys & Tutorials, 2024.
[8] Achiam J, Adler S, Agarwal S, et al. Gpt-4 technical report[EB/OL]. (2024-03-06)[2025-04-28]. https://arxiv.org/abs/2303.08774.
[9] Touvron H, Lavril T, Izacard G, et al. Llama: Open and efficient foundation language models[EB/OL]. (2023-02-27)[2025-04-28]. https://arxiv.org/abs/2302.13971.
[10] Brown T, Mann B, Ryder N, Subbiah, M., Kaplan, J. D., et al. Language models are few-shot learners[J]. Advances in neural information processing systems, 2020,33: 1877-1901.
[11] Zheng T, Dai L. Large Language Model Enabled Multi-Task Physical Layer Network[EB/OL]. (2025-03-07)[2025-04-28]. https://arxiv.org/abs/2412.20772.
[12] Mohsin M A, Bilal A, Bhattacharya S, et al. Retrieval augmented generation with multi-modal llm framework for wireless environments[EB/OL]. (2025-03-09)[2025-04-28]. https://arxiv.org/abs/2503.07670.
[13] Jiang F, Peng Y, Dong L, et al. Large language model enhanced multi-agent systems for 6G communications[J]. IEEE Wireless Communications, 2024.
[14] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. Advances in neural information processing systems, 2017,30.
[15] He K, Chen X, Xie S, et al. Masked autoencoders arescalable vision learners[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2022: 16000-16009.
[16] Liu B, Gao S, Liu X, et al. WiFo: Wireless Foundation Model for Channel Prediction[EB/OL]. (2025-03-19)[2025-04-28]. https://arxiv.org/abs/2412.08908.
[17] Shazeer N, Mirhoseini A, Maziarz K, et al. Outrageously large neural networks: The sparsely-gated mixture-of-experts layer[EB/OL]. (2017-02-06)[2025-04-28]. https://arxiv.org/abs/1701.06538.
[18] Xue N, Sun Y, Chen Z, et al. Wdmoe: Wireless distributed large language models with mixture of experts[EB/OL]. (2024-05-06)[2025-05-07]. https://arxiv.org/abs/2405.03131.
[19] Alikhani S, Charan G, Alkhateeb A. Large wireless model (LWM): A foundationmodel for wireless channels[EB/OL]. (2025-04-07)[2025-04-28]. https://arxiv.org/abs/2411.08872.
[20] Lee W, Park J. LLM-empowered resource allocation in wireless communications systems[EB/OL]. (2024-08-06)[2025-04-28]. https://arxiv.org/abs/2408.02944.
[21] Gruver N, Finzi M, Qiu S, et al. Large language models are zero-shot time series forecasters[J]. Advances in Neural Information Processing Systems, 2023,36: 19622-19635.
[22] Hu E J, Shen Y, Wallis P, et al. Lora: Low-rankadaptation of large language models[J]. ICLR, 2022,1(2): 3.
[23] Liu X, Gao S, Liu B, et al. LLM4WM: Adapting LLM for Wireless Multi-Tasking[EB/OL]. (2025-02-07)[2025-04-28]. https://arxiv.org/abs/2501.12983.
[24] Yu L, Shi L, Zhang J, et al. ChannelGPT:ALarge Model to Generate Digital Twin Channel for 6G Environment Intelligence[EB/OL]. (2024-10-17)[2025-04-28]. https://arxiv.org/abs/2410.13379.
[25] Shao J, Tong J, Wu Q, et al. WirelessLLM: Empowering large language models towards wireless intelligence[EB/OL]. (2024-06-15)[2025-04-28]. https://arxiv.org/abs/2405.17053.
[26] Xue H, Salim F D. Promptcast: A new prompt-based learning paradigm for timeseries forecasting[J]. IEEE Transactions on Knowledge and Data Engineering, 2023,36(11): 6851-6864.
[27] Wei J, Wang X, Schuurmans D, et al. Chain-of-thought prompting elicits reasoning in large language models[J]. Advances in neural information processing systems, 2022,35: 24824-24837.
[28] Chang C, Wang W Y, Peng W C, et al. Llm4ts: Aligning pre-trained llms as data-efficient time-series forecasters[J]. ACM Transactions on Intelligent Systems and Technology, 2025,16(3): 1-20.
[29] Jin M, Wang S, Ma L, et al. Time-llm: Time series forecasting by reprogramming large language models[EB/OL]. (2024-01-09)[2025-05-01]. https://arxiv.org/abs/2310.01728.
[30] Garza A, Challu C, Mergenthaler-Canseco M. TimeGPT-1[EB/OL]. (2024-05-27)[2025-05-01]. https://arxiv.org/abs/2310.03589.
[31] Liu B, Liu X, Gao S, et al. LLM4CP: Adapting large language models for channel prediction[J]. Journal of Communications and Information Networks, 2024,9(2): 113-125.
[32] Yang T, Zhang P, Zheng M, et al. WirelessGPT: A Generative Pre-trained Multi-task Learning Framework for Wireless Communication[EB/OL]. (2025-02-08)[2025-04-28]. https://arxiv.org/abs/2502.06877.
[33] Sheng Y, Huang K, Liang L, et al. Beam prediction basedon large language models[J]. IEEE Wireless Communications Letters, 2025
[34] Zheng C, He J, Cai G, Yet al. BeamLLM: Vision-Empowered mmWave Beam Prediction with Large Language Models[EB/OL]. (2025-03-13)[2025-05-01]. https://arxiv.org/abs/2503.10432.
[35] Christensen S S, Agarwal R, De Carvalho E, et al. Weighted sum-rate maximization using weighted MMSE for MIMO-BC beamforming design[J]. IEEE Transactions on Wireless Communications, 2008,7(12): 4792-4799.
[36] AhmadiTeshnizi A, Gao W, Udell M. Optimus: Optimization modeling using mip solvers and large language models[EB/OL]. (2023-10-30)[2025-04-28]. https://arxiv.org/abs/2310.06116.
[37] Zhou H, Hu C, Yuan D, et al. Large Language Models for Wireless Networks: An Overview from the Prompt Engineering Perspective[J]. IEEE Wireless Communications, 2025.
[38] Sevim N, Ibrahim M, Ekin S. Large language models (LLMs) assisted wireless network deployment in urban settings[C]//2024 IEEE 100th Vehicular Technology Conference (VTC2024-Fall). IEEE, 2024: 1-7.
[39] Peng X, Liu Y, Cang Y, et al. LLM-OptiRA: LLM-Driven Optimization of Resource Allocation for Non-Convex Problems in Wireless Communications[EB/OL]. (2025-05-04)[2025-05-13]. https://arxiv.org/abs/2505.02091.
[40] Kan K B, Mun H, Cao G, et al. Mobile-llama: Instruction fine-tuning open-source llm for network analysis in 5g networks[J]. IEEE Network, 2024.
[41] Wu D, Wang X, Qiao Y, et al. Netllm: Adapting large language models for networking[C]//Proceedings of the ACM SIGCOMM 2024 Conference. 2024: 661-678.
[42] Zhou Q, Lai Y, Yu H, et al. Multi-modal fusion for millimeter-wave communication systems: A spatio-temporal enabled approach[J]. Neurocomputing, 2023,555: 126604.
[43] Cheng L, Zhang H, Di B, et al. Large Language Models Empower Multimodal Integrated Sensing and Communication[J]. IEEE Communications Magazine, 2025.
[44] Charan G, Alrabeiah M, Alkhateeb A. Vision-aided 6G wireless communications:Blockage prediction and proactive handoff[J]. IEEE Transactions on Vehicular Technology, 2021,70(10): 10193-10208.
[45] Ahn Y, Kim J, Kim S, et al. Toward intelligent millimeter and terahertz communication for 6G: Computer vision-aided beamforming[J]. IEEE Wireless Communications, 2022,30(5): 179-186.
[46] Yang Z, Li L, Lin K, et al. The dawn of lmms: Preliminary explorations with gpt-4v (ision)[EB/OL]. (2023-10-11)[2025-04-28]. https://arxiv.org/abs/2309.17421.
[47] Xu M, Niyato D, Kang J, et al. When large language model agents meet 6G networks: Perception, grounding, and alignment[J]. IEEE Wireless Communications, 2024. ★
★原文刊发于《移动通信》2025年第7期★
作者简介王文:学士毕业于山东科技大学,深圳大学与鹏城实验室联合培养在读博士研究生,研究方向包括基于无线通信大语言模型的物理层任务处理、无线通感等。
孙亚萍:博士毕业于上海交通大学,现任鹏城实验室助理研究员,博士生导师,主要研究方向为语义通信和移动边缘计算。
许晓东:博士毕业于北京邮电大学,现任北京邮电大学信息与通信工程系教授,2013年入选北京市科技新星,主要研究方向包括全面协作的分布式网络架构、混合组网、干扰抑制、资源分配、认知无线电技术和软件定义网络等。
★往期推荐★【6G卫星互联网】2025年第6期专题论文汇总(19篇)
《移动通信》杂志由中国电子科技集团公司主管,中国电子科技集团公司第七研究所主办,是中国期刊方阵“双效期刊”、工业和信息化部精品电子期刊、中国科技论文统计源刊、中国通信学会《信息通信领域高质量科技期刊分级目录》入选期刊、中国电子学会《电子技术、通信技术领域高质量科技期刊分级目录》入选期刊、中国应用型核心期刊、日本JST收录期刊。国内连续出版物号:CN44-1301/TN,国际连续出版物号:ISSN1006-1010,邮发代号:46-181。
来源:移动通信编辑部