摘要:人工智能(AI)正在深刻变革包括射频信号处理与先进通信在内的众多领域。AI 技术能有效处理日益复杂的频谱环境,同时满足无线数据传输速率持续攀升的需求。基于 AI 的信号处理技术将赋能 6G 等新一代通信系统,使认知无线电、信号指纹识别及动态资源分配等关键能力得
随着远程办公、云计算等应用场景对带宽需求的激增,联网设备激增使得有限的无线频谱资源分配面临巨大挑战。
人工智能(AI)正在深刻变革包括射频信号处理与先进通信在内的众多领域。AI 技术能有效处理日益复杂的频谱环境,同时满足无线数据传输速率持续攀升的需求。基于 AI 的信号处理技术将赋能 6G 等新一代通信系统,使认知无线电、信号指纹识别及动态资源分配等关键能力得以实现。
但现有大多数无线信号分类处理的人工智能方法不仅功耗高,还难以实现实时运算。
近日,麻省理工学院的研究团队开发出了一款专门为无线信号处理设计的新型 AI 硬件加速器。相关文章以题为“RF-photonic deep learning processor with Shannon-limited data movement”发表在 Science Advanced 期刊。
这款光学处理器能以光速执行机器学习运算,能在纳秒级时间内对无线信号进行分类。
相较于顶尖的数字处理器,这款光子芯片的处理速度提升约 100 倍,同时保持 95% 的信号分类准确率。该硬件加速器兼具可扩展性与灵活性,可适配多种高性能计算场景,且在体积、重量、成本及能效方面均优于数字AI加速器。
这项技术尤其适用于未来 6G 应用场景,例如能根据无线环境动态调整调制格式以优化数据传输速率的认知无线电。研究团队指出,该设备使边缘设备具备实时深度学习能力,其应用前景远超信号处理领域。例如可助力自动驾驶汽车对环境变化做出毫秒级响应,或使智能起搏器实现持续心电监测。
光速处理
当前,最先进的无线信号处理数字 AI 加速器需将信号转换为图像后,通过深度学习模型进行分类。虽然这种方法精度极高,但深度神经网络庞大的计算量使其难以满足诸多时效敏感型应用的需求。
光学系统通过光波编码和处理数据,不仅能加速深度神经网络运算,其能耗也远低于数字计算。但长期以来,研究人员在确保光学器件可扩展性的同时,始终难以最大化通用光学神经网络在信号处理中的性能表现。
该研究团队通过开发专为信号处理设计的创新架构——乘性模拟频率变换光学神经网络(MAFT-ONN),成功攻克了这一难题。该方案通过在无线信号数字化之前的频域内完成所有信号数据编码及机器学习运算,从根本上解决了系统扩展性问题。
图 | MAFT-ONN 架构
研究团队设计的该光学神经网络可原位执行所有线性和非线性运算(深度学习必需的两类运算)。得益于这一创新架构,整个光学神经网络每层仅需单个 MAFT-ONN 器件,而传统方案每个计算单元(即“神经元”)都需独立器件支撑。
“我们能在单个器件上集成 10,000 个神经元,并一次性完成所有必要乘法运算。”第一作者 Ronald Davis 解释道。这一突破通过光电倍增技术实现,该技术不仅显著提升能效,还使光学神经网络可通过增加层级直接扩展,无需额外开销。
纳秒级成果
MAFT-ONN 系统的工作流程分为三个关键阶段:首先接收原始无线信号输入,随后在光学域完成实时信号处理,最终将处理结果传输至边缘设备进行后续操作。以信号调制识别为例,该系统能实现信号类型的自主判断,为后续数据解码提供关键参数支持。
图 | MAFT-ONN 实验演示
研究人员在设计 MAFT-ONN 时面临的最大挑战之一是如何将机器学习计算映射到光学硬件上。Davis 指出:“现有机器学习框架无法直接适配我们的光学处理器,必须从头构建硬件感知的计算架构,通过精心设计的物理效应来实现特定计算功能。”
当他们在仿真中对信号分类测试该架构时,光学神经网络单次运算达到了 85% 的准确率,通过多次测量可以快速收敛至 99% 以上的准确率,MAFT-ONN 完成整个处理过程仅需约 120 纳秒。
“测量时间越长,获得的准确率就越高。由于 MAFT-ONN 在纳秒级完成推理,你不需要牺牲太多速度就能获得更高的准确率。”Davis 补充道。
目前,最先进的数字射频设备可以在微秒级完成机器学习推理,而光学系统可以在纳秒甚至皮秒级完成。
展望未来,研究人员希望采用所谓的多路复用方案,以执行更多计算并扩展 MAFT-ONN。他们还希望将工作扩展到更复杂的深度学习架构,能够运行 Transformer 模型或 LLM。
原文链接:
来源:DeepTech深科技一点号