欧阳良宜 | 外行视角看AI的发展从工具到未来

B站影视 港台电影 2025-03-28 01:08 1

摘要:人工智能(AI)近年来取得了令人瞩目的进展,尤其是大语言模型(LLM,Large Language Model)的崛起,使其成为科技竞赛的核心领域。然而,对于外行而言,理解AI的发展往往伴随着误解与夸大。本文将从外行的视角分析大语言模型的本质、应用前景、技术瓶

人工智能(AI)近年来取得了令人瞩目的进展,尤其是大语言模型(LLM,Large Language Model)的崛起,使其成为科技竞赛的核心领域。然而,对于外行而言,理解AI的发展往往伴随着误解与夸大。本文将从外行的视角分析大语言模型的本质、应用前景、技术瓶颈及未来方向。

欧阳良宜 北京大学金融学副教授、北京大学汇丰商学院副院长

01、大语言模型的本质:基于概率预测的数字序列

大语言模型的核心原理是将人类文献转换为数字序列,并通过概率计算预测下一个最可能出现的数字。在训练过程中,模型通过大量语料库学习语言的统计规律,并通过参数权重调整优化预测能力。然而,这种方法的局限性在于,它并不真正“理解”语言,而是基于统计规律进行预测。

这种基于概率的预测方式导致了“幻觉”(hallucination)现象,即模型可能在看似合理的情况下生成错误或荒谬的内容。例如,GPT-4在回答复杂问题时,可能因训练数据的局限性或随机性而犯低级错误。这表明,无论如何优化,大语言模型的本质决定了其永远无法完全避免幻觉。

02、大语言模型的知识掌握能力与应用价值

尽管存在幻觉问题,大语言模型在知识掌握方面已经超越了绝大多数普通人。其预训练参数中包含了大量来自互联网、书籍、论文等的结构化知识,使其在多种领域表现优异。例如:

•写作应用:企业公函、市场营销文案、法律合同初稿等,都可以通过大语言模型快速生成,提高效率。

•编程助手:GitHub Copilot 已经能帮助程序员自动补全代码,提高开发速度。

•教育与咨询:LLM 可以充当私人导师,提供数学、历史、经济等多方面的解答。

根据OpenAI的数据显示,使用GPT-4.0的用户在撰写商务邮件时,效率提升了30%以上,部分企业通过AI客服系统减少了超过40%的人工成本。这表明,尽管AI尚未达到真正的智能,但在实际应用中,它已经成为高效的生产力工具。

03、强化学习的发展:尚未迎来“AlphaGo 第37手”时刻

目前,大语言模型的核心技术仍然以自回归生成(Autoregressive Generation)为主,而强化学习(Reinforcement Learning, RL)则处于相对早期的发展阶段。强化学习的代表性突破是AlphaGo在2016年对战李世石时的第37手,这标志着AI在围棋领域超越人类的关键时刻。然而,在大语言模型的领域,这种突破尚未发生。

当前,强化学习主要用于微调LLM,如OpenAI 采用“强化学习奖励模型”(RLHF)优化ChatGPT,使其更符合人类偏好。然而,在更广泛的非规则场景中,如开放式问题解答、跨学科推理,RL仍面临巨大挑战。例如:

•强化学习依赖高质量的反馈数据,但人类标注数据成本高昂,规模有限。

•语言模型的行为空间远大于围棋、国际象棋等固定规则游戏,导致优化难度更高。

•当前的强化学习模型在通用认知推理方面仍未展现超越人类的能力。

因此,我们仍在等待AI的“AlphaGo 第37手”时刻,即AI在复杂开放环境中做出真正超越人类直觉的创新决策。

04、多模态模型的挑战:数据与计算的双重限制

目前主流大语言模型的训练数据仍然主要依赖结构化的文本数据,而对图片、视频等非结构化数据的整合仍在早期探索阶段。多模态模型(Multimodal Model)如GPT-4-Vision和Gemini 1.5 尝试将文本与图像结合,但仍面临巨大挑战:

•数据需求指数级增长:相比于文本数据,图像和视频的token化需要更高的存储和计算资源。例如,训练一个多模态模型所需的token数量可能比文本模型高出几个数量级。

•计算成本高昂:目前GPT-4级别的模型训练需要数千张A100/H100 GPU,而如果扩展到大规模视频数据,算力需求将呈几何级数增长。

•能源消耗问题:据估算,训练GPT-4的碳排放可能相当于10万辆汽车行驶一年的排放量,而更大规模的多模态模型将进一步加剧能源问题。

如果没有方法论上的创新,比如更高效的架构、更优的训练策略,那么大规模多模态模型的成本将会达到难以承受的地步。

05

轻量化大语言模型与智能硬件的结合:制造业的机会

尽管大模型训练面临算力瓶颈,但轻量化大语言模型(如Gemini Nano, Mistral, LLaMA-3小型版本)在边缘计算领域展现了巨大的应用前景。相比于云端部署,边缘计算的优势包括:

•本地运行,降低延迟:在手机、智能音箱、车载系统中运行LLM,可以提供即时响应,而无需依赖云端。

•数据安全性更高:本地AI助手可以减少用户数据外泄风险,提高隐私保护能力。

•成本可控:相比动辄数亿美元的GPT-4级模型,小型LLM可以运行在成本更低的芯片上,如苹果M系列芯片或高通Snapdragon AI引擎。

对于中国企业而言,智能硬件制造能力和工程优化能力都是全球领先的,这使得中国公司有能力在“轻量级AI+硬件”的赛道上取得竞争优势。例如,华为、小米等公司已经在智能手机、智能家居领域布局AI助手,而未来智能汽车、可穿戴设备也可能成为大模型应用的重要场景。

结语

大语言模型的发展已经进入了深水区。其本质仍然是基于概率预测的数字序列,因此无法完全避免幻觉问题,但这并不影响其在商业、教育、编程等领域的实际价值。强化学习的突破尚未到来,但在规则明确的领域仍有望超越人类。多模态模型的进展受限于数据和算力的挑战,而轻量级模型则为智能硬件的发展提供了新机遇。

对于普通人而言,理解AI的局限性与机遇同样重要。未来,AI将继续深度渗透各行各业,而拥有制造和工程优势的国家和企业,将在这场科技竞赛中占据更有利的位置。

来源:莱娜探长

相关推荐