摘要:从1:1到1:100再到0:n,AI输出与用户输入的比例正在重塑产品形态,也揭示了“AI密集型应用”的本质。本文将借助 Shawn Wang 的深度分享,带你重新理解AI工程的核心指标、标准模型的演进,以及如何构建下一代真正有价值的智能应用。
从1:1到1:100再到0:n,AI输出与用户输入的比例正在重塑产品形态,也揭示了“AI密集型应用”的本质。本文将借助 Shawn Wang 的深度分享,带你重新理解AI工程的核心指标、标准模型的演进,以及如何构建下一代真正有价值的智能应用。
你有没有想过,我们正在见证的可能不仅仅是 AI 工具的改进,而是整个软件构建方式的根本转变?当应用程序开始进行成百上千次 AI 调用来完成单一任务时,我们需要重新思考什么是”AI 密集型应用”,以及如何构建它们。最近,我观看了知名 AI 工程师 Shawn Wang(swyx)在 AI Engineers 大会上的一场分享,他提出了一个让我深思的观点:我们正处在寻找 AI 工程”标准模型”的关键时刻。这不是什么渐进式的优化,而是可能影响整个行业未来十年发展方向的基础性变革。
在这场分享中,Shawn 提到了一个非常有趣的现象:从用户输入到 AI 输出的比例正在发生巨大变化。传统的 ChatGPT 是 1:1 的比例,用户问一个问题,AI 给一个回答。但现在我们看到的深度研究工具、代码生成器已经变成了 1:100,甚至更高。而在一些环境感知的主动型 Agent 中,这个比例变成了 0:n,也就是说,不需要任何人类输入,AI 就能持续产生有价值的输出。这种变化不仅仅是数量上的,更是质的飞跃,它意味着我们正在从”AI 辅助”走向”AI 驱动”的应用时代。我认为理解这种转变的本质,对于任何想要构建下一代智能应用的人来说都至关重要。
Shawn 在分享中提到,AI 工程这个概念从 2023 年开始就在不断演进。最初,人们认为 AI 工程师就是”GPT 包装器”的开发者,地位很低,经常被嘲笑。但现在看来,那些早期的”GPT 包装器”开发者很多都已经获得了巨大的商业成功。这个转变让我意识到,技术的价值不在于它的复杂程度,而在于它能解决什么实际问题。
我特别认同 Shawn 提出的一个观点:不要过度复杂化。他引用了多个成功案例,比如 Anthropic 在 SweetBench 上的突破,以及 Greg Brockman 的深度研究工具,这些成功的 AI 应用都有一个共同特点——它们使用了相对简单的架构,但能够产生强大的效果。这与我在实际项目中的经验完全吻合。很多时候,我们容易陷入技术炫技的陷阱,追求最新最复杂的架构,却忽略了用户真正需要什么。
从工程角度看,AI 工程正在变得越来越多学科化。这不再只是机器学习工程师或者软件工程师的专属领域,它需要产品思维、用户体验设计、系统架构、数据工程等多个领域的知识融合。我观察到,最成功的 AI 产品往往来自那些能够跨学科思考的团队,他们不是从技术出发,而是从用户需求出发,然后用 AI 技术来解决具体问题。
Shawn 把当前的 AI 工程时代比作 1927 年的索尔维会议,当时爱因斯坦、居里夫人等物理学界的顶尖人物聚集在一起,为现代物理学奠定了基础。他认为我们现在正处在类似的历史时刻,AI 工程师们正在为这个新兴领域建立基础性的概念和标准。这个比喻让我想到,真正的突破往往发生在新领域形成的早期阶段,当基本概念和标准被确立后,后续的发展往往是在这些基础上的渐进式改进。
寻找 AI 工程的”标准模型”在传统软件工程中,我们有很多成熟的标准模型:ETL(提取、转换、加载)、MVC(模型-视图-控制器)、CRUD(创建、读取、更新、删除)、MapReduce 等等。这些模型为软件工程师提供了思考框架和最佳实践,让复杂的系统设计变得更加有序和可预测。但在 AI 工程领域,我们还缺乏这样的标准模型。
Shawn 提到了几个候选的标准模型。首先是 LM OS(Language Model Operating System,语言模型操作系统),这是由 Andrej Karpathy 在 2023 年提出的概念。这个模型将大语言模型视为一种新的计算平台,就像操作系统一样,为上层应用提供基础服务。Shawn 对这个概念进行了 2025 年的更新,加入了多模态能力和标准工具集,以及 MCP(Model Context Protocol,模型上下文协议),这已经成为连接外部世界的默认协议。
第二个是 LLM SDLC(Software Development Life Cycle,软件开发生命周期),这是一个专门针对 AI 应用的开发流程模型。我发现这个模型特别有趣的地方在于,它揭示了 AI 应用开发的成本结构。正如 Shawn 提到的,早期阶段的工具——LLM 调用、监控、RAG(检索增强生成)——基本上都是免费或者成本很低的。真正开始花钱的是当你需要做评估(evals)、安全编排和其他真正的硬核工程工作时。这个洞察对于 AI 创业公司的商业规划非常重要。
第三个是构建有效 Agent 的模型,这来自 Anthropic 的研究。虽然不同公司对 Agent 的定义不同,OpenAI 和 Anthropic 都有各自的版本,但基本的构建原则是相似的:意图理解、控制流、记忆、规划和工具使用。我认为这个模型的价值在于它提供了一个系统性的思考框架,让我们可以更清楚地分析和设计 Agent 系统。
我特别欣赏 Shawn 对 Agent 定义争论的态度。他说,与其争论什么是工作流、什么是 Agent,不如专注于交付价值。这种实用主义的方法让我想起了早期互联网时代的精神——重要的不是技术的纯粹性,而是它能为用户创造什么价值。
从用户输入到 AI 输出的比例变化Shawn 提出了一个我认为非常有洞察力的分析框架:用户输入与 AI 输出的比例。这个框架让我们可以清楚地看到不同类型 AI 应用的本质差异,以及它们所处的发展阶段。
在 Copilot 时代,这个比例大约是每输入几个字符就会触发一次自动补全。在 ChatGPT 中,大致是每个查询对应一个回应,基本上是 1:1 的关系。但到了推理模型阶段,比如 OpenAI 的 o1,这个比例变成了 1:10,用户提出一个问题,AI 会进行多轮内部推理才给出答案。
更有意思的是深度研究工具,比如 Google 的 NotebookLM,比例可能达到 1:100 甚至更高。用户给出一个研究主题,AI 会进行大量的信息收集、分析、综合工作,最终产生一个深度的研究报告。我自己使用 NotebookLM 的体验确实证实了这一点,输入几个关键词或者上传几个文档,它能够生成详细的分析报告、播客对话等多种形式的输出。
最极端的情况是环境感知的主动型 Agent,比例是 0:n。这些系统不需要任何人类输入就能持续产生有价值的输出。想象一下一个监控系统异常的 AI Agent,它可以 24/7 监控系统状态,发现问题时自动生成报告、发送警报、甚至采取修复措施。这种”无输入但有输出”的模式代表了 AI 应用的一个全新范式。
我认为这个分析框架的价值在于,它为我们提供了一个清晰的进化路径。如果你正在开发一个 AI 应用,你可以问自己:我现在处在哪个阶段?我如何向更高比例的方向发展?这种发展不仅意味着技术上的进步,更重要的是用户价值的提升。用户愿意为更少的输入获得更多的有价值输出而付费。
AI News 案例:实践中的 AI 密集型应用Shawn 以他自己开发的 AI News 作为案例,深入剖析了一个真实的 AI 密集型应用是如何工作的。AI News 是一个自动化的新闻聚合和分析工具,目前有超过 7 万名读者。虽然很多人称它为 Agent,但 Shawn 承认它实际上更像是一个工作流系统。
有趣的是,PyTorch 的负责人 Soumith 曾经告诉 Shawn,虽然他很喜欢 AI News,但这并不是一个 Agent。这个评论让 Shawn 开始反思:为什么一个不是 Agent 的系统仍然能够产生如此大的价值?这个思考过程让我意识到,我们往往过于纠结于定义和标签,而忽略了实际的价值创造。
AI News 的核心是一个相对简单的流程:抓取、规划、递归总结、格式化和评估。Shawn 说他为不同的数据源(Discord、Reddit、Twitter)写了三次相同的代码,每次都是这个流程。这种”三个小孩穿风衣”式的架构看起来很简单,但它每天都在运行,为用户提供价值。
更重要的是,这个系统展现了 AI 密集型应用的特征:为了服务一个特定目的,它进行了成千上万次的 AI 调用。每次运行,它都会抓取大量信息,用 AI 进行多轮分析和总结,最终产生一个精炼的新闻汇总。这种大量 AI 调用的模式,正是 AI 密集型应用区别于传统应用的关键特征。
从商业角度看,AI News 的成功证明了一个重要观点:用户关心的不是技术的纯粹性,而是最终的价值交付。无论你称它为工作流、Agent 还是其他什么,只要它能够稳定地为用户提供有价值的输出,就是成功的产品。这个案例让我重新思考了技术创新的本质:不是为了炫技,而是为了解决实际问题。
SPADE 模型:AI 密集型应用的通用框架基于 AI News 的经验,Shawn 提出了一个通用的 AI 密集型应用框架,他称之为 SPADE 模型。这个模型包含五个步骤:Sync(同步)、Plan(规划)、Analyze(分析)、Deliver(交付)和 Evaluate(评估)。我认为这个模型的价值在于它为构建 AI 密集型应用提供了一个清晰的思考框架。
Sync 阶段是数据收集和同步。这个阶段需要从各种来源收集相关信息,可能包括 API 调用、网页抓取、数据库查询等。在 AI News 的案例中,这就是从 Discord、Reddit、Twitter 等平台抓取相关信息的过程。我发现这个阶段的质量往往决定了整个应用的效果,垃圾进垃圾出的原理在 AI 应用中同样适用。
Plan 阶段是规划处理策略。AI 需要决定如何处理收集到的信息,制定分析计划。这可能包括确定分析的优先级、选择合适的处理方法、分配计算资源等。在复杂的 AI 密集型应用中,这个阶段可能需要多轮规划和调整。
Analyze 阶段是并行处理和分析。这是 AI 密集型应用的核心,大量的 AI 调用在这个阶段发生。系统会对收集到的信息进行深度分析,提取关键信息,识别模式和趋势。Shawn 特别提到了并行处理的重要性,这是提高效率的关键。
Deliver 阶段是将分析结果整合并交付给用户。这个阶段需要将大量的分析结果汇总成用户可以理解和使用的形式。可能是文本报告、可视化图表、代码、音频等不同形式。Shawn 提到了 ChatGPT 的 Canvas 和 Claude 的 Artifacts,它们可以将输出交付为可执行的代码,这是一种很有趣的交付方式。
Evaluate 阶段是评估结果质量和效果。这个阶段对于持续改进非常重要,需要收集用户反馈、分析系统性能、识别改进机会。我认为这个阶段往往被忽视,但它对于构建可持续的 AI 产品至关重要。
SPADE 模型的一个重要特点是它强调了从”多到一”的聚合过程。AI 密集型应用通常需要处理大量信息,然后将其整合成精炼的输出。这种聚合能力正是 AI 技术的强项,也是这类应用能够为用户创造价值的关键。
听完 Shawn 的分享,结合我自己在 AI 领域的观察和实践,我对 AI 密集型应用的发展趋势有一些深度思考。我认为我们正处在一个关键的转折点,传统的软件开发范式正在被彻底重塑。
首先,我注意到计算成本结构的根本性变化。在传统应用中,计算成本主要来自服务器资源、数据库查询、网络传输等。但在 AI 密集型应用中,大部分成本转移到了 AI 推理上。这种变化不仅影响了成本结构,也改变了优化策略。我们需要重新思考如何设计高效的 AI 密集型系统,如何平衡推理质量和成本,如何通过缓存、批处理等技术降低成本。
其次,用户期望的变化比技术发展更快。用户已经开始期待 AI 应用能够理解复杂的意图,处理模糊的输入,提供个性化的输出。这种期望的变化迫使我们重新审视产品设计。我们不能再简单地将 AI 作为一个功能模块嵌入传统应用中,而需要将 AI 能力作为产品的核心竞争力来设计整个用户体验。
我特别关注的是多模态能力的发展。Shawn 在更新 LM OS 模型时提到了多模态,这确实是一个重要趋势。未来的 AI 密集型应用不仅要处理文本,还要处理图像、音频、视频等多种形式的输入和输出。这种多模态能力将开启全新的应用场景,比如基于视觉理解的自动化、音频生成的创意工具、多媒体内容的智能编辑等。
从商业模式角度看,AI 密集型应用正在创造新的价值主张。传统软件通常按照功能或用户数量定价,但 AI 密集型应用可能更适合按照价值结果定价。比如,一个 AI 研究助手的价值不在于它有多少功能,而在于它能为用户节省多少研究时间,或者产生多少有价值的洞察。这种定价模式的转变将深刻影响 AI 产品的设计和商业策略。
我也看到了一些潜在的挑战。随着 AI 密集型应用的普及,我们面临着新的技术债务问题。大量的 AI 调用使得应用的行为变得更难预测和调试。如何确保 AI 密集型应用的可靠性、可维护性和可扩展性,将成为工程师面临的新挑战。我们需要新的工具和方法来监控、调试和优化这些系统。
另一个我思考较多的问题是 AI 密集型应用对开发者技能的要求。传统的软件开发技能仍然重要,但开发者还需要理解 AI 模型的特性、掌握提示工程技巧、具备数据处理能力、了解 AI 伦理等。这种技能要求的变化可能会重塑整个软件工程教育和培训体系。
从用户体验角度看,AI 密集型应用带来了新的设计挑战。如何向用户传达 AI 的处理过程?如何处理 AI 的不确定性?如何设计有效的反馈机制?这些问题没有标准答案,需要我们在实践中不断探索和创新。
标准模型的演进与未来展望Shawn 在分享中强调了寻找 AI 工程标准模型的重要性,我对此深有同感。标准模型不仅仅是技术框架,更是整个行业的共同语言和思维模式。回顾软件工程的历史,每一次重大的标准模型确立都推动了行业的快速发展和成熟。
我认为当前我们正处在多个候选标准模型并存的阶段,这是一个正常且必要的过程。LM OS、LLM SDLC、Agent 构建模型、SPADE 等,每个模型都从不同角度捕捉了 AI 工程的某些本质特征。最终,可能会有一个或几个模型脱颖而出,成为行业的事实标准。
但我也意识到,AI 技术发展的速度可能比传统软件技术更快,这意味着标准模型可能需要更频繁的更新和演进。我们不能期待一个标准模型能够适用很多年,而需要建立一种持续演进的机制。这要求我们在追求标准化的同时,保持足够的灵活性和开放性。
我特别欣赏 Shawn 提出的实用主义方法。与其争论定义,不如专注于解决实际问题。这种方法论对于一个快速发展的领域来说非常重要。我们需要在理论建构和实践应用之间找到平衡,既要有清晰的概念框架,又不能被框架束缚住创新的思维。
从全球视角看,不同地区的 AI 工程社区可能会形成不同的标准模型和最佳实践。这种多样性是有益的,它能促进创新和知识交流。但同时,我们也需要某种程度的标准化来促进协作和互操作性。如何在多样性和标准化之间找到平衡,将是一个长期的挑战。
我预测未来几年将是 AI 工程标准模型快速演进的时期。随着更多成功案例的涌现,随着技术的进一步成熟,随着行业实践的积累,我们将逐渐形成更加成熟和稳定的标准模型。这些标准模型将不仅指导技术实现,还将影响产品设计、商业策略、组织架构等多个层面。
实践建议:如何构建下一代 AI 密集型应用基于 Shawn 的分享和我自己的思考,我想为正在构建或考虑构建 AI 密集型应用的开发者提供一些实用建议。这些建议基于我对当前技术趋势的理解和对未来发展的预测。
首先,从小处开始,但要有大局观。不要试图一开始就构建一个完美的 AI 密集型应用,而是选择一个具体的用例,用最简单的方法验证核心价值。AI News 的成功很大程度上来自于它专注解决一个明确的问题:帮助 AI 从业者快速了解行业动态。确定了核心价值后,再逐步增加复杂性和 AI 密集度。
其次,重视数据质量和处理流程。在 SPADE 模型中,Sync 阶段的质量往往决定了最终结果。投入时间设计好数据收集、清洗和预处理流程,建立数据质量监控机制。我发现很多 AI 密集型应用的问题不是出在 AI 模型上,而是出在数据处理上。
第三,设计可观测和可调试的系统。随着 AI 调用次数的增加,系统行为变得更加复杂和难以预测。从一开始就建立完善的日志记录、监控和调试机制。记录每次 AI 调用的输入、输出、耗时、成本等信息,建立性能基线,设置异常检测。
第四,采用渐进式的用户体验设计。不要试图一次性向用户展示所有的 AI 能力,而是设计一个渐进式的体验流程。让用户先体验基础功能,逐步了解和信任 AI 能力,然后再引导他们使用更高级的功能。这种方法不仅能降低用户的学习成本,还能收集有价值的用户反馈。
第五,建立有效的成本控制机制。AI 密集型应用的运营成本可能很高,特别是在用户规模扩大后。设计灵活的 AI 调用策略,比如根据用户等级、使用场景、时间等因素动态调整 AI 使用强度。考虑使用缓存、批处理、模型优化等技术降低成本。
第六,重视用户反馈和持续改进。AI 密集型应用的价值很大程度上取决于它们能否准确理解用户需求并提供有价值的输出。建立有效的用户反馈收集机制,定期分析用户行为数据,快速迭代和改进。不要害怕暴露 AI 的局限性,透明度往往能增加用户信任。
最后,保持学习和适应的心态。AI 技术发展很快,新的模型、工具和最佳实践不断涌现。建立一个学习型的团队文化,定期评估和更新技术栈,关注行业动态和最佳实践。同时,不要被技术潮流绑架,始终以解决用户问题为导向做技术选择。
我相信,随着 AI 技术的进一步发展和标准模型的逐渐成熟,构建 AI 密集型应用将变得更加容易和可预测。但在当前这个阶段,我们仍然需要大量的实验和探索。每个成功的案例都在为整个行业贡献宝贵的经验和洞察。
最终,我认为 AI 密集型应用的成功不仅取决于技术实现,更取决于对用户需求的深刻理解和对价值创造的持续专注。技术是手段,价值是目的。只有那些能够为用户创造真正价值的 AI 密集型应用,才能在激烈的竞争中胜出,并推动整个行业向前发展。
来源:人人都是产品经理