摘要:书接上文啊,在仔细理解了一下“GPT-5的提示词”之后我们提了四个问题,认为这种既要又要还要的提示词在企业级应用中会碰到困境。实际上这些困境在去年我们在提出Agent Foundry的多智能体协作网络框架的时候就已经提出了,如何解决这些问题已经是当前AI工程领
书接上文啊,在仔细理解了一下“GPT-5的提示词”之后我们提了四个问题,认为这种既要又要还要的提示词在企业级应用中会碰到困境。实际上这些困境在去年我们在提出Agent Foundry的多智能体协作网络框架的时候就已经提出了,如何解决这些问题已经是当前AI工程领域最前沿的方向:从“全能型个体”转向“专家型团队”的智能体(Agent)架构。
智用开物的Agent Foundry通过分工协作的智能体,并精细地拆解和解耦“思维链”(Chain of Thought, CoT)与“行动链”(Chain of of Action, CoA),完全可以、也正是业界正在探索的、用以避免这种“万能提示词”窘境的解决方案。
下面我将详细阐述,这种架构是如何精准地解决我们之前讨论的那些问题的。
那份庞大的“GPT-5”提示词,试图将一个AI模型打造成一把无所不能的瑞士军刀。它既要懂礼貌(风格),又要会思考(推理),还要能动手(工具),更要守纪律(规则)。结果就是,这把刀的每个工具都互相掣肘,变得笨重且不可靠。
智能体分工协作(Multi-Agent System),则是组建一个“专家团队”:
规划师 (Planner Agent):负责理解用户意图、分解任务。
研究员 (Researcher Agent):负责调用搜索、数据库等工具收集信息。
分析师 (Analyst Agent):负责在后台执行Python代码,进行数据 crunching。
审核员 (Auditor Agent):负责检查代码的合规性、事实的准确性。
沟通官 (Communicator Agent):负责将最终结果以合适的语气和格式呈现给用户。
在这个模型下,“思维链”(CoT)和“行动链”(CoA)被完美地解耦了。
思维链 (CoT):主要由“规划师”负责。它的核心任务是思考、拆解、形成策略。它产出的不是最终答案,而是一个结构化的行动计划。
行动链 (CoA):由各个“执行专家”(研究员、分析师)负责。它们接收来自规划师的明确、无歧义的指令,然后调用工具、执行任务。
现在,让我们看看这个“专家团队”如何解决我们之前发现的四大挑战:
解决方案一:用“规划师”+“用户”的互动,化解“自信的愚蠢”
原问题:AI被禁止提问,在指令模糊时会“猜”着做,导致方向性错误。
智能体解决方案:
用户的模糊指令(“分析‘主要’产品”)首先被发送给规划师Agent。
规划师的首要职责(CoT)就是识别并消除歧义。它的提示词会明确指示:“如果用户意图不明确,你的任务就是生成澄清问题。”
因此,规划师会向用户返回:“为了更好地帮您分析,请问您定义的‘主要’产品是依据‘销售额’、‘利润率’还是‘出货量’?”
只有在得到用户的明确答复后,规划师才会生成一个清晰无误的指令(例如:“按销售额降序排名,提取前5名产品,分析其过去四个季度的销售数据”),并将其派发给分析师Agent。
此时,“不许提问”的规则可以安全地施加在分析师Agent身上,因为它收到的指令已经是100%明确的。
效果:既保证了底层执行的自动化效率,又通过顶层规划的交互,确保了方向的绝对正确,完美解决了“不问不说”的刚性纪律带来的风险。
解决方案二:用“任务管理”,打破“同步枷锁”原问题:AI被限制在同步响应中,无法处理耗时长的复杂任务。
智能体解决方案:
当用户提出一个耗时任务时(“总结这10份年报”),规划师Agent会识别出这是一个异步任务。
它会立即给用户一个同步反馈:“收到您的请求,这是一个复杂任务,预计需要5-10分钟。任务完成后,我会在这里通知您。我现在开始处理。”
同时,规划师将任务分解,并派发给研究员Agent(去网上下载或在数据库查找文件)和分析师Agent(逐一阅读和总结)。这些Agent可以在后台异步执行。
这套系统从整体上实现了异步处理能力,用户可以关闭窗口,稍后再回来查看结果。
效果:将AI从一个“即时问答机”解放出来,使其成为一个能够管理和执行长期、复杂项目的真正得力的“工作站”,你看在Agent Foundry中的处理,每一步都能被拆解。
解决方案三:用“分层日志”,实现“可审计的黑箱”
原问题:后台代码执行过程不可见,无法满足企业的审计和合规需求。
智能体解决方案:
规划师Agent生成的行动计划,本身就是第一层审计日志(Audit Log),清晰地记录了AI的“意图”。
分析师Agent在执行时生成的Python代码,可以被完整记录下来,作为第二层执行日志。
我们可以引入一个审核员Agent,它的任务就是读取分析师生成的代码,并根据预设的公司合规规则(例如:数据处理不能调用外部API、必须保留小数点后四位等)进行自动检查,并输出第三层合规日志。
最终,沟通官Agent向普通用户呈现简洁的结果,但授权的审计人员可以随时调阅这三层日志,完整追溯每一个结果的来龙去脉。
效果:实现了“对用户友好”与“对审计透明”的完美统一,解决了安全与合规的深层次矛盾。
解决方案四:用“单一职责”,避免“模型精神分裂”原问题:单一提示词过于复杂,规则互相冲突,导致模型行为不稳定。
智能体解决方案:每个Agent的系统提示词都变得极其简短和专注。
规划师的提示词只关心逻辑、分解和策略。
分析师的提示词只关心如何编写高效、安全的代码。
沟通官的提示词只关心语气、风格和格式塔原则(如何组织信息更易读)。
例如,“风格要有趣”这条规则,只会被放在沟通官Agent的提示词里,并且可以根据情境(如“生成正式财报摘要”)被轻易覆盖,而不会污染到负责严谨数据分析的分析师Agent。
效果:每个Agent都只做自己最擅长的事,认知负担极低,行为因此变得高度稳定和可预测。整个系统的复杂性被有序地分解,而不是混乱地堆积在一个模型上。
结论
那份“GPT-5”提示词的窘境,根源在于它试图在一个“单体架构”下解决所有问题。而“分工协作的智能体”所代表的“微服务架构”思想,正是解决之道。
通过解耦CoT和CoA,我们将AI的能力从一个混沌的、全能的个体,重构成一个纪律严明、各司其职、流程透明的专家团队。这不仅解决了原有提示词的种种问题,更重要的是,它为构建真正强大、可靠且可控的企业级AI应用,铺平了坚实的工程化道路。
今天的文末广告是好友百林哲的董总办的一个技术大会,光看目录就觉得干货比较多。
来源:opendotnet