好像小红书上没有人在分享吴恩达的来信啊摘要:推理模型通常通过输出前的“思考”过程来学习执行一个独立的过程,然后再产生最终结果。而最近蚂蚁集团发布了 Ling-1T,这是一个巨大、开放、非推理模型,其性能在 31 项基准测试中,有 22 项在推理、数学、编码、一般知识和写作方面超过了领先的非推理模型。凭借
本周的来信我觉得特别值得分享一下
在做Agent的算法、开发、产品们需要读一下
因为它在分析一个现在国外主流的Agent的构建方法?
Agent构建中很重要的是错误的评估和处理部分?
过去我们做Agent都是在做硬编码去实现workflow
但现在的一个趋势是可以给它解除掉限制
让LLM自己来自选择工具和Workflow?
就像Manus的那样
更少的限制、更高的性能(Less Structure More Intelligence )
我是最近才开始订阅吴恩达来信✉️
因为最近他有个Agentic的课程
之前都讲得太技术了,比较偏底层的模型?
订阅之后每周都有最新的来信和一周动态
一周动态内容就是他们团队觉得值得分享的新闻?
比如本周的一共四条⬇️
1️⃣无“思考”的推理:
推理模型通常通过输出前的“思考”过程来学习执行一个独立的过程,然后再产生最终结果。而最近蚂蚁集团发布了 Ling-1T,这是一个巨大、开放、非推理模型,其性能在 31 项基准测试中,有 22 项在推理、数学、编码、一般知识和写作方面超过了领先的非推理模型。凭借不懈努力和持续投入,Ling系列已从鲜为人知发展到已能挑战顶尖模型。
2️⃣MCP 存在安全风险:
轻松将大型语言模型连接到工具和数据源的能力使模型上下文协议在开发者中受到欢迎,但研究也显示这同时也打开了安全漏洞。Pynt 公司的 Golan Yosef 分析了模型上下文协议(MCP)服务器的安全风险。这项工作表明,当系统使用多个 MCP 服务器时,漏洞会迅速增加。
3️⃣加州建立人工智能约束体系:
加州决定在其境内规范人工智能技术,要求大型 AI 开发者公开其安全协议。此外,还规范了Chatbot,使开发者对其构建的自主系统的行为负责,并要求对 AI 生成的媒体内容进行明确标注。
4️⃣更好的Agent Prompt自动生成:
微调智能体的提示比通过强化学习微调底层大型语言模型能带来更好的结果。来自数家顶级学校的研究者,开发了一种名为 GEPA 的算法,通过改进提示来提高代理系统的性能。作者将其定位为通过强化学习微调代理的大型语言模型的高效替代方案。
想一起学习的宝子们
直接去他的Deep Learning AI就可以订阅~
是免费的。
#AI[话题]# #大模型[话题]# #ai[话题]# #人工智能[话题]# #互联网[话题]# #机器学习[话题]# #计算机[话题]# #深度学习[话题]# #算法[话题]# #大学生[话题]#
来源:Max For AI