还拿不到Manus邀请码?教你体验几款开箱即用的computer use智能体

B站影视 港台电影 2025-03-10 18:56 2

摘要:还拿不到Manus邀请码?来体验这几款computer use 智能体无需等待Manus邀请码,即刻体验这5款computer use智能体Manus智能体邀请码难到手?试试这些能够操作电脑的的AI AgentManus邀请码遥不可及?这些电脑使用智能体值得一


还拿不到Manus邀请码?来体验这几款computer use 智能体无需等待Manus邀请码,即刻体验这5款computer use智能体Manus智能体邀请码难到手?试试这些能够操作电脑的的AI AgentManus邀请码遥不可及?这些电脑使用智能体值得一试Manus智能体并非唯一选择,试试这些电脑使用AI Agent拿不到Manus邀请码?试试这些computer use智能体

文/王吉伟

我在今年1月初写了2025年的AI Agent发展十三大趋势,其中两个趋势是多Agent系统开始流行和GUI Agent产品得到更多应用,没想到来得这么快。

推荐阅读:智能体商用元年开启,2025年AI Agent行业发展十三大趋势

最近几天,集多Agent架构、computer use、GUI智能体等技术和概念于一身的Manus,通过一些媒体、科技博主的报道和渲染,在 “比肩DeepSeek” “AI Agent 的GPT时刻” 等一浪强过一浪的声浪中,Manus一夜出圈。

官方资料显示,Manus通过多Agent架构(Multiple Agent)将任务拆分为规划、执行、验证等子模块,每个Agent基于独立的语言模型或强化学习模型,通过API协同工作,最终在虚拟机中调用工具(如编写代码、爬取数据)完成任务。这些特性,是多智能体架构的通性。

这样的项目实现,对于不懂代码的可能很难。对于懂代码的来说,好吧,来自知名多Agent架构MetaGPT的3个小伙子仅用了3个小时就把Manus复现了。这个项目叫OpenManus,到这篇文章发布时已经有16.3k stars了。Manus的出圈以及短期内体验,间接捧红了这个同类型开源项目,泼天富贵就这样简单地转移了。

项目地址:https://github.com/mannaandpoem/OpenManus

当然快速复现Manus的团队不只一个,同样是知名多Agent架构的Camal团队也仅用了0天就复刻了Manus,这个项目叫作owl,目前也有4K stars了。

项目地址:https://github.com/camel-ai/owl

也就在这几天之内,已经出现了多个复刻Manus的开源项目。3月这才刚开始,多智能体架构、computer use、GUI智能体的概念就彻底爆发了。

再说回Manus。

在应用场景方面,Manus覆盖旅行规划、股票分析、教育内容生成等40余个领域。这么多场景任务都能实现,再加上自主执行的能力,当真是媲美钢铁侠的“贾维斯”助手了。这样的噱头,想不吸引人都难。

所以,其核心卖点在放在了“自主执行”能力上与场景通用上。

Manus的核心架构与Anthropic的“Computer Use”高度相似,依赖多Agent虚拟机环境完成任务。“自主规划”能力则基于现有大语言模型(如GPT-4)的调用,很有可能在任务规划模型上也用了DeepSeek,可以大大降低成本。

因为Manus没有自研基础大模型,而是通过整合OpenAI的GPT-4、Anthropic 的Claude等第三方模型实现功能,其核心架构被定义为「虚拟机+多模型协同」的封装模式‌。这种做法,也就是业界所谓的“套壳”。

有业内人士直言,Manus的核心能力,如任务拆解其实与Devin、Cursor等现有产品相似,其创新更多体现在工程封装而非底层技术突破。

Manus号称全球首款通用AI Agent,对于此只能说智者见智了。通用AI Agent意味着多场景匹配、跨场景应用 多智能体协作乃至跨平台应用,背后需要强大算力和稳定网络的支撑,需要多重模型的综合应用,更需要对高并发支持。

LLM Based Agent,性能和功能取决于LLM的能力,理论上当前的大语言模型可以支撑通用AI Agent实现,但在任务执行时间 任务完成度上对用户体验是很大的考验,一个复杂的任务可能会需要很长时间,一些用户的体验记录也证实了这一点。

更长的任务执行时间,意味着更多token的消耗。面对一个动辄需要数十分钟才能完成任务,token消耗会是一个无底洞,也就意味着更高的成本,这样的性价比估计也只有特殊需求的企业能考虑了。至于有些视频说的提交了任务明天等着任务完成,不怕烧钱的用户当然也是没问题的。

性价比与成效比,决定了很多大厂至今也没有打出通用AI Agent的旗号,还是主要在攻击垂直智能体,这也是近几年智能体的主要发展方向。 让人有些不爽的是,一边轰轰烈烈的宣传,一边却疑似却搞起了饥饿营销。现在,邀请码仍一码难求,当然也给了很多人炒作邀请码的机会,商机无处不在。

邀请码一码难求的原因,或许是申请的人太多,也有可能是根本不想放码。不放邀请码的好处是体验的人少负面评论少挨骂就少,坏处是因为大家体验不到挨骂也不少。据说,就连一些力捧Mannus的AI大V和公知也有塌房的风险。

当然更有可能是官方目前购买的算力无法支撑这么多人同时体验,毕竟高并发需要大算力和强网络。

不过也没有关系,既然还拿不到邀请码体验不了Manus,我们可以体验几个同类产品和项目。这里,王吉伟频道就为大家介绍几款computer use、GUI的开源项目。除了最后一个,都是开箱即用的。

1、Goole AI Studio

Google AI Studio 是一个集成了多种 AI 功能且易于使用的 AI 开发平台,专注于简化 AI 模型的创建、优化和部署流程。它旨在降低 AI 开发的门槛,使开发者无需深厚的机器学习背景也能快速上手,同时为专业开发者提供强大的工具支持,以满足复杂项目的需求,快速实现 AI 驱动的创新项目。

想要在Google AI Studio体验与程序互动很简单,只需要点击页面左上角的实时流,右面设置栏模型默认Gemini 2.0 Flash,输出格式选择文本或者语音。

选择想用的工具,再点击页面中下部的 共享屏幕 ,选择与窗口、浏览器标签页或者整个屏幕活动,就可以进行交互了。

这里我选了一个名为 AI Agent的GPT时刻的浏览器标签页,并询问Manus是什么,截图如下。事实证明,语言交互体验更好一些。

同样大家还可以选择与Gemini实时对话,或者与Gemini交流通过摄像头观察到的各种实物,未来应用非常有想象空间。

在入门应用程序中还有一个视频分析器,怎么使用待大家自行探索。

对于一个相对成熟的网页端AI应用,应用起来并不难,大家可以自行体验,这里就不多做介绍了。当然对于开发人员,Google AI Studio 还可以开发出更多功能。

这个产品最大的痛点是需要科学上网,相信聪明如你一定能解决这个问题。实在不方便的朋友,可以选择体验后面的几个项目。

体验地址:https://aistudio.google.com/prompts/new_chat

2、UI-TARS-desktop

UI-TARS Desktop 是由字节跳动开发的一款基于 UI-TARS(视觉 - 语言模型)的 GUI Agent应用程序,它允许用户通过自然语言控制计算机。

该应用支持跨平台(Windows/MacOS)、实时反馈、本地处理等特性,还提供云部署和本地部署指南。用户可通过自然语言指令完成截图、鼠标键盘操作等任务,其模型有多种大小可供选择,以适应不同硬件配置。该项目在Github,目前已经有3K star。

项目地址:https://github.com/bytedance/UI-TARS-desktop

这个项目提供了安装程序,用户可从项目发布页面下载最新版本,MacOS系统和Windows系统都适用。

使用起来也很简单,在下面的页面根据自己的系统情况下载最新的0.06版本,安装玩打开软件程序。软件长这样,界面非常简洁,很难跟智能体联系到一块。

下载页面:https://github.com/bytedance/UI-TARS-desktop/releases/tag/v0.0.6

0307 获取。

想要体验操控电脑的关键,是要调用字节开发的视觉语言模型UI-TARS。部署该模型有两种方式,云部署和本地部署。

云部署 :推荐使用 HuggingFace 推理端点进行快速部署,提供了英文和中文的部署指南。本地部署 [vLLM] :推荐使用 vLLM 进行快速部署和推理,需安装 vllm>=0.6.1。项目提供了不同大小的模型供用户根据硬件配置选择,并给出了启动 OpenAI 兼容 API 服务的命令。

本地部署对于没有代码基础的朋友有些麻烦,这里我们选择云部署。官方在Hugging Face 上提供了三种型号尺寸:2B、7B 和 72B。为了实现最佳性能,建议使用 7B-DPO 或 72B-DPO 型号(根据您的硬件配置)。

对于云部署,官方目前提供了火山引擎部署、魔搭部署和Huggingface Inference Endpoints云部署三种,都需要充点小钱。考虑网络速度、稳定性以及充值方式,Huggingface被排除。剩下的两个国内云厂商,因为阿里云早有账户就选了阿里云。这里以UI-TARS-7B-DPO为例,教大家怎么通过魔搭进入阿里云PAI入口部署该模型。

通过下面网址,进入魔搭的模型信息界面。目前新用户注册,限时赠送100小时免费GPU算力,包含100小时32GB显存GPU+长期免费CPU计算资源(不是广告)。

鼠标划到该页面右上方的 部署 按钮,点击弹出的菜单,会进入阿里云PAI平台的该模型界面,并自动进入UI-TARS-7B-DPO模型的部署页面,页面右半部分是部署操作菜单。如果没有弹出部署菜单,点击页面右上角的部署按钮。记得在页面左上角,确认是不是要部署的模型。

模型部署页面都保持默认就行,默认是一台30G的Nvidia A10显卡云主机。我们要做的,就是在这台云主机上部署UI-TARS-7B-DPO模型。最后点击模型部署页面左下角的部署按钮。进入部署页面,等待几分钟。

点击页面左侧 模型部署 下的 模型在线服务,右面主体部分就会显示你已经部署好的主机。如果账户有钱,主机会处于启动状态。

这台服务器机型,目前的费用是10.5元/小时,体验完记得停止,不然会一直消费。我充了50元,但体验完忘了关机,今天已经因为欠费而停机。

阿里云充值页面,如下:

下面说一下如何在UI-TARS-desktop调用UI-TARS模型。点击 模型在线服务 页面的你所部署主机的调用信息,会弹出调用信息的详细页面。

打开UI-TARS-desktop软件程序,点击右上角的 齿轮 按钮,弹出模型设置窗口。

语言选中文,VLM Provider选vLLM。VLM Base URL一栏,填云主机的访问地址。VLM API Key一栏,填写云主机的Token密码。VLM Model Namet填写模型名称UI-TARS-7B-DPO。其他选项,保持默认。

点击左下角的 Save 按钮,保存模型信息。关闭软件,再次打开(这点很重要),就可以使用了。下面放两个官方案例视频,大家可以试着复现一下。

,时长

00:23

使用Web浏览器获取 SF 的当前天气

,时长

00:28

发送内容为“hello world”的 Twitter

至于更多的玩法,就交给大家去探索了。

3、midscene

Midscene.js是一个Web 自动化开源项目,旨在让AI成为浏览器操作员。用户只需用自然语言描述需求,AI就能操作网页、验证内容和提取数据。它支持多种模型,包括UI-TARS和Qwen2.5-VL等开源模型,适用于UI自动化场景。

项目特点包括自然语言交互、Chrome扩展体验、与Puppeteer/Playwright集成、支持开源和通用模型、可视化调试报告、缓存支持以及完全开源。Midscene.js提供丰富的资源和社区支持,方便开发者快速上手和深入开发。

项目地址:https://github.com/web-infra-dev/midscene?tab=readme-ov-file

UI-TARS在项目页推荐用Midscene.js体验模型的Web自动化,开发者可以用自然语言对网页进行控制和交互,能够充分发挥UI-TARS的能力。

Midscene.js目前支持GPT-4o、Qwen-2.5-VL和UI-TARS三种多模态模型。三种模型各有特点:

GPT-4o:平衡模型,使用更多代币。Qwen-2.5-VL:开源 VL 模型,性能与 GPT-4o 几乎相同,使用阿里云服务时成本更低。UI-TARS:开源、端到端的 GUI Agent模型,擅长目标驱动任务和纠错。

Qwen-2.5-VL目前还在优惠期,免费赠送用户1000000 token,当然体验要用它了。下面,我来教大家如何使用Midscene.js调用Qwen-2.5-VL体验大模型的网页自动化操作。

首先,需要找到模型调用地址。通过下面网址,打开阿里云百炼大模型平台,如果没有注册需要注册成为阿里云用户。

然后在模型广场,找到通义千问2.5-VL-72B这个模型,点击查看详情。

在打开的模型详情页,我们可以看到模型介绍、计费详情、免费额度、模型限流等模型信息。在 模型授权下面的模型调用选项,点击右面的 授权 按钮,在弹出的页面点击 确定 按钮,即可完成模型授权。

点击页面上方的 API示例 ,在打开的页面找到 使用SDK调用时需配置的base_url ,记住这个地址,可以临时粘贴到文本编辑工具中。

在软件程序中调用大模型,除了 base_url ,还需要知道API KEY。点击页面右上角的 查看我的API-KEY ,在弹出的的页面,如果已经创建了,点 查看 并复制API-KEY。

如果没有创建,需要点击 创建API-KEY 按钮,创建一个新的API-KEY。在创建页面,描述可以随便填,点击确定就好了。然后查看并复制你的API-KEY,也记住这一串密码。

到这里,大模型调用的准备工作完成。接下来,进行Midscene.js的安装、配置和使用。

用chrome浏览器或者egde浏览器觉得打开下面网址,安装 Midscene.js的Chrome扩展程序。安装扩展程序,需要科学上网。

安装好以后,把Midscene.js扩展程序在工具栏中显示。点击Midscene.js打开浏览器侧边栏,第一次打开需要配置大模型信息。点击 Click to set up 按钮,打开模型信息输入页面(Env Config)。

还记得刚才让你记录的阿里云百炼Qwen-2.5-VL模型的base_url 和API-KEY吗?这里只需要将下面的API-KEY改成你的就行。

OPENAI_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"

OPENAI_API_KEY="你的API-KEY"

MIDSCENE_MODEL_NAME="qwen2.5-vl-72b-instruct"

MIDSCENE_USE_VLM_UI_TARS=1

如果使用之前在阿里云PAI平台购买云主机配置的UI-TARS-7B-DPO模型,模型信息按下面配置:

OPENAI_BASE_URL="你的访问地址/v1"

OPENAI_API_KEY="你的token密码"

MIDSCENE_MODEL_NAME="UI-TARS-7B-DPO"

MIDSCENE_USE_VLM_UI_TARS=1

这里我们把qwen2.5-vl-72b-instruct的配置信息粘贴到Midscene的Env Config框,点击 save 按钮保存。

配置完成后,可以立即体验 Midscene。扩展中有三个主要选项卡,功能简介如下:

Action:使用 action 与网页交互,例如“在搜索框中键入“Midscene”或“单击登录按钮”。Query:使用 query 从 Web 页面中提取 JSON 数据,如 “extract the user id from the page, return in { id: string }”。Assert:使用 assert 验证网页,例如“the page title is ”Midscene”。

我们试一下Action功能。打开微博主页,在Midscene的指令输入框输入 ”发一条新微博:大家好,我正在使用 Midscene的Action功能。“

操作过程见下图,网页周边有蓝色彩条,就是它在工作了。这个视频动图进行了加速,全程实际用时大概1分20秒。每完成一次任务,Midscene都会生成一个任务流程视频。

我们再体验一下它的Query数据提取功能。打开小红书主页,在Midscene的指令输入框输入 ”提取页面的前10条内容的标题、用户名和点赞数“。

同样视频动图也加速了,执行这个任务,大概用了1分钟40秒左右。

关于midscene的网页自动化操作,大家可以试着解锁其他技能。此外,Midscene Chrome 扩展还支持一种桥接模式,允许用户使用本地脚本来控制 Chrome的桌面版本。下面是关于桥接模式的说明文档,感兴趣的小伙伴可以自行探索。

4、智谱GLM-PC

GLM-PC是智谱公司推出的一款基于多模态大模型CogAgent的电脑智能体。它能够像人类一样“观察”和“操作”计算机,协助用户高效完成各类电脑任务,如文档处理、网页搜索、信息整理、社交互动等。

目前GLM-PC 已经迭代升级到基于智谱多模态大模型 CogAgent的1.1.1版本,推出“深度思考”模式,同时支持 Windows和Mac 系统。

开箱即用,是GLM-PC的主要特点,不需要再做大模型的适配。

大家可以通过以下网址,访问GLM-PC官网,下载适合自己系统的软件版本,这里也附上安装指南。

下载:https://cogagent.aminer.cn/home#/downloads

教学视频:https://zhipu-ai.feishu.cn/docx/PVEdd0C6yoZJl5xevsRcupYtnvg

需要说明的是,目前该产品还在内测阶段,需要申请内测体验资格。申请一般一天之内通过,被加入白名单后就可以通过手机发送验证码登录了。

申请体验:https://www.wjx.cn/vm/YtHMOrW.aspx#

这里我用Windows 10来安装和演示,安装后打开软件,软件界面是这样的。

下面开启体验时间。我们来根据官方的教学视频,做一个案例复现。

GLM-PC有两种模式,点击 新建对话 按钮后,会让你选择使用极速模式还是深度思考模式。

先体验急速模式,打开小红书,登录账号。在GLM-PC的对话框指派任务,输入指令:

打开这个网址「11 【2024款小米su7落地价与配置参考 - 漂亮妹妹 | 小红书 - 你的生活指南】 😆 zd6bLT3R0aC1cgY 😆 https://www.xiaohongshu.com/discovery/item/6710759d0000000024019e5a?source=webshare&xhsshare=pc_web&xsec_token=ABsV-IYvSAwtUlCA_lC0SCYnEhX-KO0eZCpFloefapQrE=&xsec_source=pc_share 」,把这个视频的账号昵称、点赞、收藏、评论数据,保存到新建Excel表中,保存命名为“小红书数据”

任务执行过程获取了数据,也打开了电脑上的WPS,但是卡在新建表格的循环中,没有成功执行任务。

再体验深度思考模式。同样的指令,输入到对话框。

GLM-PC经过指令分析后进行任务分解,然后执行。会打开系统默认浏览器,打开小红书网页,然后按照分解的任务执行。

任务执行过程中,打开小红书的操作可以看到,提取数据和把数据写入Excel表格的过程看不见,但真的生成了表格并放到电脑桌面,任务执行成功。全程大概用了50秒,执行过程及结果见下图,动图有加速。

再来复现一个案例。还是在深度思考模式下,输入以下指令:

在这个「https://www.dxsbb.com/news/277.html」六级词汇里面找3个,然后把给每个词造句,把词汇和对应的造句粘贴到新建Word文档中,保存命名为“六级英语词汇学习"

任务执行完以后,可以在电脑桌面找到一个名为 六级词汇 的word文档,打开以后有相关内容,执行结果见下图。

这个任务的执行时间,大概用了1分3秒,动图有加速。

测试多个案例后,一个简单的体会是它需要清晰明确的指令,对于直接给出网址的操作很准确,但在本地其他软件上的操作比如文本发送等还不是足够精准,微信发送信息和文件的操作,我是一次没有成功。但是在web页的操作方面,比如小红书的信息提取和保存,任务执行尚可。

其他教学视频的案例,大家可以自行去尝试。如果这些教学案例都能实现,就可以在他们的基础上加一些料了,可以有更多玩法。

5、Open Manus

最后,再来体验一下文章开头提到的MateGPT团队用3个小时开发复现Manus的项目Open Manus。这是一个无需邀请码即可实现任何创意的项目,由 MetaGPT 的团队成员在 3 小时内完成开发,是一个简洁的实现方案。

对于这个已经有16K stars的开源项目,为了满足大家的好奇,这里也来简单体验一下。

虽然涉及到代码,但Open Manus的部署相对简单。只要你懂点代码,并且电脑上装有Anaconda,就可以通过以下步骤安装。

安装

创建新的 conda 环境:

conda create -n open_manus python=3.12

conda activate open_manus

克隆仓库:

git clone https://github.com/mannaandpoem/OpenManus.git

cd OpenManus

安装依赖:

pip install -r requirements.txt

配置

OpenManus 需要配置使用的 LLM API,请按以下步骤设置:

在 config目录创建 config.toml文件(可从示例复制):

cp config/config.example.toml config/config.toml

编辑 config/config.toml添加 API 密钥和自定义设置:

# 全局 LLM 配置

[llm]

model = "gpt-4o"

base_url = "https://api.openai.com/v1"

api_key = "sk-..." # 替换为真实 API 密钥

max_tokens = 4096

temperature = 0.0

# 可选特定 LLM 模型配置

[llm.vision]

model = "gpt-4o"

base_url = "https://api.openai.com/v1"

api_key = "sk-..." # 替换为真实 API 密钥

快速启动

一行命令运行 OpenManus:

python main.py

接下来,就可以通过终端输入你的需求和创意了。如需体验开发中版本,可运行:

python run_flow.py

模型需要选择兼容OpenAI Function Call的模型,这里我使用了通义千问的qwen-max-2025-01-25模型,直接调用即可,目前有1000000免费使用额度。执行任务之前记得打开科学上网,网络搜索默认调用google_search工具。

输入一个简单的指令:到谷歌搜索AI Agent,提取前10条搜索结果的标题和链接,保存为.txt文件。

回车后,OpenManus开始运行,它会把你指定的任务分解为30步,一步一步开始执行。我这个指令不需要执行太多的步骤,只执行到第4步任务就结束了。

执行完毕后,它自动生成一个名为 AI_Agents_Search_Results 的txt文件,保存在了项目主目录。打开以后,是这样的。

部署完以后,目前体验起来还感觉不到惊艳。简单的任务还好说,复杂的任务不好执行。30步的任务分解,如果30步都执行完,需要大量消耗token不说,还需要很长的等待时间。

所以目前这个版本,能够完成完整的30步任务执行就已经算是成功了,体验上任务完成度并不是很好。有技术人员调试程序,一晚上就消耗了100万+的token。

基于大模型的AI Agent尤其是多Agent的性能和体验,最终还是体现在大模型上。基于目前已有大模型执行任务能到这种程度,已经是很大的进步了。

从大家的试用反馈来看,仍然是Claude 3.5\3.7以及GPT-4o等模型,在任务执行中表现得相对好一些。国产模型,目前大多选择通义千问或者DeepSeek,官网以及硅基流动调用API都可以。

有些技术达人已经实现了本地模型调用与部署,这一块儿我也会继续跟进。

对于OpenManus这个项目,官方说以后会以3-4天为周期进行迭代,可见其还是足够重视的。后续会有很多新版本优化,感兴趣的同学可以在其发布新版本后入手体验,到时候可能就会出现一些项目的资源整合包了。

目前开源社区正在快速出现类Manus的多智能体架构computer use AI Agent项目,王吉伟频道也在持续关注。如果大家对相关开源项目部署感兴趣,后面我也可以出一些教程。

后记:让子弹再飞一会儿

说实话,体验完这几款computer use智能体产品以后,从等待时间、操作过程和最终结果来看,王吉伟频道又开始怀念RPA了。目前能够流畅操作PC的,仍然是RPA类的工具,并且RPA也正在向Agent过渡与迭代。后面有时间,我看看能不能体验几个RPA Agent类产品,把过程分享给大家。

Manus能火多久,尚未可知。但Manus确实再次成功引起了大家对多智能体、Computer/phone use、GUI智能体等技术和概念的注意,这对于智能体行业的整体发展大有裨益。

上一个如此被关注的产品,是4个月前Anthropic的claude 3.5 sonnet computer use,国内则是智谱的AutoGLM。Manus毕竟也是国产的产品,需要给予一些宽容和成长时间。

Manus出圈后,一些人认为Manus可能会是ChatGPT之后的Sora。尤其是在“智能体的iPhone时刻”这类观点的推动下,又一个神被造出来了。

于是“再不学DeepSeek就跟不上时代了”这样的逻辑,开始换成Manus ,且一样行得通。又一个99%的人还没有拿到邀请码的被誉为媲美DeepSeek的套壳智能体应用,成了新的焦虑制造机。

就这样,一个邀请码就在一天内被炒到接近10万元,直播间开始直播Manus教程,越来越多的人求码求体验被忽悠。所以与其现在就被各种割韭菜,不如让子弹再飞一会儿,孰轻孰重大家自然一目了然。

通过营销创作的这一波Manus热,反映出了更多人对于智能体的一知半解。当然可能也有一些人属于明知故作,原因吗大家都懂,毕竟营销本质的一面就是金钱开道。所以有观点认为, Manus出圈告诉大家什么才是真正的AI Agent,蛮有意思。

看来,我辈专注智能体之人,还需要继续努力普及AI Agent相关知识了。

王吉伟频道新书《一本书读懂AI Agent:技术、应用与商业》已出版,轻松读懂系统掌握AI Agent技术原理、行业应用、商业价值及创业机会,欢迎大家关注。

来源:王吉伟

相关推荐