RPA也被AI干死了!!一键生成监听100个小红书博主的工作流

B站影视 欧美电影 2025-10-18 11:59 1

摘要:本文将带你深入了解AI如何赋能RPA(机器人流程自动化),并探讨在自动化任务中,RPA、AI编程以及AI工作流这三大工具的选择与应用。

本文将带你深入了解AI如何赋能RPA(机器人流程自动化),并探讨在自动化任务中,RPA、AI编程以及AI工作流这三大工具的选择与应用。

前天才发了我探索的AI生成N8N工作流的最佳实践,昨天就听八爪鱼的朋友说他们RPA要上AI写流程的功能,我一听就来劲了,抓紧要来了内测权限试下。

看下AI生成RPA流程这件事,现在到底到哪一步了?是不是不用学RPA了?

所以,这两天,我少说跑了十几个case,花了上百元,总算给趟出了一条用AI生成RPA流程的最佳实践。

其中最惊喜的是八爪鱼RPA居然帮我用AI 15 分钟就生成了监控小红书博主的工作流,换以前还不得做几天啊??

但听到这里可能很多朋友开始疑惑了,因为做「自动化任务」这件事,现在选择太多了,主流的有3种:

1. 是相对传统的RPA,搭建「桌面」流程后,可以对系统、网页、程序等进行自动化操作

2. 是后来兴起的「集成型」自动化流程工具,例如 N8N,更多聚焦在“云端API连接”和“数据流转”

3. 是AI编程,尤其是Claude Code这种Agentic Coding能通过MCP访问文件系统、调用Playwright完成页面自动化

到底他们有什么区别?要学哪个才对?

OK,今天这篇内容一次性把 AI➕自动化这件事 给大家讲清楚。

一、三大自动化工具,到底该怎么选?

我的答案是:场景决定工具。

1、RPA —— 聚焦在「任务」本身,解决问题

我是数据分析师,所以我很早就用八爪鱼RPA(以前是八爪鱼爬虫)来做电商数据采集、以及公司内容ERP系统的自动化处理。

这两个场景我认为绝对是另外两个工具做不到的。

别的不说,企业场景下,尤其是我们做电商的,平台有大量的反爬、弹窗等问题。

要是硬说写Python脚本的话,其实也能解决,但需要极大的技术成本

而RPA(以八爪鱼为例)内置了很多现成的组件、拓展,例如风控的各种验证码、各个电商平台的骚操作

都是一键完成的。

另外就是桌面程序的自动化,比如RPA + 剪映实现批量剪辑,让1个人1天生产100个视频。这种降维打击的效率,在任何商业场景下都是王炸。

✅ 一句话总结:RPA聚焦在「任务」本身,适合搞定高重复性、有反爬、需要操作桌面软件的场景。

2、AI编程 —— 聚焦在代码逻辑

后来进入AI时代,我就开始用Claude Code这类工具。它最大的优势是灵活性。

比如我之前那个Case:两句话,让Claude Code+Kimi K2 跑了3小时爬完17个竞品网站、做了一份深度市场数据分析报告

这 17 个独立站,结构位置都多多少少不一样,此时 AI 会在每一步去做判断,所以能适配。

这场景反而另外两个自动化的形式是做不到的,后者都需要高度结构化的规范网站,例如在天猫平台下抓不同店铺的数据,此时不同店铺结构都是一致的。

这种自动化的方式是借助MCP协议来调用各种工具,甚至还可以自动发小红书笔记。

优点是能一句prompt就完成一个自动化任务的需求

缺点是,看似简单了,但因为纯依赖AI,实现极度不稳定,往往这次跑完,下次再跑结果可能就不一样了

✅ 一句话总结:AI编程聚焦在「代码逻辑」,适合一次性的、非标的、需要AI做动态判断的网页自动化任务。

3、AI工作流—— 关注「流程」本身

N8N这类工具的本质,是API的连接器,它只关心云端的数据和指令如何流转。

它最牛的地方,是处理AI Agent非常方便,可以搭建极其复杂的AI能力。比如让多个AI Agent协同工作,分析数据、做出决策、再调用其他工具。这一点,前两者望尘莫及。

但短板也明显:没API接口的服务,它就没辙。

所以在落地场景下,往往需要跟Claude Code搭配,后者开发Python脚本通过FastAPI开放接口给N8N调用,例如这样:n8n+FastAPI=王炸!免费开源我年入7位数的小红书AI矩阵工作流

一句话总结:AI工作流关注「流程」本身,是连接云端服务和AI大脑的神经中枢,但门槛相对最高。

对比下来,我们可以得出一个结论:对大多数想快速解决问题、而非成为开发者的普通人来说,RPA的学习路径最线性、落地效果最直观。

但它的学习门槛,依然劝退了很多人。

不过,大人,时代不同了。

就像 Cursor 彻底改变了人与代码的交互范式,现在,自动化领域也迎来了它的“Cursor时刻”——八爪鱼上新的AI 写RPA流程,真正把门槛踏平。

很快,我们将不再需要关心繁琐的节点和参数,而是聚焦在业务逻辑上,用嘴就能解决问题。

但,真的有这么神?

二、用AI自动生成RPA流程

先小试牛刀,来个简单的。

案例一:采集咸鱼商品信息

我直接扔给它一段话:

打开咸鱼网站https://www.goofish.com/,搜索iPhone16, 点击新发布,选择“一天内”,点击价格,选择“价格从低到高”,进入详情页采集商品内容,价格,浏览数,想要购买的人数,是否包邮等信息,保存到excel文档

八爪鱼RPA会根据你的需求,生成步骤清单

此时要认真检查是否有误,如果有则让它调整,如果没有则可以让它开始

目前,对于网页自动化的场景,仅支持内置的八爪鱼浏览器

接下来AI会自动打开浏览器开始执行上述步骤试运行,并且一边跑一边生成流程

如下图:

试运行好后,流程就生成好了——左边绿色框住的 RPA流程就是 RPA 生成的。

如果有 Excel 之类的结果,会发现只有一条,这是试运行后给你预览的。

如果预览有问题,可以直接在AI 写流程的位置让它继续改

如果没问题,可以点运行主流程,正式跑跑看:

很 lucky,我们运行成功了:

卧槽,这体验太好了!

真的就一句话完成了几十行的RPA 步骤,每个步骤改填好了参数,效率太高了。

案例二:小红书博主监控实战

之前我发了监控了100个公众号的工作流后,就很多朋友找我问有没有小红书的?

目前还没很好的监控方案,所以我们要来试下八爪鱼RPA。

注意,小红书是要提前登录的,在运行先前点上方的「浏览器」,先打开网站登录,再运行主流程。

1、天崩开局

我准备了一个Excel,里面有博主昵称和主页链接

我的提示词:

打开 D:tmp小红书监听.xlsx

表格有两列:用户、小红书号,逐行进行遍历,到https://www.xiaohongshu.com 用「小红书号」搜索用户,然后读取它最近7天发的笔记标题、内容、数据。

结果它会跑去搜「小红书号」???

2、在AI的“射程”内反复横跳

好吧,怪我没说清楚。我开始“雕花”,把Prompt打磨得更精细。

我看了流程是它直接读取Excel后从第一行开始读,所以我强调要从第二行开始:

打开 D:tmp小红书监听.xlsx

表格有两列:用户、小红书号,其中表格第一行是列名,要从第二行开始逐行进行遍历,用表格中的」小红书号」列的值到 https://www.xiaohongshu.com 搜索用户,然后读取它最近7天发的笔记标题、内容、数据。

Well done,能正常抓数据了

但是它对我想要的「最近7天」这个时间限制没实现好

这不是八爪鱼的问题,是小红书这个平台本身在时间筛选上就很模糊

其次就是它会把博主所有笔记都爬下来,虽然这个能力很好,但不是当下语境下我的需求

所以我再再再次优化了我的需求:

打开 D:tmp小红书监听.xlsx

表格有两列:用户、小红书号,其中表格第一行是列名,要从第二行开始逐行进行遍历,用表格中的」小红书号」列的值到 https://www.xiaohongshu.com 搜索用户,读取当前博主最近的10条笔记标题、内容、网址、发布时间、点赞收藏等数据。

你用浏览器的时候要把浏览器最大化,才好看到发布时间

发布时间是在笔记的正文下方,评论区上方,对于正文太长的内容,你要在弹窗的小红书笔记正文的位置滑动一下才能看到(注意不是滑动笔记背后的网页)。

这次,它终于能正确地循环、搜索、打开笔记了。

算下来,可能花15分钟打磨提示词,就能达到原先1、2个小时的搭建效果。

但,我高兴太早了。

定睛一看,数据是有丢失和错位的(小红书真的太难了。。。其实用什么工具都会有这样的误差)

例如第一条的笔记内容,抓取成了评论的内容,发布时间很多是空的,这对「监控」的需求是不能容忍的

3、求助外援API

就在我快要放弃的时候,突然想起来我之前在Github上发现的一个开源项目:XHS-Downloader。这是一个专门用来下载小红书笔记数据的工具,非常稳定。

这是我在之前项目的时候部署的,很久没用了

测了一下,意外的还能用!!

OK,我们希望又来了,现在逻辑变成了,从小红书抓取博主的笔记后,再把链接同步到这个本地部署的小红书爬虫接口,用于补充缺漏的数据。

能不能行呢?新的逻辑变成了两步:

第一步:用AI生成RPA,批量获取笔记链接。

打开 D:tmp小红书监听.xlsx; 表格有两列:用户、小红书号,其中表格第一行是列名,要从第二行开始逐行进行遍历,用表格中的」小红书号」列的值到 https://www.xiaohongshu.com 搜索用户,进入用户主页,逐个点开当前博主最近的5条笔记,读取标题、内容、网址(列名保存为「笔记网址」)、点赞收藏等数据,保存到Excel结果表。

这一步是前面的简化版本,就不演示了。

第二步:让RPA调用API,精准解析数据。

关键是下面这部分的补充,我直接在AI写流程的窗口继续输入

给了一个我原先代码的例子,告诉它如何调用我本地部署好的XHS-Downloader接口。

打开 D:tmp小红书笔记数据.xlsx; 在「笔记数据」sheet,逐行把「笔记网址」的链接通过http的post请求发送到服务器接口获取笔记数据,
具体的操作可以参考以下python代码:
“`
server = “http://xxx/xhs”【这里改成你部署的接口】
def fetch_xhs_data(url):
data = {
“url”: url,
“download”: True
}
response = requests.post(server, json=data)
response.raise_for_status
result = response.json
return result
result = fetch_xhs_data(‘https://www.xiaohongshu.com/explore/64f09f2’)
“`
返回的result数据示例,需要你把这些数据解析回Excel表:
“`
{‘message’: ‘获取小红书作品数据成功’, ‘data’: {‘收藏数量’: ‘1千+’, ‘评论数量’: ’10+’, ‘分享数量’: ’10+’, ‘点赞数量’: ‘1千+’, ‘作品标题’: ‘哈佛本科毕业6年,我发现时代比努力重要’, ‘作品描述’: ‘以前一直觉得自己能去哈佛读本科是因为自己很厉害。’作品类型’: ‘图文’, ‘发布时间’: ‘2023-08-31_22:09:38’, ‘下载地址’: [‘https://ci.xiaohongshu.com/imageView2/format/png’], ‘动图地址’: [None]}}
“`
同时,把完整的http请求结果单独保存到行的末尾「请求结果」列;每成功更新一行就保存一次Excel;同时做容错处理,尽管http请求失败,也写入占位符null

神奇的事情发生了!AI完全理解了我的意图,自动在原流程后面,补充了一个HTTP请求和数据解析的流程。

再次运行,结果完美!数据完整、非常丝滑。

至此,一个稳定、可靠的小红书博主监控流才算真正跑通。

有了这些数据,我就可以像上次做公众号监控那样,计算各种指标,彻底解决「选题」困境。

从0开始,完全用AI写流程,完成这个案例前后花了4个小时。

我给你总结了5条能帮你少走弯路的经验:

1. 提示词不是越长越好的,复杂需求要拆解成独立小任务

这是我反复说过的,但我这次还是头铁了

在AI生成小红书流程的时候,把两步合并成一步,提示词达到了长度上限1000 字符数

导致问题层出不穷,debug了 1 个多小时,老实了。。

正确的方式是把大的任务拆成多个独立小的,小的完成后点应用,然后再继续下一个小的任务。

2. 每个小的需求,只要不点击应用,就可以一直提问并实现修改当前的绿框流程

3. 指令要极端明确

模糊的指令只会得到模糊的结果。比如,要明确告诉它“从第二行开始”、“滑动弹窗内的正文”。

4. 先跑通,再优化

先让主流程跑起来,尽管很多不是你需要的,等跑通再去抠细节。

5. 拥抱“混合模式”

不要执着于只用一个工具。AI生成的RPA擅长模拟浏览器操作,API擅长精准数据抓取,将它们结合,才是王道。

AI的入局,本质上是把RPA这种专业技能“民主化”了。

当人人都能轻松创建自动化流程时,职场竞争的核心就从“会不会用工具”变成了“能不能创造性地用AI➕RPA解决业务问题”,一场新的效率内卷已经开始了。

建议动手花 15 分钟用下这个“生产力杠杆”,看能不能完成别人一天的工作,真的太香了!!

通过这个链接注册八爪鱼RPA就能拿到 10元额度,测下来跑个几十次是没什么问题的

来源:人人都是产品经理

相关推荐