AI销售数据分析神器 + 超强推理模型(销售人,别错过!)

B站影视 内地电影 2025-04-17 15:47 1

摘要:这款AI销售数据分析工具通过自动化分析和推理模型,快速生成详细报告,帮助销售团队精准定位问题、发现亮点,优化策略。无论是产品分析、地区对比还是成本结构,它都能提供全面洞察和可执行建议。

这款AI销售数据分析工具通过自动化分析和推理模型,快速生成详细报告,帮助销售团队精准定位问题、发现亮点,优化策略。无论是产品分析、地区对比还是成本结构,它都能提供全面洞察和可执行建议。

前言

干销售,最头疼啥?数据一堆,看不懂!客户一堆,抓不准!业绩压力大,不知道怎么提升?用这个AI销售数据分析神器,再配上超强的推理模型,销售数据分析变得贼简单!不用再手动整理表格,管理者能轻松掌握团队动态,指定销售策略。销售人,别错过! 用AI武装自己,业绩翻倍不是梦!

效果

销售数据表格内容:

当用户上传了一个数据表之后,首先会调用 GLM-Z1-AirX 推理模型进行推理,先会得到它的思考过程,我们可以看到下面的思考过程非常全面和细致。

数据审查与初步分析 :异常值识别、亮点发现、问题产品识别深入分析与报告结构:总体分析、计算关键指标、趋势分析产品分析、盈利产品分析、亏损产品分析、其他产品分析地区分析、地区销售对比、地区产品分析

最后输出的销售分析报告非常详细:数据概览、核心数据分析(产品变现、地区分析、成本结构)、关键发现、改进建议、执行计划、风险提示,可以说考虑的非常周全且可以直接落地。

教程

整体框架上,主要是使用了插件和工作流的组合模式,完成整个流程。

当用户上传表格的时候,调用插件「文件读取」把文件读取后的内容传递隔离了工作流「SellDataAnalysis」。

整个流程相对简单一共4个节点

开始节点x1(接受输入参数)文本处理x1(提示词整理)自定义插件x1(GLM-Z1-AirX插件)结束节点(输出推理内容)

当表格数据进入之后先调用「GLM-Z1-AirX」推理模型插件进行数据分析总结,在整个过程通过「消息节点」进行实时输出

文本处理:(整理提示词)

你是一个销售总监,帮我根据以下数据写一个销售数据报告,先分析销售数据给出概括以及总结和建议。
数据:{{String1}}

然后将提示词给到 GLM-Z1-AirX 插件,如何编写GLM-Z1-AirX 插件?首先回到扣子空间主页,选择「资源库」然后点击右上角「+资源」选择「插件」。

输入插件名称、描述、选择「在 Coze IDE 中创建」。

然后创建工具,输入名称 GLM_Z1_AirX ,介绍:推理模型

创建完成后,我们看下如何调用GLM大模型,前往智谱BigModel开放平台的GLM接口文档用HTTP请求的方式

文档地址:https://bigmodel.cn/dev/api/http-call/http-auth

只需要参数三个参数即可,第一个是apikey,第二个是模型编码,第三个是提示词

然后我们再回到插件编辑器中,实现HTTP请求代码,需要传入两个动态参数apikey和提示词,model使用的是GLM-Z1-AirX。

import { Args } from ‘@/runtime’;
import { Input, Output } from “@/typings/GLM_4_PLUS/GLM_4_PLUS”;
/**
* Each file needs to export a function named `handler`. This function is the entrance to the Tool.
* @param {Object} args.input – input parameters, you can get test input value by input.xxx.
* @param {Object} args.logger – logger instance used to print logs, injected by runtime
* @returns {*} The return data of the function, which should match the declared output parameters.
*
* Remember to fill in input/output in Metadata, it helps LLM to recognize and use tool.
*/
export async function handler({ input, logger }: Args): Promise { const API_URL = ‘https://open.bigmodel.cn/api/paas/v4/chat/completions’;
const API_KEY = input.key;
const COMMAND = input.command;
const headers = { ‘Authorization’: `Bearer ${API_KEY}`,
‘Content-Type’: ‘application/json’, };
const data = { ‘model’: ‘GLM-Z1-AirX’,
‘messages’: [ { ‘role’: ‘user’, ‘content’: COMMAND, }, ], };
const response = await fetch(API_URL, { headers, method: ‘POST’, body: JSON.stringify(data), });
const result = await response.json; return { data: result.choices[0].message.content, };}

代码实现完成后需要切换到「元数据」

左边区域设置输入和输出的参数右边区域输入参数进行运行调试

apikey如何获取?登陆后台找到密钥管理页面,没有的话可以点击右上角添加新的API Key

后台地址:https://zhipuaishengchan.datasink.sensorsdata.cn/t/F2

新增完成直接可以直接复制即可。

确认没有问题之后就可以点击右上角「发布」。

发布成功后我们回到工作流点击左上角添加「插件」然后选择「我的工具」就可以使用自定义插件了。

输入上个节点组装好的提示词以及key即可调用。

在这里肯定会有人疑惑,为什么不用DeepSeek-R1 推理模型?它不是最好用的推理模型吗?我们可以对比下同样的提示词效果如何?

速度数据对比:

同样的提示词 DeepSeek-R1 用了58秒,GLM-Z1-AirX仅用了12秒。

效果数据对比:直接看结果

DeepSeek-R1:

GLM-Z1-AirX:

然后让DeepSeek-V3作为裁判来进行判断:我分别把DeepSeek – R1的输出内容为【A报告】,GLM-Z1-AirX输出的内容为【B报告】给到了DeepSeek-V3进行判断。

最后得出的结论B报告(GLM-Z1-AirX)胜出。

通过以上速度和效果的对比,所以我们最终选择了GLM-Z1-AirX模型,然后将结果输出在结束节点,整个分析销售数据的工作流就完了!

智谱开源的Z1系列推理模型,上线BigModel开放平台(bigmodel.cn)的有三个版本,分别满足不同场景需求:

GLM-Z1-AirX(极速版):定位国内最快推理模型,推理速度可达 200 tokens/秒,比常规快 8 倍;GLM-Z1-Air(高性价比版):价格仅为 DeepSeek-R1 的 1/30,适合高频调用场景;GLM-Z1-Flash(免费版):支持免费使用,旨在进一步降低模型使用门槛。

对应价格表:

总结

别只盯着那些内置的大模型,有时候需要自己动手自定义插件去寻找解决方案。这样做的好处是,我们的解决方案不会受限,而且还能更灵活。另外,还得提一句,不同的业务要多试试不同的大模型很关键。

每个模型都有它擅长的地方,只有我们深入了解了它们各自的能力,才能更好地驾驭这些大模型,让它们变成我们手中的利器。这样一来,面对难题时,我们就能游刃有余地找到最佳解决方案。

来源:人人都是产品经理

相关推荐