摘要:前言:作为一个半路弃理从文的理工男,大学毕业后大约有15年时间是从事文秘工作,并且先后辗转多个单位,都是主要负责文件起草、文稿起草工作。近两年DeepSeek之类的AI大模型兴起之后,才真切感觉到如释重负,能轻松一点点。我推荐过很多身边好友使用AI写文,但很多
前言:作为一个半路弃理从文的理工男,大学毕业后大约有15年时间是从事文秘工作,并且先后辗转多个单位,都是主要负责文件起草、文稿起草工作。近两年DeepSeek之类的AI大模型兴起之后,才真切感觉到如释重负,能轻松一点点。我推荐过很多身边好友使用AI写文,但很多人说怎么我用AI写出来的稿子,一点自己的风格都没有,而你用AI写得就像是自己写的一样。其实这就涉及到如何使用AI推理写稿正确方法了。此文就以零刻GTi15 Ultra迷你主机本地部署DeepSeek为例,给大家分享一下如何让AI推理写稿风格更像你。
⭕️ 为什么要本地部署AI?
对于常常使用在线AI的用户,可能都有与我一样的体会,有很多内容不适合上网搜索,有很多词汇比较敏感,并且常常担心自己的数据安全问题,也怕在使用在线AI过程中自己的成果被剽窃。如果你也如我一样忧虑,那就玩本地AI吧。
本地AI与在线AI的核心区别,就像是云空间与私有云的区别。相对来说本地AI更安全,用户完全掌握数据、仅在本地流转,数据不需要上传第三方服务器,数据信息泄漏的风险相对更低。而且从适用场景来说,医疗、金融、政务、科研等领域也更适合部署本地AI。
本地部署AI,意味着就需要购置硬件设备,需要考虑AI算力等问题。我目前是在32GB+1TB的零刻GTi15 Ultra迷你主机上,出厂自带AIbox,并通过Ollama部署有deepseek-r1:32b版本,这对于不擅长命令窗口操作的用户,可以省去自己找教程部署本地AI大模型的麻烦。我自己后来又下载添加了阿里云AI模型qwen3:14b、qwen3: 32b,deepseek-r1:8b、14b等不同版本。
⭕️ 为什么选零刻GTi15 Ultra迷你主机?
零刻GTi15 Ultra旗舰款迷你主机自带ollama,出厂就已经部署好deepseek r1:32b版本,并安装有零刻推出的AiBox前台APP,可以直接调用已经部署的AI大模型,也支持用户自行添加硅基流动、阿里百炼、百度千帆、腾讯混元、月之暗面、火山引擎等主流AI模型。
对于本地应用deepseek,其内置小红书文案创作、夸夸机、中英双语专家、写作助理、学术论文指导、代码工程师等22个内置智能体,可以更有针对性满足用户学习、办公、编程、文创、商务等多场景应用。
并且其还支持创建专属于自己的智能体,可以添加知识库,让AI学习自己的既往资料内容等,从而让其更好的为自己服务。
从硬件来说,零刻GTi15 Ultra迷你主机搭载了最新的intel Ultra9 285H处理器,处理器相比上一代的intel Ultra9 185H,CPU性能提升18.5%,核显GPU提升18.82%,AI算力提升99TOPS,提升187%。我这款是自带window11正版授权系统的32GB+1TB标配版。在C盘占用近50%的情况下,鲁大师跑分140万分以上,Geekbench CPU单核跑分2860、多核149141;GPU跑分Open CL 33743、Vulkan 32143,都很硬核。
并且Geekbench实测,AI得分单精度4770、半精度2079、综合9056分,表现也很强劲。
当然用这款小主机,不仅是看中性能,更核心的是其迷你机身设计,桌面摆但不占空间,并且VC热均板+超静音风扇设计,散热很强劲,AIDA64满负荷烤机3小时,热累积不明显,CPU平均温度只有75℃,主板温度54℃,硬盘温度53℃,运行噪声最高只有37dB,待机噪声低至33dB,系统既安静又稳定,跑分实测体验确实非常好!
并且零刻迷你主机全系列产品可享质保5年服务,行业内也是首家这么做,包括主板、原装内存、原装SSD、风扇、散热器、Wi-Fi网卡、电源。我也曾拆机看过这款产品内在做工,确实很不错!用它来跑本地AI大数据模型可靠度比较高。
并且在功能上,其自带SD卡槽、内置双扬声器、配置4枚AI麦克风阵列,配备双万兆网口、USB4.0接口、支持三口异屏输出,这些也大大增加其外部设备兼容性和单兵作战能力。
这里要特别强调一下前置4麦克风阵列,其不仅本身阵列式可以实现5米内360度全景式对话,并且搭载AI芯片,支持环境降噪等功能,配合主流的AI大模型语音对话或用作视频会议主机和视频直播主机也不错。
比如使用电脑版豆包,小主机自带AI麦克风,在线语音提问就非常方便,省去了手动输入文字的麻烦。比如在整理论文或者稿件中碰到问题,直接在电脑上用语音对话功能,就能实现快速的AI语音对话检索。
并且其还预留PCIE无损接口,可以通过零刻专用的EX 显卡坞,这在迷你主机中也是很超前的设计。对于玩AI本地部署的用户,后期至高扩展96GB内存,无损外接RTX50系列独立显卡,就变成旗舰级台式机了!
所以如果有数据安全的忧虑,那就玩AI本地部署吧。并且AI本地部署,还有ollama进阶玩法,比如保留对话历史保存、模型微调等特定功能,还能让本地部署的deepSeek记录用户使用习惯、用语偏好等等,让你的AI专属你,这是在线AI所不具备的功能。
⭕️ 零刻GTi15 Ultra本地部署AI实际体验如何?
说实话本地部署AI,运行如何,主要就看硬件水平,对于零刻GTi15 Ultra迷你主机来说,我有几点感受:
体验一:模型尽可能安装更大的,尽管速度可能略慢
总体来说,对于32GB内存的零刻GTi15 Ultra迷你主机,如果是CPU运算为主,最大都是可以到32b版本。不过由于调用的数据更大,生成的速度会略慢,deepseek-r1 :32b 、qwen3:32b两个大模型的生成速度分别是3.93 tokens/s、3.03 tokens/s。
但如果是运行更小一点的模型,其速度就会大大提升,比如运行deepseek-r1:14b,速度就会翻倍,达到7.52 tokens/s的水平。
当然更流畅的是运行deepseek-r1:8b的模型,其可以达到12.25 tokens/s,这个速度就超过了在线AI的输出速度,感觉到很流畅。
不过如果你不在意效率,从我实际体验来说,还是建议你部署deepseek-r1:32b以上,最好是用32b的,因为32b的参数规模是320亿,14b的参数规模140亿,而8B的只有80亿,所以要想用的好就要用更大的模型。当然如果是综合考虑效率,那就选小模型,更流畅。
体验二:GPU算法比CPU算法更快,记得修改参数
另外就是对于运行本地AI大模型来说,一定要看看是CPU在算还是GPU在算。如果你的设备CPU比GPU强大,那就用CPU来运算,如果是GPU更强大,那就用GPU来算。查看的话直接在运行模型的时候看任务管理器大性能检测就能看出来。
对于零刻GTi15 Ultra迷你主机来说,我的实际体验感受是核显GPU的运算比C PU更快。
比如同样是运行deepseek:8b模型,问你是谁、我是谁,GPU运算是可以达到14.20tokens/s,比CPU高出2个tokens,也就是性能的大约16%。
但由于受到核显显存18GB的限制,在调用核显GPU的模式下,32b的模型是无法运行的。当然,如果你要运行更大模型,那就外接独立显卡吧!
体验三:还有更多玩法,也可以本地部署Stable Diffusion
我也实际测试了本地部署Stable Diffusion,调用CPU AI绘画的体验,体验也不错。输入54字符提示词,2分23秒可以生成一个28次迭代的512*512的AI漫画图。
据其他达人评测分享,AI绘图模型也是可以通过设置来实现核显GPU调用优先的,生成速度可以翻倍。但我对绘画一窍不通,也玩不转爬梯等等,这里就不强行现丑了。
⭕️ deepseek写文稿案例分享:如何让AI推理写稿风格更像你
AI大模型是通过海量数据训练,具备强大语言理解、生成、逻辑推理及多任务处理能力的人工智能体,就其信息调用能力来说,方方面面其实都不亚于一个普通博士研究生的专业水平。所以对于大部分人,当我们在使用AI大模型检索信息、逻辑推理、转写文稿时,更像是唐僧带着本领高强的四个徒弟去取经,也像是导师带着比自己思维更好、脑子更快的学生做科研。
我们要让AI更好的满足自己的需要,就像是唐僧要想方设法让他们跟着自己走正道、修正果、取真经一样,就要不断地唱“only you”。怎么唱的?当然是与DeepSeek多轮对话的形式。
第一步,告诉AI,“我要去取经”
别偷懒,你如果带过徒弟,就知道如果要让他写一篇心得体会或者讲话,一般要交代清楚四个要素:“主题是什么”——决定中心思想;“以谁的身份讲”——屁股决定位置,是低调表态、还是高调指示;“谁是听众受众”——决定语言风格,专业还是通俗,诙谐还是正式;“字数大概多少”——这个要交代清楚,讲话也好写文也好,超字数、超时间是最大的败笔。比如我想让他写一篇学习《道德经》的心得体会,我就基本结合了这几点提要求让deepseek去推理写作。
第二步,反问AI,“元芳,你怎么看”
很多人用到这一步实际上就不回用了,因为大部分人的思维停留在,现在我是审稿人了,我看到AI生成的稿子不满意,就直接上来就提具体的修改意见。我劝你别这样做?为什么呢?你的水平不一定比AI高。还不如换个角度,让AI给AI
审稿,因为你换个思路问AI,学一学狄仁杰的口头禅,“元芳你怎么看”。
当你问了“这篇读书心得体会写得如何?”AI就会毫无保留对上面自己生成的内容进行毫无保留的批评与自我批评。这点可比人强多了,你下属如果写了一篇烂稿子给你,你不满意,你反问大概率他回辩解,但AI不会反驳。如此一来相当于,让孙悟空评价猪八戒的36变如何,于是就有了一堆修改意见。
第三步,指示AI,“具体怎么改”
这个时候你就可以结合AI自己提出的改进空间、以及你觉得不满意的部分,你想要重点修改的部分都指出来,让AI再修改完善。AI修改之后还会给你汇报“修改说明”。
如果你每一部分都按照这三步逻辑来完善自洽,这篇稿子的个性化就越来越鲜明。你不信?看看文章我经过一轮修改后的对比你就知道了。下图是三问后修改生成的文章开头截取。
与第一次生成的对比,就是开头那句“在2500年前的中原大地,老子凝视自然界的万物生灵,思考着人类与宇宙的关系”这句话,都感觉这是电影大片开场白的气势。
总之,AI大模型真是超级牛的工具,玩AI本地部署DeeSeek、阿里云之类的门槛也比较低,网上找教程照猫画虎就能完成。如果你也有类似需求,可能缺的就是一个自带本地AI大模型的零刻GTi15 Ultra旗舰款迷你主机这样的电脑硬件。从我实际体验来说,买同款就基本够用,不需要过度投资。不妨去买一台试玩,零刻新品是支持1个月免费试玩的,不满意还能无理由退货!
来源:数码科技论