摘要:在之前,网上特别火的NAS部署AI教程真的是满天飞,但是我一直没有部署,一是因为部署太过于麻烦,二是我觉得这些体验真的不太好,和手机APP以及网页端体验差别太远了!
大家好,我是加勒比考斯,再次来给大家分享NAS知识!
在之前,网上特别火的NAS部署AI教程真的是满天飞,但是我一直没有部署,一是因为部署太过于麻烦,二是我觉得这些体验真的不太好,和手机APP以及网页端体验差别太远了!
但是,前几天绿联NAS新上架了一个AI Plugins应用,安装打开就能体验,无论是快速换不同模型,还是多个智能体如(AI女友、助理、画家、老师)部署,亦或是其他的API调用、联网搜索进行文生图、文生视频等,竟然都还不错。所以我觉得可以和大家来聊聊。
我用来搭建AI Plugins应用的NAS是绿联DXP4800 Plus,绿联DXP4800Plus采用了英特尔奔腾8505处理器,拥有6个盘位(分别是4个SATA+2个NVMe SSD),拥有1个万兆+1个2.5G网口。奔腾8505这个处理器性能非常强,其处理性能是赛扬N5105的4倍,显卡性能也是2倍还多,无论是搭建虚拟机,多个Docker都是十分轻松的事情,家用NAS性能到了这个程度,已经是天花板了!
另外值得一提的是,绿联DXP4800Plus的2个NVMe SSD插槽均是PCIe4.0的,这意味,它都可以当做半个全闪NAS来用了,要知道全闪的DXP480T Plus也是4个SSD盘位。
此外绿联DXP4800Plus还提供了HDMI接口,以及5个USB接口,还有一个SD卡接口,硬件功能上基本上全部齐全了!你想要万兆网口、10Gbps USB接口、HDMI接口、SD卡接口,能想到的都安排上了。
打开绿联NAS的应用中心,直接安装AI Plugins,然后打开即可。
AI Plugins内置了Open WebUI、Ollama和IPEX-LLM三大核心组件,可完全本地化操作,不需要任何专业技术知识,小白打开就能轻松上手。
很多小白可能不清楚这三个组件,我分别给大家介绍一下:
Open WebUI:这是一个开源、可扩展且用户友好的自托管 AI 平台,专为完全离线运行设计,支持多种大语言模型(LLM)和功能扩展。它集成 OpenAI API、Ollama 模型及多种国产模型(如 DeepSeek、Qwen、讯飞星火等),支持快速切换和多模型管理,而且注意,它支持 GPU 加速。
Ollama:这是一个开源的、轻量化、跨平台和高扩展性的大语言模型(LLM)框架,旨在简化本地部署和运行大型语言模型的流程,通过将模型权重、配置和数据打包为 Modelfile,支持用户通过简单的命令行操作(如 ollama run)快速部署模型,例如运行 Gemma 2B 模型仅需一条命令就行。
IPEX-LLM:这个是英特尔推出的开源大语言模型(LLM)加速库,专为优化在 Intel 硬件(包括 CPU、GPU、NPU 等)上的推理和训练性能设计。放在绿联NAS上面主要是为了调用GPU参与AI运算。
请注意,绿联AI Plugins应用是采用GPU加速的,之前的Open WebUI容器则是使用纯CPU计算,所以绿联AI Plugins的推理速度至少比之前提升3-5倍。
但是更好的体验,意味着也对型号有要求。绿联AI Plugins仅支持DXP4800 Plus、DXP6800 Plus、DXP6800 Pro、DXP8800、DXP8800 Plus、DXP8800 Pro、DXP480T Plus型号。
进去绿联AI Plugins之后,需要填写登录用户的名称、邮箱及密码,点击“创建管理员账号”完成创建流程。
AI Plugins 内置了deepseek-r1:1.5b模型,我们也可以根据自己的需求下载新的其它模型。官方建议用户根据绿联私有云设备的内存大小来决定使用哪个版本,以确保模型能正常运行。
● 8GB 内存:使用 2B 或更小的模型。
● 16GB 内存:使用 8B 或更小的模型。
● 32GB 内存:使用 14B 或更小的模型。
另外推荐使用的热度模型和下载命令也可以供大家参考:
Deepseek-r1:有 7b、8b、14b 三个版本,下载命令格式为 deepseek-r1:版本(如 deepseek-r1:7b)。
Qwen2.5:包含 0.5b、1.5b、3b、7b 四个版本,下载命令为 qwen2.5:版本(如 qwen2.5:3b)。
Llama3.2:有3b、1b 版本,下载命令是 llama3.2:版本(如 llama3.2:1b)。
Gemma2:有 9b、2b 版本,下载命令为 gemma2:版本(如 gemma2:9b)。
Phi3:3.8b 版本,下载命令为 phi3:3.8b。
Phi4:14b 版本,下载命令为 phi4:14b。
绿联AI Plugins 下载模型速度非常快,一小会就下载好了。当然模型并不只有以上推荐的模型,由于AI Plugins内置了Ollama应用,因此我们可以直接在ollama官网上(https://ollama.com/search)查看自己模型并且自己下载即可,还是按照上面的下载方式。
本次的配置主要讲述工作空间里面的模型(智能体)、知识库、提示词、工具等的部署方法,其中该模型与咱们之前说的Model不一样,它更偏向某个身份预设的虚拟人物,比如AI助理,AI女友,AI画家,AI老师等等。
首先,咱们直接进入OpenWebUI社区,点击“发现更多模型”即可进入,该社区是围绕 OpenWebUI 项目形成的开源社区,OpenWebUI 是一个开源的、用户友好的 Web 界面,专为大型语言模型设计。
在这个社区里面,我们可以发现、下载和定制各种 ModelFiles。这些 ModelFiles 能够为与 Ollama 的聊天互动带来更多可能,比如用户可以创建和添加角色 / 代理,自定义聊天元素,以满足不同的聊天需求,如模拟特定人物、提供专业领域知识解答等。
可以看到OpenWebUI社区提供了2种模型安装方式,一种是直接输入绿联NAS本地部署的AI Plugins地址,就可以自动将Agent导入到NAS本地运行。第二种方式就是直接下载JSON格式文件,然后再将文件导入到工作空间的模型里面。无论是导入还是下载都需要注册Open WebUI账号。
需要注意的是,导入的时候要选择使用的基础模型是哪个,这里我们可以选择自带的deepseek-r1:1.5b,但是如果内存足够的话,建议还是选择8B以上。
以上是我使用的一些模型,同样如果要添加一些提示词以及工具也是如此。注意是在OpenWebUI社区最上面的选择栏里面选择“提示”或者“工具”。
可以看到我使用Deepseek-r1:8b模型生成一个故事,用时1分钟,给我讲述一个老长的故事,故事完整且有趣味,细节表现是不错的。
同时我也体验了AI女友Sarah,同样是使用的Deepseek-r1:8b模型,回答的煞有其事的感觉,就是略微有点慢,也可以换回Deepseek-r1:1.5b模型,这样子速度会快很多。
左下角打开,可以看到拥有非常多的选项,AI Plugins 不仅支持调用本地运行的 Ollama,还能通过 API 连接外部模型。若要使用这一功能,用户仅需在 “设置 - 外部连接” 中,填入API的BASEURL以及API KEY,就能轻松调用各类不同模型。
此外还可以再图像里面设置图像生成引擎,默认的是OpenAI,这里也是需要OpenAI的API的,这个需要到OpenAI官网去生成,只要有账号就可以生成。
随着绿联AI Plugins的到来,相信绿联NAS将会变得越来越好用。最后再次推荐绿联的几款值得购买的NAS。而且一定要注意,目前在各个平台上购买绿联NAS可以使用15%的国补,叠加下来价格更低!!!
1、绿联DXP4800 Plus
4+2盘位设定,奔腾8505的处理性能是赛扬N5105的4倍,显卡性能也是极其流弊,家用NAS性能到了这个程度,已经是天花板了!而且还配置了1个万兆网口+1个2.5G网口,HDMI接口,SD卡槽。真的给满了!
2、绿联DXP4800
同样是4+2盘位设定,N100处理器(4核心4线程全小核),性能也是十分强大, 远比之前N5105强大太多,而且是双2.5G网口!还提供了2个NVMe SSD盘位,还给了SD卡槽。主要这个是性价比款,价格实惠。
此外,如果追求极致静音以及高速读写功能,那么还可以考虑全闪NAS,DXP480TPlus。
如果只是新手入门用户,对容量要求不高,那么可以考虑2盘位的DXP2800。
如果对容量需求较高,那么就可以考虑6盘位的DXP6800 Plus,绝对够用。
如果即对容量有要求,也对性能有要求,那么也可以看看DXP6800 Pro,堪称完美的选择。
如果你是企业级用户,拥有一个小型办公室,或者你是网红、视频博主、剪辑师、设计师、摄影、拍摄等职业,那么8盘位的设备你就可以看看了!以下DXP8800、DXP8800Plus、DXP8800Pro三款性能从低到高,哪怕最低的DXP8800采用的1215U处理器性能依然也是其他NAS的天花板!可以放开选啦!
来源:加勒比考斯