还在只用NAS存东西?太浪费了,这些AI工具一定要用起来!

B站影视 韩国电影 2025-07-19 17:51 1

摘要:Dify 是一个开源的 LLM 应用开发平台,融合了后端即服务(Backend as Service)与 LLMOps 理念,为开发者和企业提供生产级的生成式 AI 应用构建能力。

大家好,我是Jack Bytes,一个专注于将人工智能应用于日常生活的程序猿,平时主要分享AI、NAS、开源项目等。

众所周知,NAS的定位是网络存储,但,仅仅是网络存储吗?

NAS本质上是一个7x24小时运行的低功耗服务器,结合docker,能运行海量的应用程序。

今天,给大家介绍一些好用的AI工具,丰富你的NAS功能!

Dify 是一个开源的 LLM 应用开发平台,融合了后端即服务(Backend as Service)与 LLMOps 理念,为开发者和企业提供生产级的生成式 AI 应用构建能力。

自 2023 年创立以来,Dify已服务全球超过 200 万开发者,GitHub 星标数突破 60,000。其技术栈覆盖从数据预处理到应用部署的全生命周期,支持数百个开源与商业模型,包括 GPT、Llama、DeepSeek 等,兼容任意符合 OpenAI API 标准的模型。

低代码 / 无代码开发:提供可视化配置界面,如可视化工作流设计器,用户通过拖拽式操作就能搭建复杂 AI 流程,无需编写大量代码,降低了开发门槛,即使是非技术人员也能快速上手。多模型支持:兼容数百个主流大模型,包括 GPT 系列、Claude、Llama3 等,还支持 OpenAI API 兼容的私有化模型,企业可以根据需求灵活选择模型,也可以在不同场景下无缝切换模型。RAG 增强检索:内置高质量的检索增强生成(RAG)引擎,支持 PDF、PPT 等 20 多种文档格式的语义化处理,结合混合检索与 ReRank 优化,显著提升回答准确性。智能体(Agent)生态:为 AI Agent 提供了 50 多种内置工具,如谷歌搜索、DALL・E、Stable Diffusion 和 WolframAlpha 等,支持自定义工具集成,基于 ReAct 框架设计多智能体协作流程,可让 Agent 自主调用系列工具完成复杂任务。企业级 LLMOps:提供应用监控、日志分析及数据标注功能,支持持续优化提示词、数据集和模型性能,还具备成本分析、效果评估等能力,帮助企业实现对 AI 应用的全链路管理和持续优化。企业级特性:包括 RBAC 权限管理、审计日志、数据隔离等合规功能,通过 ISO 27001 认证的基础设施,支持千万级日请求处理,满足企业对数据安全和合规性的严格要求。

克隆 Dify 源代码至本地环境

# 假设当前最新版本为 0.15.3git clone https://github.com/langgenius/dify.git --branch 0.15.3

进入 Dify 源代码的 Docker 目录

cd dify/docker

复制环境配置文件

cp .env.example .env

启动 Docker 容器

docker compose up -d

通过这些步骤,你可以在本地成功安装 Dify。

在浏览器输入下面的网址访问:

OpenWebUI 是一个开源的自托管 AI 平台,专为本地部署设计,支持完全离线运行。它兼容 Ollama、OpenAI 兼容 API 等多种大语言模型(LLM)运行框架,提供直观的 Web 界面和丰富的扩展能力,适用于个人开发者、企业和教育机构构建自定义 AI 应用

无缝集成 Ollama 模型库(如 LLaMA、Mistral)和 OpenAI 兼容服务(如 Azure OpenAI),支持动态切换模型。

从模型下载、推理到用户交互全链路本地化,满足 GDPR 等隐私法规要求。

通过插件系统和 Python 函数调用,可快速集成自定义逻辑(如实时翻译、有害内容过滤)。

交互与界面设计:响应式布局支持桌面、移动端自适应,提供渐进式 Web 应用(PWA),支持离线访问和类原生体验富文本支持:全面兼容 Markdown 和 LaTeX,支持代码高亮、公式渲染,适合技术文档和学术场景多模型协同:支持同时调用多个模型进行对比,例如用 GPT-4 生成创意、用 Claude 分析数据,组合输出结果RAG增强检索:本地 RAG 引擎支持 PDF、PPT 等 20 多种格式文档的语义化处理,结合混合检索(向量数据库 + 关键词搜索)提升回答准确性插件系统:通过 Pipelines 框架可注入自定义 Python 逻辑,例如集成 Langfuse 进行使用情况监控、LibreTranslate 实现实时翻译工具集成:原生支持 AUTOMATIC1111、ComfyUI 等本地图像生成工具,以及 OpenAI DALL・E 等外部服务

通过下面的Docker命令即可快速部署:

docker run -d \--name open-webui \-p 3000:8080 \-v open-webui:/app/backend/data \--add-host=host.docker.internal:host-gateway \-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \ghcr.io/open-webui/open-webui:main

在浏览器输入http://localhost:3000即可访问。

MoneyPrinterTurbo是一个利用AI大模型,一键生成高清短视频的工具。只需提供一个视频 主题关键词 ,就可以全自动生成视频文案、视频素材、视频字幕、视频背景音乐,然后合成一个高清的短视频。

首先clone项目:

git clone https://github.com/harry0703/MoneyPrinterTurbo.git

然后执行下面命令通过docker启动:

cd MoneyPrinterTurbodocker-compose up

然后在浏览器输入http://127.0.0.1:8501进行访问

AstrBot 是一个松耦合、异步、支持多消息平台部署、具有易用的插件系统和完善的大语言模型(LLM)接入功能的聊天机器人及开发框架。

功能特点大语言模型对话:支持各种大语言模型,包括 OpenAI API、Google Gemini、Llama、Deepseek、ChatGLM 等,支持接入本地部署的大模型,通过 Ollama、LLMTuner。具有多轮对话、人格情境、多模态能力,支持图片理解、语音转文字(Whisper)。多消息平台接入:1.、QQ 官方机器人平台)、QQ 频道、微信、企业微信、微信公众号、飞书、Telegram、钉钉、Discord、KOOK、VoceChat。支持速率限制、白名单、关键词过滤、百度内容审核。Agent:原生支持部分 Agent 能力,如代码执行器、自然语言待办、网页搜索。对接 Dify 平台,便捷接入 Dify 智能助手、知识库和 Dify 工作流。插件扩展:深度优化的插件机制,支持开发插件扩展功能,极简开发。已支持安装多个插件。可视化管理面板:支持可视化修改配置、插件管理、日志查看等功能,降低配置难度。集成 WebChat,可在面板上与大模型对话。高稳定性、高模块化:基于事件总线和流水线的架构设计,高度模块化,低耦合。Docker部署

执行下面命令进行docker部署

mkdir astrbotcd astrbotsudo docker run -itd -p 6180-6200:6180-6200 -p 11451:11451 -v $PWD/data:/AstrBot/data -v /etc/localtime:/etc/localtime:ro -v /etc/timezone:/etc/timezone:ro --name astrbot soulter/astrbot:latest

在浏览器输入http://127.0.0.1:6185即可进入页面。

好了,今天的介绍就到这里了,大家有什么好用的AI工具推荐,欢迎在评论区留言!

一个专注于将人工智能应用于日常生活的半吊子程序猿!

平时主要分享AI、NAS、Docker、搞机技巧、开源项目等技术,喜欢的话请关注吧!

来源:JackBytes

相关推荐