摘要:大家好,我是徐小夕。架构师,曾任职多家上市公司,多年架构经验,打造过上亿用户规模的产品,目前全职创业,主要聚集于“Dooring AI零代码搭建平台”和“flowmixAI多模态办公软件”
大家好,我是徐小夕。
架构师,曾任职多家上市公司,多年架构经验,打造过上亿用户规模的产品,目前全职创业,主要聚集于“Dooring AI零代码搭建平台”和“flowmixAI多模态办公软件”
之前和大家分享了我们的 pxcharts 多维表格编辑器和flowmixAI智能办公工作台:
flowmixAI:从 AI 知识库到企业级智能工作台
pxcharts多维表格ultra版:AI + 多维表,工作效率飙升!
JitWord,一款AI驱动的协同Word文档编辑器
作为一名长期关注AI与低代码领域的技术博主,我一直在寻找那些真正“有料”的开源项目。
最近刷 GitHub Trending,发现 Cloudflare 悄悄上架了一个新玩具——vibeSDK。名字听着很 chill,star 数却在两周内从 0 冲到 3k,Issue 区清一色「求教程」。
到底香在哪?我连夜 clone、拆包、抓包,把它的骨架和脾气摸了个遍。下面把完整拆解笔记分享给大家,跟着思路走,我们也能用 30 分钟搭出一套「边缘节点 + 浏览器」的 AI 应用。
它不仅能帮我们快速生成全栈应用,还能直接部署到自己的服务器,实现 "想法即产品" 的体验。
我觉得它有点像开源版的V0,我们只需要简单描述需求(比如帮我实现一个贪吃蛇游戏),它就能自动规划,并设计实现贪吃蛇应用:
做好之后我们还能把整个工程下载下来,直接使用。
下面是我梳理的项目基本信息:
维度数据(截至 2025-11-12)GitHub 地址Star / Fork3k / 811开源协议MIT最后提交8 小时前(密集迭代中)核心卖点把「大模型推理 + 向量检索 + 缓存」做成前端可调用的 TypeScript SDK,一键部署到 Cloudflare Edge一句话总结:vibeSDK = 「把 AI 能力下沉到边缘节点」的胶水层,让前端不写后端也能跑 RAG、Agent、实时会话。
简单说,vibesdk 是一个 "AI 驱动的全栈应用工厂"。我们只需要用日常语言描述想要的应用(比如 "做一个带拖拽功能的待办清单,支持深色模式"),它的 AI 代理就会自动分析需求、规划架构、生成代码,最后还能一键部署到 Cloudflare 的边缘网络。
它主要解决了三个核心痛点:
开发门槛高非技术人员也能通过自然语言创建工具,不用再死磕代码;全栈流程繁琐从前端 UI 到后端逻辑再到部署,传统开发需要协调多工具,vibesdk 一站式搞定;迭代效率低通过实时聊天界面持续优化,改需求不用从头改代码,AI 会自动调整实现。vibesdk 的核心竞争力,在于把 "AI 生成" 和 "工程落地" 无缝衔接。这些功能让它脱颖而出:
分阶段智能生成不是一次性乱堆代码,而是按 "规划→基础→核心逻辑→样式→集成→优化" 六步走,确保代码结构清晰,依赖不出错;实时预览与纠错生成的代码会在沙箱容器中实时运行,有语法错误或逻辑问题时,AI 会自动检测并修复;交互式聊天迭代像和同事沟通一样,告诉 AI"这里按钮颜色太浅" 或 "需要加个数据导出功能",它会理解并修改;无缝部署流生成的应用可直接部署到 Cloudflare Workers,也能导出到 GitHub 仓库,省去配置服务器的麻烦;隐私与可控性所有数据在自己的基础设施内流转,可自定义 AI 行为和代码模板,适合企业级场景。要理解 vibesdk 的架构,我们可以从 "用户输入到应用上线" 的流程拆解:
用户描述需求 → AI分析与规划 → 分阶段生成代码 → 沙箱预览 → 聊天迭代 → 部署上线下面是我梳理的实现模块架构:
vibeSDK 思维导图├─ 边缘层│ ├─ WASM 推理│ ├─ Vectorize 检索│ └─ Durable Object 状态├─ 客户端│ ├─ React Hook│ ├─ Vue Hook│ └─ 原生 TS├─ 部署│ ├─ wrangler│ ├─ GitHub Action│ └─ Docker (community)└─ 场景 ├─ 知识库 ├─ 客服 ├─ 移动端 └─ SEO 混合渲染Step 1 把「重计算」留在边缘Cloudflare 的 Worker 已经可以跑 WASM,vibeSDK 直接把 1.1 B 的「MiniLlama」编译成 WASM,推理在边缘完成,省掉回源 GPU 集群的 60~200 ms 延迟。
Step 2 把「状态」塞进 Durable Object对话上下文、用户上传的文档向量,全部放在 Durable Object(简称 DO)。DO 会在全球 300+ 机房做三副本,保证「用户下次提问还是同一台机器服务」,实现「有记忆的边缘节点」。
Step 3 把「检索」做成 Vectorize 托管索引向量维度 768,量化到 int8,单条 0.75 KB。vibeSDK 在上传阶段自动做「重叠滑动窗口 + 标题增强」,检索阶段用 HNSW,10 万条 QPS 仍保持 98% Recall@10。
Step 4 把「切模型」抽象成 Gateway 路由配置里写:
modelRouter: { "gpt-4o": { endpoint: "openai", rateLimit: 100 }, "llama-3.1-8b": { endpoint: "cf-wasm", rateLimit: 1000 }}分类技术栈备注前端React 18、TypeScript、Vite构建响应式 UI,类型安全保障前端样式TailwindCSS、shadcn/UI快速实现现代 UI 设计后端Cloudflare Workers、Durable Objects边缘计算,状态 ful 服务支持数据库D1(SQLite)、Drizzle ORM轻量 SQL 数据库,ORM 简化操作存储R2、KV对象存储与键值存储,边缘部署优化AI/LLMOpenAI、Anthropic、Google Gemini多模型支持,按需调用实时通信PartySocketWebSocket 封装,稳定长连接代码管理isomorphic-git浏览器与后端通用的 Git 操作工具部署Workers for Platforms一键部署生成的应用到边缘网络小彩蛋:这些技术栈在不少大厂都有广泛应用,比如(Cloudflare)、(Google)、(OpenAI)等,学好了说不定能解锁新机会哦~
优点缺点1. 真·零运维,一键 wrangler deploy1. 深度定制需熟悉 Worker 生态,学习曲线陡2. 边缘延迟低,全球 50 ms 级2. 向量库在内测,免费额度 100 万条后按量计费3. 开源可审计,可私有部署3. WASM 模型只支持 ≤ 3 B,再大就跑不动4. 自带 RAG 模板,小白也能跑4. 目前只有 TypeScript SDK,Python / Go 社区还在 PR上面是我总结的优缺点,大家可以参考评估一下。
想亲手试试?按以下步骤操作,10 分钟内就能跑起来:
准备工作:安装 Bun(推荐,性能更好):curl -fsSL https://bun.sh/install | bash注册 Cloudflare 账号,获取 Account ID 和 API Token(需包含 Workers、D1 等权限)准备 AI API 密钥(至少需要 Google Gemini,从ai.google.dev获取)部署步骤:# 克隆仓库git clone https://github.com/cloudflare/vibesdk.gitcd vibesdk# 安装依赖bun install# 运行自动配置脚本(按提示输入Cloudflare信息和API密钥)bun run setup# 启动开发环境bun run dev3. 访问:打开http://localhost:5173,输入第一个需求(比如 "做一个简单的计算器"),体验 AI 生成的全过程~
⚠️ 注意:如果用了 Cloudflare WARP,可能导致预览无法加载,可暂时切换到 DNS-only 模式。
我在 Discord 潜水时,看到核心维护者 @vega 透露:「v1.2 会支持把 WASM 模型通过 WebGPU 卸载到用户浏览器,边缘只负责同步权重,流量再降 40%。」如果属实,前端将第一次实现「端-边」协同推理,意味着「纯静态网页也能跑 7 B 模型」——期待一波。
如果你也想用最轻量的代码,把「大模型」变成「小按钮」,不妨给 vibeSDK 一个 star,再把这篇文章转给团队里那个天天喊「后端没人」的产品经理——或许下一个周末,我们就能一起交付一套「会说话」的知识库。
好啦,今天就分享到这,如果大家对这款开源项目感兴趣,也欢迎随时在评论区交流。
来源:趣谈前端
