摘要:在日前的发布会上,李未可CEO茹忆开场就用一句话,为大家解开了萦绕在这家创业公司身上的谜团。也向业内宣布,李未可是在这个行业中,与众不同的玩家。
“李未可源自于我们对于AI的相信。”
在日前的发布会上,李未可CEO茹忆开场就用一句话,为大家解开了萦绕在这家创业公司身上的谜团。也向业内宣布,李未可是在这个行业中,与众不同的玩家。
纵观热闹的“百镜大战”,无论是波导还是BB,主流厂商普遍将显示能力作为产品差异化的核心路径。但在这片逐渐同质化的红海中,李未可科技给出了截然不同的答案:
李未可要做的,不是“加了AI的眼镜”,而是用AI构建硬件生态。
这不只是产品设计上的区别,更是技术路径、思维方式的巨大区别。通过对过往产品路径的拆解和茹忆的采访,我们也更加了解李未可的“AI-first”。
不是“加AI的硬件”,而是“为AI构建的终端”
李未可创始人茹忆在发布会上表示:“AI是工具的觉醒,而我们相信最贴近人的交互入口,是眼镜。”
这句话可以说是“开宗明义”,包含了李未可推出产品的出发点。
一方面,我们目前看到所有李未可的产品都来源于让AI“飞入寻常百姓家”。
比如,不管是Meta Lens还是City Air,李未可都不会在其他方面过多纠结,而是把重量做的足够轻,戴起来完全和普通眼镜没区别;把续航做得足够久,上下班通勤,几天一充都没问题;把所有小功能做到足够“精”,180多种语言,嘈杂环境依然准确……再给你一个击穿底价的价格。
显而易见,实用、易得。
形而上来讲,为了让AI更好的落地,他们反推交互方式、芯片架构、重量控制乃至使用场景,最终形成AI能力的物理化体现与场景化承载。
另一方面,李未可除了让智能眼镜作为AI的“宿主”之外,还决定自研大模型。
首先,有一个不容忽略的问题是,从实用、易得到让每个人都觉得“好用”中间还隔着一道天堑。如果你问一个普通消费者,TA期待的AI眼镜什么样,TA都至少会回答你,有个万能的AI助手。
要实现万能的难度是指数级增长的,毕竟人类就是一个会在凌晨两点搜索“毕加索是不是大小眼”的生物,你很难预测他们在走路的时候会不会问出“刚才我原地投篮抛物线的曲率是多少”这种问题。
在这个难度级别上,如果再去接入第三方的通用AI大模型,那就会离最终“好用”的目标越来越远,所以自研大模型就显得非常必要。
同时,这其中也包含着李未可的野心。虽然大模型在C端早已家喻户晓,但真正“让普通用户天天用得上”的AI原生应用,至今仍未大规模爆发。ChatGPT发布之后,许多厂商将AI作为产品卖点加入眼镜、耳机、手表等终端,但真正“有黏性、反复使用、高频依赖”的功能场景仍然比较稀缺。
李未可科技选择正面迎战这个难题。它不是将AI功能“平铺展开”,而是从用户实际使用路径出发,把AI功能浓缩为四个高频场景型能力:AI随时译、AI 随身记、AI随地游、AI随心听。
为了支撑这种AI原生体验,李未可自研了WAKE-AI多模态大模型平台,其2.0版本将重点放在三个维度:多模态感知与理解(语音、图像、文本同步处理)、多智能体协作与推理(Agent任务拆解与调度)、边缘侧离线AI推理能力(适配长时佩戴、弱网场景)。
其中最具代表性的技术架构是“ZeroAgent”,即“零级智能体”。它不是传统语音助手,而是一个AI交互系统的调度大脑,具备自主感知、任务拆解、智能体调度与结果反馈能力。
更简单来理解,这个“0”就意味着起点,零级智能体就是AI的女娲、上帝、指挥官。
举个例子,你在外逛街,对AI说饿了、渴了,ZeroAgent首先会理解这是你的餐饮需求,然后把它拆分成你在哪(定位),你平常爱吃的、爱喝的(偏好识别),附近的餐厅推荐等不同的任务,分发给下面专门负责的AI助手来完成。
这样做有什么好处呢?
与通用大模型相比,Agent分发形式更可控。跟人类工作一样,专业的AI干专业的事,得到的结果更加透明、可信,更少出现突然“胡说八道”的情况;
与传统语音助手相比,零级智能体会先识别和拆解用户需求的真实意图,更加智能化;
此外,Agent形式更加自由。它就像乐高一样,拥有许多个承担独立任务的独立模块,可以根据不同的场景需求自由选用和组合,这也是李未可为未来发展生态埋下的伏笔。
技术深挖,“听说读写”成核心落点
与强调显示、手势、虚拟界面的AR眼镜不同,李未可的智能眼镜四项核心功能,即随时译、随身记、随地游、随心听,都围绕AI能力进行设计与优化。
在主流翻译眼镜多采用通用ASR系统的背景下,李未可选择自行训练自适应模型,强化对小语种、地方口音的识别能力。目前支持180余种语言,重点覆盖“一带一路”国家、东南亚等区域语系,并已在越南、印尼、阿联酋等实际展会场景中验证有效率超过90%。
更重要的是,其翻译系统支持对话、听译、离线三种模式,能够根据网络环境、噪音强度、内容类型自动切换。
根据发布会展示,在会展这种人流量大的环境中,展商面对高达90分贝以上的嘈杂环境,依然可以完成多轮准确对话,准确率约在93%-97%。而这种准确、多场景的能力靠的不是更好的硬件设备,而是专为“群体交互+多语言”的场景微调过的AI模型基础。
随身记也不是一个简单的“录音+转写”模块。它支持会议录音、关键词提取、结构化摘要、任务分派,并能一键生成开发信草稿或会议纪要。
在与米奥兰特合作的多个海外展会中,李未可眼镜通过AI慧记、AI慧写帮助展商在结束展会当天就完成了80+位客户记录、内容整理等工作,极大地提高了商务环境中最需要的效率,也减少了传统人工整理的问题。
在最新的版本中,还加入了多端同步功能,同一账号下,不同端口平台支持实时双向编辑,AI对话推送了多端无缝同步,进一步提升多系统协作效率。
这一系统背后是多模态内容捕捉、时间轴对齐、任务意图拆解等AI能力的集中体现。正如李未可发布会中提到的,“我们不希望你回去写周报,而是你说完话,AI就已经替你生成周报了。”
在生活化场景上,李未可也进行了深度挖掘。旗下的旅拍眼镜View支持“拍照即解说”,结合图像识别、地理定位与大模型生成,实现博物馆、景点、街头建筑等自动解说体验,让AI成为大家旅行的解说员、好搭子。
据了解,View目前支持6800+国内外文旅地标,支持实时对图文问答、AI语音讲解。
实际中,我们只需要拍下想要了解的文物,眼镜就可以自动调用图像识别+文本匹配+播报三重系统,生成专业的展品介绍内容。这不仅是多模态输入的真实落地,更是李未可“让AI真正帮用户感受世界”的产品哲学表现。
“随心听”功能并非传统意义上的“播报新闻”或“读日程”,而是李未可在多模块打通基础上,打造的一个具备任务联动能力的信息播报引擎。
基于李未可科技自研的ASR大模型技术,将用户在使用“随时译”“随身记”“随地游”等功能中产生的关键信息,以个性化、可控的语音形式实时播报,实现“脱手就能获取信息”的智能体验。
值得注意的是,随心听的播报内容,也可以是来自“随时译”“随身记”的结果,就相当于每个人又多了一个私人秘书,能够实现多线办公,也可以省去非常多整理和理解的步骤。
这“四大功能”并非简单聚合,而是李未可挖掘出的AI核心落地点,它们覆盖了出行、对话、记录、获取信息等日常高频场景,也体现了李未可大模型在多模态感知、多Agent协作、端侧离线推理三大技术方向的落地深度。
公司不只是产品,也是“Agent AI操作系统”的布道者
在大家都力求小而美的时代里,作为一家创业公司,李未可选择了一条技术更重、用户体验门槛更高的路,这同样也是一条潜力更大的路。
我们也发现,除了想让AI为大家做点什么之外,李未可也想留下点什么。比如,好的生态。
在采访中,茹忆提到一个有趣的观点,即在未来,AI Agent世界里,语音助手就像是现在的操作系统一样,是负责”执行“的角色:“它会调用各种各样的Agent,Agent就对应我们用的程序。”
留下的这个口子,就是希望向开发者开放这个独特的世界,让更多人参与进来。根据茹忆的介绍,目前接入了DeepSeek、豆包等主流AI平台,在上面发布的Agent也可以接入到李未可的平台中,让更多智能眼镜终端用户也能体验到与手机、PC一样,甚至更好的AI Agent。
当未来的智能设备都可能变成AI智能体的承载体时,谁能率先搭建出AI操作系统与智能体生态,谁就能掌握“终端即平台”的下一个时代。而李未可,正在这条看似冷门但可能最通向未来的道路上,全力前行。
来源:87870网