摘要:“我在停车场当过交通疏导员,在汽车门店当过导购,在餐厅当过下单上菜的服务员,在理发店帮顾客吹过头发……”在商场,人形机器人小麦不断解锁着自己的多重角色。
IT时报记者 孙妍
“我在停车场当过交通疏导员,在汽车门店当过导购,在餐厅当过下单上菜的服务员,在理发店帮顾客吹过头发……”在商场,人形机器人小麦不断解锁着自己的多重角色。
3月26日晚,一场颇具硅谷风的发布会以直播的形式召开,在圆桌论坛激烈讨论具身智能行业话题的同时,魔法原子密集推出人形机器人小麦、四足机器人、首个端到端“原子万象大模型”,以及打造1000个人形机器人落地场景,并量产400台人形机器人进入工业、商业场景等。信息含量之大,让人联想到OpenAI的那场连续12天的发布会“大戏”。
小麦的成长历程:工人、主持人等1000种角色
开场,身高174cm,长着自研灵巧手,搭载大语言模型“大脑”的人形机器人小麦闪亮登场,在它的“生活空间”里,回顾了自己过去一年的成长历程。
从最早的经典控制路线,到强化学习、模仿学习技术路线,小麦运动能力的成长越来越快,走路速度从0.3m/s逐渐提升,目前持续跑步速度可以达到2m/s,走路和跑步的状态越来越像人,能在奔跑状态下适应马路、跑道、草地、山坡等多种环境。今年4月,小麦将参加机器人马拉松比赛,到时看看它是不是能跑得快、跑得稳、跑得久。
2024年11月,小麦就进追觅科技工厂当产线“工人”了,在零部件上下料、物料搬运、产品检测、点胶等岗位实训。从最初的视觉识别、位姿估计和轨迹规划的经典技术路线,进化到快慢双系统的技术路线,小麦已经成长为工厂中的“熟练工”。经过三个月的训练,小麦在高速数字马达上下料工序中的成功率和效率实现了多倍提升。
2025年3月,小麦化身江苏广电总台特邀记者“苏小麦”,赴京参与全国两会报道,通过完成新闻播报、代表对谈、市民街访等多项工作任务,为两会报道注入了科技感和新鲜活力。
前不久,小麦还受邀担任一场行业发布会主持人,参与活动开场、嘉宾对谈等主持环节,以多模态交互能力掌控全场节奏。在AWE2025展台上,小麦成为展会的顶流明星。
从小麦的成长历程可见,人形机器人的落地场景有千百种可能。于是在发布会上,魔法原子宣布将启动“千景共创计划”,拓展1000个合作伙伴,打造1000个人形机器人落地应用场景。
小麦的职业规划:400个小麦正在进入工厂、商场
“我将像手机、汽车一样陪伴在大家身边,带来全新的生活方式。”谈起未来职业规划,小麦不满足于做工厂打工人,商业、家庭场景都将成为小麦落地应用方向。
小麦正在开展量产,今年预计有400台人形机器人进入工业和商业场景。
在商场停车场,小麦作为交通疏导员,可以实时感知商场停车场信息,有序指引车流、指挥停车,并引导顾客乘坐电梯。作为汽车导购的小麦机器人,则凭借VLM视觉语言大模型能力,识别分析用户特征,预测用户偏好,并推荐相关车型。在理发店,小麦智能识别顾客发质后,可以主动调节吹风机工作模式,提供更具针对性的服务项目。餐厅服务员小麦,则通过大语言模型与用户交流,根据顾客喜好推荐菜品,高效完成下单上菜,因为小麦可以实时感知环境变化,避免与拥挤的桌椅、设备、顾客发生碰撞。
小麦头部手部齐全、外观相对完整、身材与人类相近,全身具备42个自由度,能高度模仿人类的动作与姿态,通过智能语音、智能化面部表情、肢体动作与人类自然流畅地进行多模态交互。而且,小麦机身采用高轻度材料,经过轻量化处理和续航优化,小麦已经能长时间提供服务,在工业、商业等场景填补人力缺口。
在2024年12月举行的中国电信数字科技生态大会上,魔法原子与中国电信达成合作,成为天翼数字生活公司的合作伙伴。在家庭场景中,魔法原子正与中国电信开发家庭服务解决方案,探索居家养老、日常协助等应用方向。
“5年之后人形机器人将进入普通人的家庭。”魔法原子总裁吴长征在发布会上提到。
四足机器人化身导盲犬
技术的终极使命是向善。
在发布会结尾部分的彩蛋环节,魔法原子全新项目“光引001”正式曝光,其四足机器人化身导盲犬。
在户外环境中,四足机器人可灵活自适应平地、草地等多类地形。魔法原子四足机器人能够实时感知复杂环境,在遇到障碍物、通过路口等复杂场景中,引导视障人士进行避让,并通过语音进行提醒。
在货柜前,四足机器人可以引导视障人士挑选饮料,探测到附近有评分较高的甜品店,四足机器人还能基于智慧互联功能,帮助她下单一份草莓慕斯,并且进行扫码支付。
“系统显示车辆2分钟到达。”在路边,视障人士很难扬招出租车,他们出行多依赖网约车。四足机器人也可以帮忙下单轿车,还会将车辆预计到达时间准确告诉视障人士,让他们在路边安心候车。
四足机器人不再只会表演跳舞、空翻等能力,不再只是冰冷的代码,而是温暖的力量,在家庭陪伴、视障人士出行、商业导览等场景中提供情绪价值和便捷方案。
原子万象大模型 百万级真实数据
大模型是机器人的“大脑”。原子万象是魔法原子的首个具身智能大模型,融合了视觉语言大模型与动作专家系统,构建了快慢“双模”协同架构。
基于动作专家模型的“快系统”能够响应环境变化,保障机器人各个部位快速适应环境;基于多模态大模型的“慢系统”负责理解复杂环境,并规划长期任务。基于快慢双模协同架构,在端到端框架中,将多模态感知、自主导航、操作抓取与运动控制等功能融合到一起,并与场景深度绑定,让人形机器人在各种垂直场景中实现自主规划和自主作业。
以商业服务场景为例,魔法原子利用商业垂直大模型,赋能人形机器人小麦结合商业产品知识库、衣着信息等消费者显性特征数据进行分析,通过语音、动作等行为主动问候、招揽顾客,推荐合适的产品给顾客,完成商业场景的应用闭环。
大模型也是机器人能力进化的智能引擎。用吴长征的话来说:“搭载大模型的机器人,智能化能力存在百倍、千倍、万倍增长机会。”为了让机器人能够自主进化,赋予它类人行为范式,原子万象大模型借助实时理解场景能力,生成实时运动指令。
大模型之所以能持续优化,要归功于数百万条高价值训练样本。人形机器人需要大规模、群体性工序场景做数据采集、训练学习与能力验证,于是魔法原子与追觅科技达成战略合作,通过持续采集生产环境中的真实数据,让人形机器人从“能理解”进化到“能行动”。
来源:IT时报