谷歌新机器人“大脑”来袭!会思考还能跨物种学习

B站影视 内地电影 2025-09-27 15:26 1

摘要:谷歌旗下DeepMind搞了个大动作,他们发布了专门给机器人和具身智能用的GeminiRobotics1.5系列模型,相当于给机器人换了个超厉害的“大脑”。

谷歌旗下DeepMind搞了个大动作,他们发布了专门给机器人和具身智能用的GeminiRobotics1.5系列模型,相当于给机器人换了个超厉害的“大脑”。

这事儿在机器人圈里还挺让人期待的,毕竟现在大家都盼着机器人能更聪明点,帮咱们干更多活儿。

这个GeminiRobotics1.5系列不是单一模型,它有两个成员,一个是GeminiRobotics1.5,另一个是GeminiRobotics-ER1.5。

本来想简单把它们归为一类,后来发现两者分工特别明确,缺了谁都不行,GeminiRobotics1.5是个视觉-语言-行动多面手。

它能把看到的视觉信息和接收到的指令,转化成机器人能懂的运动指令,让机器人做出相应动作。

比如说机器人要去拿东西,它得先“看见”东西在哪,再理解“拿东西”这个指令,最后才能指挥机械臂动起来,而GeminiRobotics-ER1.5更擅长思考和规划。

它能对物理世界进行推理,还能直接调用像谷歌搜索这样的数字工具,甚至能制定详细的多步骤计划来完成任务。

打个比方,如果机器人要完成一项复杂任务,它就像个“军师”,先想好每一步该怎么做,这两款模型配合起来,就组成了一个强大的智能体框架。

很显然,这种分工协作的模式,比单一模型干活效率要高得多,也能让机器人处理更复杂的情况。

光说不练假把式,咱们来看看这两款模型加持下的机器人,实际干活怎么样,先看垃圾分类任务。

这次是让Aloha机器人按照旧金山的垃圾分类标准,把物品分到堆肥绿桶、回收蓝桶和垃圾黑桶里。

旧金山的垃圾分类标准还挺细致的,一般人刚接触都得适应适应,更别说机器人了。

但Aloha还真完成了,它先是查阅了相关规则,又仔细观察了物品,一步步把分类做好。

我觉得这挺不容易的,这说明机器人不仅能“看”能“动”,还能理解并遵守特定规则,这比以前只会重复简单动作的机器人强多了。

再看打包行李任务,这次出场的是Apollo机器人,用户让它帮忙打包去伦敦旅行的行李,还特意嘱咐要放进针织帽。

本来以为它就按指令把东西塞进行李箱完事,没想到它还主动查了伦敦的天气。

发现伦敦接下来几天会下雨,就贴心地把雨伞也放进了包里。

如此看来,现在的机器人已经不是单纯的“执行者”了,还多了点“人情味”,会主动考虑用户的潜在需求。

这要是以后出门,有这么个机器人帮忙收拾行李,肯定能省不少心,除了这两个任务,我还想到了其他场景。

比如家居清洁,要是机器人能像这样规划路线、判断该用什么工具清洁,那家里的卫生就能交给它了。

还有仓库分拣,机器人能快速识别货物、准确搬运,肯定能提高分拣效率,不过这些目前还只是我的设想,具体能不能实现,还得看后续实际应用情况。

以前机器人行业有个难题,不同形态的机器人,感知能力和自由度不一样,一个机器人学会的动作,很难教给另一个机器人。

就像一个会用筷子吃饭的人,突然让他用勺子吃,可能还得适应半天,更别说机器人了。

但GeminiRobotics1.5解决了这个问题,它有出色的跨具身学习能力。

一个机器人学到的动作,能直接迁移到另一个机器人身上,不用专门为每个新形态的机器人调整模型。

比如Aloha在衣柜场景有过操作经验,Apollo之前从没接触过这个场景,却能靠着Aloha的经验,完成开门、拿衣服这些新动作。

毫无疑问,这是个大突破,这种跨具身学习能力,能大大加快机器人学习新技能的速度。

以后物流行业的机器人学会了分拣,零售行业的机器人说不定能直接借鉴,不用再从头学起。

这样一来,通用机器人的研发进程就能加快不少,不过,也不能太乐观。

现在机器人虽然有了很大进步,但在极端环境下,比如高温、潮湿的地方,性能能不能稳定还不好说。

遇到突发状况,比如执行任务时物品突然损坏,机器人能不能及时应对也是个问题。

更何况,机器人在工作中可能会收集到一些私人信息,数据安全和隐私保护也得重视起来。

总的来说,谷歌这次发布的GeminiRobotics1.5系列模型,确实让机器人离我们期待的“智能伙伴”更近了一步。

以后随着技术不断完善,相信机器人能在更多领域帮到我们,改变我们的生活和工作方式。

要是后续能解决那些潜在问题,说不定通用机器人时代很快就能到来。

来源:鉴史观一点号

相关推荐