Google I/O 2025懒人包:AI全面升级、智慧眼镜首次、搜寻大再生!

B站影视 内地电影 2025-05-21 17:39 1

摘要:每年的 Google I/O 都是科技圈的大日子,今年当然也没有例外。今年的 Google I/O 活动已于美国时间 5 月 20 日早上 10 点(台湾时间 5 月 21 日凌晨 1 点)在加州山景城的 Shoreline Amphitheatre 正式登场

每年的 Google I/O 都是科技圈的大日子,今年当然也没有例外。今年的 Google I/O 活动已于美国时间 5 月 20 日早上 10 点(台湾时间 5 月 21 日凌晨 1 点)在加州山景城的 Shoreline Amphitheatre 正式登场。相关更新,重点非常明确:人工智慧无所不在,从搜寻到穿戴装置,甚至连你拍视频的方式都变了!这篇文章会帮助完整整理 Google I/O 2025 懒人包最重要的五大亮点,让你快速掌握 Google 今年的野心与方向未来。

Google I/O 2025已于美国时间5月20日上午10点(台湾时间5月21日凌晨1点)在加州山景城的海岸线露天剧场正式登场,并通过Google次官方网站和YouTube频道进行直播。本次大会的主题明显聚焦于人工智慧(AI),涵盖Gemini模型、Android XR智慧眼镜、AI搜索体验等创新。

以下为重点整理:

Google 在本次 I/O 上宣布持续精进、强化主力模型 Gemini 2.5 Flash,另外也让 Gemini 2.5 Pro 将「深度思考」(Deep Think)模式,这是一种强化推理能力的技术,让 AI 进行多步推理与更复杂的任务规划。例如,辅助计划旅行不只是查重点,而是遵循流程、响应、自身资料去做出客制化建议。

该版本还支持更大的上下文理解,在处理长篇文件或复杂任务时表现更加稳定。开发者方面也可以利用 Gemini API 使用这些能力当前的应用。

此外Google还在I/O上更明确地展示了Gemini模型已全面整合进Gmail、Chrome、Google搜索和Gemini App等日常工具中,不过仍属测试阶段。

在 Gmail 中,Gemini 于今年夏季推出「个人化智慧回覆」功能。它可以根据你的写作风格、历史内容,辅助撰写风格贴近的回信,相当于根据即将旧邮件与 Google 文件整理旅行的经验,生成自然、具体的回覆内容。

Google 也首次将 Gemini 整合进 Chrome 浏览器的测试版本,提供辅助式帮助。就像你阅读网页时,它能够自动提供摘要、辅助起草回覆、甚至程序生成码,强化日常浏览体验。

传统的搜寻是一问一答,AI模式转向更深入的对话与探索方式。你可以问更多、更多结合层次的问题,AI衍生出染色体多个来源、自动汇整信息,仿佛一个有逻辑的助手而不仅仅是简单链接的聚合器。

AI模式还引入了全新的深度研究模式,支持数百项查询同时处理,几十项内汇整研究报告稿草稿,适合做报告、写作、或大量数据汇整时使用。该功能已经整合进Google的Canvas编辑器。

未来几个月内,Google将进一步导入Search Live(即时搜索)功能,让您用相机进行现场搜寻,直接询问AI,获得外贸搜寻结果。

此外,AI 模式也将逐步支持个人化结构整合。例如,如果您允许链接 Gmail 和日历,搜索时它可以主动考量您的旅游计划、过往偏好与餐饮记录,提供贴近您需求的建议。这些功能都会有明确的标注,并可随时开启或关闭。

Google 在 I/O 2025 上更进一步展示了Gemini 与 XR 技术的结合,它让 Android XR 智慧眼镜不仅仅是一个装置,而是整个生态系的一部分。这些眼镜内建麦克风、喇叭与摄像头,可与手机协作,不需要掏出手机处理消息、拍照、找路,甚至可以进行语音翻译

更重要的是,洞察与双子座的整合,它可以感知你的视角、理解你的姿势,并主动提供帮助。例如当你与外国朋友交谈时,它可以即时翻译对话内容,让你恍然大悟犹如开启“爱情字幕”。

眼镜的镜片还可选配内嵌显示器,在需要的时候显示资讯,例如导航提示、即时通知,并跨越隐私设计避免资讯外泄。

Google 表示这样的设备不仅仅是科技产品,更要成为「你愿意为全世界配戴的东西」。因此他们与包括 Gentle Monster 和 Warby Parker 在内的多个时尚品牌合作,共同开发具有设计感的 XR 眼镜款式。

除此之外,Google 也持续与三星合作,拓展 Android XR 至头戴式显示器领域。此前曾展示过的 Project Moohan,将在今年晚些时候登场,带来沉浸式的虚实整合体验。Google 并宣布将推出 XR 软硬体参考平台,供开发者打造专属应用,预计今年内陆续推出。

目前这些设备仍处于一个原型阶段,但 Google 已经开始与信任的测试者群体合作,收集使用反馈,并预告在未来几个月会有更多发展消息。

今年Google I/O 2025中,AI模式在购物体验上带来显着改变,让整个从「灵感搜索」到「实际购买」流程都更直觉、个性化。Google将Gemini模型与「购物图谱」(Shopping Graph)整合,提供超过500亿笔即时商品资讯,包括价格、评论、库存等,帮助你精准找到符合需求的商品。

你只需输入“适合五月去波特兰的旅行包”,AI会透过查询扩展技术,自动分析天气、使用身材与款式建议,并同步在画面显示推荐商品,并快速缩小选择。

同时推出的虚拟试穿功能,让你上传照片能够模拟衣服穿在自己身上的样子,系统能够精准地呈现布料材质与折痕效果,带来真实的视觉参考。

最后是代理结帐体验:只需实现价格追踪,当商品价格达到您设定的区间时,系统会通知您,并可通过Google Pay自动结帐,节省手动操作时间。

这些功能目前已在美国开始支持,未来将扩大应用范围,彻底改写线上购物的方式。

生成式媒体进化:Veo 3、Imagen 4 与 Canvas 提升创作效率

今年Google I/O展示了生成式媒体领域的重大进展,让创作者从图像到影片的制作过程变得更加快速、更加具有弹性。

首先是 Veo 3 的影片生成模型,能根据文字指令波形高画质、具备全新音效与自然过场的影片片段,适用于教学影片、社群内容或简报补充。它支持多语言叙述与场景延展,是目前 Google 最成熟的影片生成工具之一。

在图像还原方面,Google 也推出了 Imagen 4 模型,进一步提升细节度与风格一致性,适合行销素材、封面设计与内容插图。这两个工具都已与 Gemini 深度整合,用户可以在 Gemini App 或 Canvas 平台上直接操作。

此外,Canvas还支持生成互动式图表、播客草稿、多语言填写内容,特别适合教育、报告与社群创作目的。搭配Gemini的深度研究模式,用户甚至可以在数据等后一键生成视觉化素材,显着节省创作时间。

生成式AI已从实验走向实用,这波工具更新也代表Google正积极将内容创作变得更容易被每个人掌握。

Google I/O 2025最大的改变,不仅仅是展示新技术,而是让AI真正进入人们的日常应用里。从浏览器、信箱到智慧眼镜,Google把Gemini模型深度整合进每一个使用场景,并强调个人化与实用性。

这不再是你去适应的人工智能,而是需要主动来理解、帮助完成人工智能的事情。未来已不再只是模型实验,而是产品体验。

来源:APPLEFANS蘋果迷

相关推荐