摘要:在人工智能快速发展的 2024 年,我们正目睹着一场悄无声息的数字灾难:世界最大的搜索引擎正在主动选择自我摧毁。在追逐人工智能创新的浪潮中,谷歌选择用一个充满争议的决定来赌上自己的核心竞争力:将生成式 AI 整合进搜索结果。这个决定不仅关乎一家科技公司的未来,
在人工智能快速发展的 2024 年,我们正目睹着一场悄无声息的数字灾难:世界最大的搜索引擎正在主动选择自我摧毁。在追逐人工智能创新的浪潮中,谷歌选择用一个充满争议的决定来赌上自己的核心竞争力:将生成式 AI 整合进搜索结果。这个决定不仅关乎一家科技公司的未来,更直接影响着全球数十亿用户获取信息的方式。
科技评论家 Ed Zitron 在其最新一期 Better Offline 播客中,通过深入分析和专家访谈,揭示了这场危机背后的决策逻辑、技术缺陷和更深层的行业困境。这不仅仅是一个关于搜索质量的故事,更是一个关于科技行业如何在利润驱动下逐渐背离其服务用户初衷的警示。
原文标题:AI Is Breaking Google.(https://www.youtube.com/watch?v=dUJxMZpfoKg)
作者 | Ed Zitron, Better Offline
编译 | Eric Harrington
出品 | AI 科技大本营(ID:)
究竟是谁毁掉了谷歌?答案指向 Prabhagar Raghavan——谷歌前广告部门主管。此人领导了一场夺取谷歌搜索控制权的内部政变,最终导致了这个网站的衰落。
这个说法并非空穴来风,其证据恰恰来自谷歌搜索本身:如果你在谷歌上搜索“谁毁了谷歌”(Who Ruined Google),搜索结果会弹出一个 AI 生成的摘要,其中引用了多篇文章,包括一篇名为《毁掉谷歌搜索的人》(The Man Who Killed Google Search)的文章。
一切始于 2024 年 5 月 14 日,谷歌做出了一个惊人的决定:在搜索结果中全面引入生成式人工智能。这个被称为“搜索生成式体验”(Search Generative Experience,简称 SGE)的新功能,从根本上改变了用户获取信息的方式。在某些搜索页面上,传统的网页链接被 AI 生成的概述所取代。这个 AI 会抓取其他网站的文本内容,自动生成答案,使用户不必访问原始网站,当然也就不会产生任何广告收入。
这种做法本身就令人费解。众所周知,生成式 AI 经常出错,可靠性存疑——这已经是公认的事实。然而,谷歌似乎完全无视这一点。在今年接受 The Verge 记者 Nilay Patel 采访*时,谷歌 CEO 桑达尔·皮查伊(Sundar Pichai)甚至声称这些改变实际上有助于互联网的发展。
* 欢迎回顾这篇采访:《折戟 AI 搜索,谷歌是否已死?》
这种说法显然经不起推敲。正如 Wired(《连线》杂志)的 Lauren Good 在最近一篇关于谷歌转向 AI 的文章中指出,通过选择何时何地展示这些 AI 概述,谷歌实际上在独断地决定什么是复杂问题,什么不是。更重要的是,他们在决定什么样的网络内容应该被纳入其摘要中,以及用户最终会看到和学习到什么内容。然而,这些分析都建立在一个非常天真的假设之上:认为谷歌真的关心建立和维护一个好的搜索引擎。
这个假设有多么荒谬,从谷歌 AI 的表现就可见一斑。就在本文撰写的前几天,如果你在谷歌上询问非洲是否有以字母“K”开头的国家,系统会给出这样的生成式结果:“截至 2021 年 9 月,非洲没有以字母 K 开头的国家。”这个答案引用了两个来源:一个是 2021 年的论坛帖子,内容引用了 ChatGPT 的一个幻觉性回答;另一个是一个名为“以字母 K 开头的国家”的网站,而其第一句话就提到了肯尼亚。
这样的错误并非孤例。谷歌的生成式搜索结果还曾建议使用白胶水来防止披萨上的奶酪滑落,声称有一只狗曾在 NBA 打球。虽然这些明显的错误在引发大规模批评后很快被修正,但这些问题的出现本身就说明了一个严重的问题。
这些错误的答案来自谷歌的 Gemini AI 的修改版本,这是他们对标 ChatGPT 的产品。系统会基于网页内容生成答案,而这些内容可以来自任何地方:新闻网站、随机博客、Reddit 帖子,不一而足。正如谷歌新任搜索负责人 Liz Reid 所说,这是在“让谷歌 AI 为你做搜索”。然而,这种策略存在着严重的问题。
癌
生成式 AI 存在一个根本性的问题:“幻觉”,即以权威的口吻陈述完全错误的信息。这是因为这些模型实际上并不“知道”任何事情。无论是谷歌的 Gemini、ChatGPT、Anthropic 的 Claude 还是 Meta 的 Llama,它们都只是基于训练数据预测最可能正确的答案。这意味着谷歌的 AI 驱动搜索实际上是在毫无理解和智力判断的情况下为你搜索信息,完全无法真正理解内容本身。
AI 所能做的仅仅是说:“根据数学计算,这些短语似乎构成了可能是正确答案的内容,这些链接似乎包含了这些短语,所以我猜这样回答是可以的。”这就是为什么谷歌的 AI 搜索一度会建议人们每天吃一块石头——因为它在生成答案时采用了讽刺新闻网站 The Onion 的内容。
当《The Verge》的记者 Kylie Robeson 质疑这些问题时,谷歌的回应令人震惊。他们称这些都是“非常罕见的查询,不能代表大多数用户的体验”。在 Robeson 用自己的真实体验举例说谷歌告诉她“骨头最多的哺乳动物是蟒蛇”时(蟒蛇是爬行动物,虽然确实有骨头),谷歌仍然坚持这种立场。
然而,这些看似滑稽的错误背后隐藏着一个更大的危机:谷歌的 AI 驱动搜索正在严重损害整个互联网生态系统。通过总结其他网站的链接来生成答案,谷歌实际上是在掠夺互联网,随意挑选它认为值得展示的内容部分,然后提供一个极易产生幻觉的粗略摘要。
需要注意的是,谷歌早在发明 PageRank 算法时就已经将自己定位为互联网的看门人。在最初的 PageRank 论文中,他们使用“重要性”这个词来描述如何对网页进行排名。当时的理论价值交换是:我们获得可靠、安全的结果,这些结果能真正回答我们的查询。但 AI 驱动的搜索将谷歌转变为一个真相的来源——一个极不可靠的来源。他们正在使用一项众所周知会产生错误的技术。
有人可能会想,谷歌一定会意识到这个问题,即使意识到了,也不会故意引入这种容易产生幻觉的技术,但这种想法未免太天真了。在接受 Nilay Patel 采访时,皮查伊明确承认他们完全了解幻觉问题,知道这个问题仍未解决,而且是大语言模型的固有特征。在这一点上,皮查伊说得很对。然而,令人费解的是,这位谷歌的 CEO 随后表示,正是因为这个原因,大语言模型才很好,这种特性实际上使它们非常有创造力。这种说法让人难以理解:“你在说什么?我不需要谷歌富有创造力,我需要谷歌准确回答我的问题!”
当你说某个大模型在“发挥创造力处理真相”时,你实际上是在说它们擅长撒谎。
这种策略的危险性是显而易见的。生成式 AI 可能会在处理化学火灾的方法、心理健康问题的应对等重要问题上产生幻觉,甚或权威地散布错误信息(并且谷歌 AI 已经这么做过了,只是很快得到了删除)。数十亿普通用户,那些不懂技术、不活跃在社交媒体上的人,每天都在依赖谷歌回答问题。他们会理所当然地认为,一个市值数万亿美元的科技公司不会将世界上访问量最大的信息来源交给一个不可靠的 AI。
Business Insider 的 Peter Kafka 对这种情况做出了一个精辟的比喻。他说,这就像是“在被给予一张地图和被给予会让你的车冲下悬崖的指示之间的区别”。这个比喻切中要害:谷歌的 AI 驱动搜索不仅对互联网是一场灾难,对整个社会也是如此。通过选择总结哪些查询和提取哪些网站的内容,谷歌既集中化又极化了世界的信息,同时剥夺了实际内容创作者——那些为搜索引擎提供信息的真实人类——的流量。
搜索质量持续恶化
为了深入理解这个问题的复杂性,我们需要听取行业内部的声音。作者采访到了拥有 15 年搜索引擎优化经验的专家 Lily Ray,为本文提供了独特的视角。
Ray:搜索引擎优化是试图使特定网站及其页面在搜索引擎中更容易被发现的实践。具体来说,就是让网站在谷歌、必应或其他目标搜索引擎的顶部位置排名,因为这些位置是大多数人会点击的地方。
Ray:存在不同的方法论。首先是谷歌自己的指导方针,关于如何以一种我认为实际上对互联网有益的方式进行 SEO。我和像我这样的专业 SEO 从业者每天所做的工作,是让网站更容易被发现、更易访问、加载更快、更容易让人们找到他们要找的东西。这涉及大量的技术工作。但当然,还有另一端的光谱,那就是试图利用情况、制造垃圾信息和操纵搜索引擎的人。所以这取决于你在谈论哪种类型的 SEO。
Q:SEO 专业人士的日常工作是什么?
Ray:公司来找我们是因为他们显然想获得更多的可见度。所以我们必须考虑影响人们如何找到内容的所有不同因素。很多都是技术性的。比如,我们的大量工作都集中在页面速度、整体可访问性上。举个例子,如果一个图片上传到
来源:CSDN一点号