在近期备受瞩目的Search Central Live大会上,谷歌搜索领域的两位专家Gary Illyes与Cherry Sireetorn Prommawin,就人工智能对谷歌搜索机制的影响展开了深入探讨。这一观点随后被谷歌资深产品专家Kenichi Suzuki在LinkedIn平台上分享,为SEO从业者带来了新的启示。
两位专家明确指出,谷歌所推出的包括AI概览、AI模式在内的一系列AI功能,实际上都是建立在传统搜索架构的基础之上。这意味着,诸如Googlebot爬虫、搜索索引以及排名算法等传统组件,在AI搜索时代依然扮演着至关重要的角色。因此,现有的SEO策略无需进行根本性调整,所谓的“AI SEO”新方案也并非必需。只要网站内容持续遵循谷歌的质量准则,其在搜索结果中的排名就不会受到不利影响。
值得注意的是,Illyes特别澄清了一个误区,即谷歌并不会对人工生成内容与AI生成内容进行区分对待。内容的质量、实用性及可信度才是谷歌评估的关键所在。只要AI生成的内容能够符合这些标准,同样有机会获得优质的展示机会。
进一步而言,Illyes与Prommawin还详细描述了AI模型在谷歌搜索流程中的全面渗透。从抓取阶段AI协助决定抓取时机,到索引阶段BERT语言模型解析文本含义并剔除低价值页面,再到垃圾邮件识别、查询理解以及信息整合等多个环节,AI均发挥着不可或缺的作用。特别是多任务统一模型(MUM)的出现,更是能够跨文本、图像、视频等多种格式整合信息,为用户提供更为丰富的搜索结果。
然而,尽管谷歌方面一再强调SEO核心原则未变,但近期的一些研究数据却透露出不同的信号。皮尤研究中心的一项调研显示,当搜索结果中包含AI生成的摘要时,常规搜索结果的点击率出现了显著下滑,从原本的15%降至8%。更为严峻的是,仅有1%的用户会选择直接点击摘要中的源链接进行深入了解。
类似的现象在其他研究中也有所体现。尽管SEO的技术框架并未发生根本性变化,但随着用户对AI生成答案的日益依赖,以及访问外部网站意愿的降低,SEO的实际效果正面临严峻挑战。对于众多出版商、零售商及内容创作者而言,这意味着他们的网站在搜索引擎中的曝光度和覆盖面或将受到一定程度的影响。这一趋势并非源于SEO规则的变动,而是传统网站在新搜索生态中的地位逐渐边缘化的结果。