为什么传统搜索引擎优化(SEO)对于生成式引擎优化(GEO)仍然至关重要

理解大型语言模型(LLM)的训练机制和响应用户查询的方式,可以帮助我们有效地针对这些新平台进行优化。

LLM如何处理信息并生成响应,这分为两种情况:

1. 基于静态语料库的响应:LLM直接从其训练数据中提取信息来回答查询,这意味着模型已经“知道”这些信息,无需进行新的搜索。

2. 基于检索增强生成(RAG)的响应:对于训练截止日期之后的信息或模型不确定的查询,LLM会进行实时搜索,以增强其响应的准确性和可靠性。

无论是哪种情况,传统SEO原则对于在LLM中获得可见性都至关重要。

LLM不使用PageRank,而是依赖域名白名单:与Google的PageRank不同,LLM不使用链接投票来评估页面质量。相反,它们通过检查开源的顶级网站列表(如“Majestic Million”或Amazon的百万域名列表)来确定哪些域名应被列入“白名单”并纳入其训练数据。如果你的网站不在这些顶级列表中,很可能不会在训练集中被优先考虑。

“合成查询”优化:LLM会根据用户的初始查询生成一系列新的、更具体的“合成查询”(Query Fan-out)来进行内部搜索。这些查询通常是长尾且非常具体的,在传统关键词研究工具中可能显示没有搜索量。然而,针对这些由AI生成的查询进行优化至关重要,因为它们是LLM实际用来检索信息的。

付费推荐与自然推荐在训练中无区别:LLM在训练过程中不会区分内容是付费赞助的还是自然推荐的。这意味着,如果你能够让有影响力的网站或个人(尤其是在那些被LLM频繁引用的平台,如YouTube)提及你的品牌,即使是付费合作,也能积极影响LLM的训练集。

企业博客更受青睐:在LLM引用中,来自销售产品或服务的实际业务的博客(如代理机构博客和SaaS博客)似乎比主要通过广告或联盟链接盈利的出版商博客更容易被引用

超越网站的“无处不在的搜索优化”:为了在LLM中获得最大影响力,仅仅关注你的网站是不够的。你需要在多种第三方平台(如YouTube、Reddit)上分发内容,因为这些平台的内容也经常被LLM引用。视频还提到ChatGPT正在集成Shopify,未来用户可能直接在ChatGPT内购物,进一步强调了多平台存在的重要性。

Leave a Reply