AI搜索现在很火。它能直接给你答案,不像以前那样,给你一堆网页链接让你自己找。
但是,它也经常犯错。比如它会自己瞎编内容,我们管这个叫“幻觉”。而且它给你的东西,可能都是你本来就喜欢看的,让你走不出自己的小圈子。
我就是解决这些问题的工程师。这篇笔记,不讲大道理,只讲我们平时具体怎么干活,怎么把AI搜索一点点调好。

它跟以前的搜索有啥不一样?
以前的搜索引擎很简单。你搜“周末去哪玩”,它就去网页里找包含这几个字的文章。它根本不明白你想干嘛。
AI搜索不一样。它会试着去理解你的“意图”。
它知道你不是在找这几个字,你是在找一个周末能带孩子出去的活动。所以它可能会直接推荐几个公园或者博物馆,而不是甩给你一堆链接。
这就是根本区别。AI搜索的目标是解决你的问题,而不是给你一堆资料让你自己研究。
我们优化搜索,主要就三件事
所有优化工作,都绕不开这三样:数据、算法、评估。这是一个循环,一环扣一环。
AI模型的好坏,全看喂给它的数据。数据不对,后面全白费。
我们主要用三类数据:
- 用户行为。 用户点了哪个结果?在页面上待了多久?这些是最直接的反馈。用户点击多、停留时间长的,通常就是好结果。
- 内容特征。 这篇文章是不是来自一个权威网站?内容是不是最近更新的?这些能帮我们判断内容的质量。
- 人工标注。 我们会请专家,给搜索结果打分,比如“好”、“一般”、“差”。这个方法成本很高,但是最准,能作为我们评价模型的标准答案。
【举个例子】
我们之前做金融搜索,效果很差。后来查数据发现,用户点进我们的结果,不到5秒就退出了。
这就说明,我们给的内容虽然相关,但是太专业了,用户根本看不懂。
后来怎么办?我们调整了算法,给那些能用大白话解释清楚金融概念的文章,更高的权重。调整之后,用户的停留时间明显变长了。
有了好数据,就要用对的算法来处理。
我们的核心技术叫“排序学习”(LTR)。简单说,就是训练一个模型,让它学会怎么给一堆搜索结果排出最好的顺序。
这里面有个叫LambdaMART的算法,我们一直在用,效果很稳定。它不只关心单个结果好不好,它更关心整个结果列表的顺序,是不是让用户看着舒服。
现在,还有一个很重要的技术,叫RAG。
大模型什么都懂,但它的知识是旧的,而且还会瞎说。RAG就是解决这个问题的。
它的工作原理是这样:
- 先检索。 用户提问后,系统先不去问大模型。它先从我们自己可信的、最新的数据库里,找出几条最相关的内容。
- 再生成。 然后,系统把用户的问题和它找到的这几条资料,一起打包发给大模型。要求大模型必须根据这些资料来回答问题。
这样做有两个好处:第一,答案不会瞎编,因为有资料依据。第二,答案是实时的,因为我们的数据库在不断更新。
做了优化,怎么知道有没有用?得靠评估。
我们分两步走:
- 离线评估。 模型做好后,先不上线。我们用一个叫NDCG的指标给它打分。这个指标的意思是,越好的结果,排在越前面,得分就越高。
- 在线A/B测试。 离线分数再高也没用,要看真实用户喜不喜欢。我们会分一小部分用户,让他们用新模型。然后拿他们的数据,和用旧模型的用户对比。看看到底哪个模型能让用户的点击率更高、停留时间更长。数据说了算。
做网站内容的人,以后该怎么办?
以前做网站,总研究SEO,就是想办法让自己的网页排名靠前。
现在这个玩法要变了。以后是GEO(生成式引擎优化)。
你的目标不再是让网页排第一。而是让AI写答案的时候,愿意引用你写的内容。
这意味着什么?
你写的东西,必须观点清楚、逻辑清晰、有事实依据。AI才会认为你的内容可信,才会用你的内容来生成答案。那些堆关键词、内容乱七八糟的网页,以后就没用了。
最后想说的
优化AI搜索,不是一次就能搞定的事。它是个循环。
搞好数据,选对算法,严格测试。不行就推倒重来。
我们每天干的就是这些。目的只有一个:让用户更快、更准地找到他想要的东西。
原创文章,作者:七点互动,如若转载,请注明出处:https://www.qidianhudong.com/geo/412.html