×

询问SEO:如何停止过滤器导致进食预算

提问者:Terry2025.04.01浏览:232

今天的问SEO问题来自Bratislava的Michal,他问:

“我有一个客户的客户,该网站具有基于地图位置的过滤器的网站。当访客在地图上移动时,创建了带有过滤器的新URL。它们不在站点地图中。但是,搜索控制台中有超过700,000个URL(未索引)和进食爬行预算。

摆脱这些URL的最佳方法是什么?我的想法是将基本位置保留为“索引,关注”和新创建的包围区域的URL,其过滤器切换为“ NoIndex,no laster”。还标记带有规范的环绕区域的基本位置 +拒绝不需要的链接。”

很棒的问题,米歇尔和好消息!答案很容易实现。

首先,让我们看一下您的尝试,并将其应用于电子商务和出版商等其他情况。这样,更多的人可以受益。然后,进入上面的策略,并以解决方案结尾。

什么是爬网预算以及如何创建参数浪费它

如果您不确定Michal在爬网预算中指的是什么,那么这是一些SEO专业人士用来解释Google和其他搜索引擎在您的网站停止之前只能爬网的术语。

如果您的爬网预算用于低价值,薄或不可索引的页面,则可能在爬网中找到您的好页面和新页面。

如果找不到它们,则可能不会被索引或刷新。如果他们没有索引,他们将无法带给您SEO流量。

这就是为什么优化抓取预算以提高效率很重要的原因。

Michal分享了一个示例,说明如何在客户使用过滤器时从SEO角度创建“薄” URL。

用户的体验是增值,但是从SEO的角度来看,基于位置的页面会更好。这也适用于电子商务和出版商。电子商务商店将搜索红色或绿色等颜色以及T恤和薯片等产品。

这些创建带有参数的URL就像滤波器搜索位置一样。它们也可以通过在购物过程中使用过滤器来实现尺寸,性别,颜色,价格,变异,兼容等来创建。

过滤结果帮助最终用户,但与收集页面直接竞争,该集合将是“非薄”版本。

出版商也有相同的。可能有人在SEJ上寻找SEO或搜索框中的PPC并获得过滤结果。过滤结果将有文章,但是出版物的类别可能是搜索引擎的最佳结果。

这些过滤结果可以被索引,因为它们在社交媒体上共享,或者有人在博客或论坛上将其添加为评论,从而创建可爬网的反向链接。它也可能是客户服务中的员工,对公司博客或其他任何数量的方式回答了问题。

现在的目标是确保搜索引擎不会花时间爬行“薄”版本,以便您可以从爬网预算中获得最大收益。

索引和爬行之间的区别

在我们探讨拟议的想法和解决方案之前,还有一件事要学习 - 索引和爬行之间的区别。

爬行是在网站中发现新页面的发现。

索引正在添加值得向使用搜索引擎显示到页面数据库的人的页面。

页面可能会被爬行,但不能被索引。索引页面很可能被爬了,很可能会再次爬行以查找更新和服务器响应。但是,并非所有索引页面都会引入流量或进入首页,因为它们可能不是搜索查询的最佳答案。

现在,让我们开始有效利用这些类型的解决方案的爬网预算。

使用元机器人或X机器人

米歇尔指出的第一个解决方案是“索引,关注”指令。这告诉搜索引擎索引页面并关注其上的链接。这是一个好主意,但是只有过滤结果是理想的体验。

从我看到的情况来看,情况并非如此,因此我建议将其“ noindex,laster”。

Noindex会说:“这不是官方页面,但是,嘿,继续爬我的网站,您会在这里找到好的页面。”

而且,如果您正确完成了主菜单和导航内部链接,则蜘蛛将有望继续爬行。

法典以解决浪费的爬网预算

规范链接用于帮助搜索引擎知道索引的官方页面是什么。

如果一个产品在三个单独的URL上存在三类,则只有一个是“官方”版本,因此两个重复项应该对官方版本有一个规范的指向。官方的人应该具有指向自身的规范链接。这适用于过滤的位置。

如果位置搜索会导致多个城市或邻里页面,则结果可能是您站点地图中的官方官方的重复。

如果页面上的内容保持与原始类别相同,请让滤波后的结果点回到过滤的主页,而不是自我引用。如果内容在您的本地化页面中牵引着相同的位置,请指向该页面的规范。

在大多数情况下,过滤版本继承了您从中搜索或过滤的页面,因此规范应指向的地方。

如果您同时进行NoIndex并具有自我引用的规范(过度杀伤性),则会成为一个矛盾的信号。

当有人在您的网站上搜索产品时,也适用于您的网站。搜索结果可能与实际产品或服务页面竞争。

使用此解决方案,您告诉蜘蛛不要为此页面索引,因为它不值得索引,但也是官方版本。这样做是没有意义的。

取而代之的是,如上所述,使用规范链接,或者使用结果,并将其指向官方版本。

拒绝提高爬网效率

除非搜索引擎蜘蛛通过垃圾邮件反向链接找到您的“薄”页面,否则拒绝与爬网效率无关。

Google的拒绝工具是一种说:“嘿,这些反向链接是垃圾邮件,我们不希望它们伤害我们。请不要将它们算在我们网站的权限上。”

在大多数情况下,这并不重要,因为Google擅长检测垃圾邮件链接并忽略它们。

您不想将自己的网站和自己的URL添加到Disavow工具中。您正在告诉Google自己的网站是垃圾邮件,不值得。

另外,提交反向链接以拒绝的方式不会阻止蜘蛛看到您想要的和不想被爬行的东西,因为这仅仅是因为说来自另一个网站的链接是垃圾邮件是垃圾邮件。

如何使爬行预算更加高效

答案是robots.txt。这就是您告诉特定的搜索引擎和蜘蛛的方式。

您可以将您希望它们以“允许”为营销的文件夹爬行,并且可以通过不承担“?”来说“禁止”过滤结果中的“禁止”。或“&”符号或您使用的符号。

如果应该将其中一些参数抓取,请添加主字,例如“?filter =位置”或特定参数。

Robots.txt是定义爬网路径并在爬网效率上工作的方式。优化后,请查看您的内部链接。从您的网站上的一个页面到另一页的链接。

这些帮助蜘蛛在了解每个页面的同时找到您最重要的页面。

内部链接包括:

面包屑。

菜单导航。

内容中的链接到其他页面。

子类别菜单。

页脚链接。

如果您有一个大网站,也可以使用站点地图,并且蜘蛛没有优先找到所需的页面。

希望这有助于回答您的问题。我得到了很多东西 - 您并不是唯一陷入这种情况的人。

您的支持是我们创作的动力!

网友回答文明上网理性发言已有0人参与

发表评论: