{
    分享网正式开通,我们为大家提供免费资源,欢迎大家踊跃投稿!

WordPress怎样写Robots.Txt利于SEO优化 2019-12-30 云码哥 SEO教程 359 已收录 当前位置:云创源码 > 文章教程 > SEO教程 > WordPress怎样写Robots.Txt利于SEO优化 正文概述 云码哥   2019-12-30   359

一般来说,我们希望搜索蜘蛛光顾我们的网站越多越好,我相信每个新手站长都会是站长工具的常客,一大早起来就是关注自己网站的收录量.收录量的增长是一张晴雨表,升则忧、降则喜,我想告诉广大的站长朋友这完全没有必要,收录量不是目的,我觉得我们关注的重点应该是怎样让自己的网站拥有更多的百度搜索流量。

robots.txt是搜索引擎爬行网站的控制文件,按照一定的语法告诉搜索引擎哪些网页能爬,哪些不能爬,对于robots.txtd的介绍和书写语法,你可以参考这篇博文:网络蜘蛛访问控制文件robot.txt的写法 。

可能你想说,收录量不是越多越好吗?

其实不然,网站的网页不是收录越多越好,大家都知道搜索引擎比较网络上的网页相似度(相似度太高的两个页面会分散权重)的时候,不仅仅会进行不同网站间的纵向比较,而且会进行同一网站不同页面间的比较,所以,比如对于个人博客的作者归档和首页,页面内容差不多一样,我们完全可以屏蔽蜘蛛访问作者归档的页面。下面我来详细地介绍一下wordpress怎样写robots.txt利于SEO优化。

WordPress怎样写Robots.Txt利于SEO优化

一、屏蔽没有必要收录的一些链接

1、屏蔽捉取站内搜索结果

Disallow: ?s=*

这个就不用解释了,屏蔽捉取站内搜索结果。站内没出现这些链接不代表站外没有,如果收录了会造成和TAG等页面的内容相近。

2、屏蔽Spider捉取程序文件

Disallow: /wp-*/

屏蔽spider捉取程序文件,wp-*表示wp-admin,wp-include等文件夹都不让搜索蜘蛛爬行,这节约了搜索引擎蜘蛛资源。

3、屏蔽Feed

Disallow: /feed*/feed*comments/

屏蔽留言信息链接。需要指出的是,屏蔽留言信息链接不是说不让蜘蛛收录你文章的评论页面,而是这样的链接打开后,整个页面就只有一个评论,完全没有被收录的必要,同时也节约蜘蛛资源,故屏蔽之。

5、屏蔽其他的一些链接,避免造成重复内容和隐私问题

Disallow: /date/
Disallow: /author/
Disallow: /category/
Disallow: /?p=*&preview=true
Disallow: /?page_id=*&preview=true
Disallow: /wp-login.php

这些屏蔽规则你可以根据自己的需求决定是否创建,屏蔽data、author、category等页面都是为了避免太多重复内容,

6、Disallow: /?P=*

屏蔽捉取短链接。默认头部里的短链接,百度等搜索引擎蜘蛛会试图捉取,虽然最终短链接会301重定向到固定链接,但这样依然造成蜘蛛资源的浪费。

7.屏蔽特定格式

Disallow: trackback Disallow: comments/ Disallow: /feed*/feed*/*/feed/* Disallow:/articles/* Disallow:/shuoshuo/* Sitemap: http://wangbaiyuan.cn/sitemap_index.xml

 


资源均来自第三方,谨慎下载,前往第三方网站下载


米微资源分享网 , 版权所有丨本站资源仅限于学习研究,严禁从事商业或者非法活动!丨本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:WordPress怎样写Robots.Txt利于SEO优化 2019-12-30 云码哥 SEO教程 359 已收录 当前位置:云创源码 > 文章教程 > SEO教程 > WordPress怎样写Robots.Txt利于SEO优化 正文概述 云码哥   2019-12-30   359
喜欢 ()分享 (0)