若何行使robots协议优化你的WordPress博客站
速奇云香港服务器

若何行使robots协议优化你的WordPress博客站

网站建设网站源码2021-10-15 9:50:0029A+A-
香港云服务器
欢迎加入源码爱好者技术交流QQ群:782089194,好源码,共分享!

织梦cms集成七牛插件最新优化版本教程

许多新手建站同伙对robots协议文件的主要性不是很清晰,本篇文章由昆明SEO博主普及一下WordPress站点robots协议文件编写知识。robots协议(也称为爬虫协议、机械人协议 等)的全称是“网络爬虫清扫尺度”(Robots Exclusion Protocol),网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。robots协议主要注重以下几大方面:

一、使用robots协议需要注重的几点地方:

1、指令区分巨细写,忽略未知指令。

2、每一行代表一个指令,空缺和隔行会被忽略。

3、“#”号后的字符参数会被忽略。

4、有自力User-agent的规则,会清扫在通配“*”User agent的规则之外。

5、可以写入sitemap文件的链接,利便搜索引擎蜘蛛爬行整站内容。

6、只管少用Allow指令,由于差其余搜索引擎对差异位置的Allow指令会有差异看待。

7、robots.txt 文件必须放在网站的根目录,不能以放在子目录。

二、robots协议文件写法:

1、User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符

2、Disallow: /admin/ 这里界说是阻止爬寻admin目录下面的目录

3、Disallow: /require/ 这里界说是阻止爬寻require目录下面的目录

4、Disallow: /ABC/ 这里界说是阻止爬寻ABC目录下面的目录

5、Disallow: /cgi-bin/*.htm 阻止接见/cgi-bin/目录下的所有以".htm"为后缀的URL(包罗子目录)

6、Disallow: /*?* 阻止接见网站中所有包罗问号 (?) 的网址

7、Disallow: /.jpg$ 阻止抓取网页所有的.jpg花样的图片

8、Disallow:/ab/adc.html 阻止爬取ab文件夹下面的adc.html文件

9、Allow: /cgi-bin/ 这里界说是允许爬寻cgi-bin目录下面的目录

10、Allow: /tmp 这里界说是允许爬寻tmp的整个目录

11、Allow: .htm$ 仅允许接见以".htm"为后缀的URL

12、Allow: .gif$ 允许抓取网页和gif花样图片

13、Sitemap: 网站舆图 告诉爬虫这个页面是网站舆图

三、robots协议文件现实说明:

1、User-agent: * //设置robots规则适用的浏览者身份为所有UA身份

2、Disallow: /*?* //屏障掉页面中的动态路径

3、Disallow: /?p=* //屏障掉非牢靠链接的文章页面路径,由于每个页面中都市有一个shortlink使用的是?p= 的路径。

4、Disallow: /index.php //屏障掉首页默认页面的index.php 页面地址

5、Disallow: /wp-admin //屏障掉后台上岸页面地址,主要是思量到服务器平安

6、Disallow: /wp-content/plugins //屏障掉wordpress的插件目录

7、Disallow: /wp-content/themes //屏障掉Wordpress的模板目录

8、Disallow: /wp-includes //屏障掉wordpress的底层程序目录

Wordpress站点SEO优化教程四:数据库优化

9、Disallow: /trackback //屏障wordpress的页面回评路径

10、Disallow: /*/*/trackback //屏障wordpress分类目录、文章页面的回评路径

11、Disallow: /feed //屏障wordpress的内容订阅路径

12、Disallow: /*/*/feed //屏障wordpress分类目录、文章页面的订阅路径

13、Disallow: /comments/feed //屏幕wordpress谈论的订阅路径

14、Disallow: /page/ //屏障默认的翻页路径

15、Disallow: /*/*/page/ //屏障分类目录的翻页路径

16、Disallow: /page/1$ //屏障翻页路径中的数字路径

17、Disallow: /tag/ //屏障标签页面

18、Disallow: /?s=* //屏障搜索效果路径,主要是阻止搜索效果的缓存被搜索引擎收录

19、Disallow: /date/ //屏障按日期分类显示的列表页面

20、Disallow: /author/ //屏障作者文章列表页面

21、Disallow: /category/ //屏障以category为起始路径的分类路径,若是您没有使用插件天生不带category前缀的路径时,请不要使用此项规则。

22、Disallow: /wp-login.php //屏障后台上岸页面

四、robots协议设置方式

1、写好之后把文件重命名为:robots.txt 然后用FTP上传到网站的根目录下面,切记不是主题的根目录下而是网站的根目录。

2、行使站长工具自动天生,网址:http://tool.chinaz.com/robots/

3、行使SEO插件设置,好比Yoast SEO、all in one seo

五、robots协议的作用

1、指导搜索引擎蜘蛛抓取指定栏目或内容;

2、网站改版或者URL重写优化时刻屏障对搜索引擎不友好的链接;

3、屏障死链接、404错误页面

4、屏障无内容、无价值页面;

5、屏障重复页面,如谈论页、搜索效果页;

6、屏障任何不想被收录的页面;

7、指导蜘蛛抓取网站舆图;

六、若何查看robots协议:

1、WordPress站点默认在浏览器中输入:http://你的域名/robots.txt

好比星辰seo博客:http://xxjz001.com/robots.txt

2、打开FTP,找到网站根目录查看robots.txt文件

总结:robots协议需要的注重地方,以及写法,设置方式,作用,若何查看就先容到这里,信托人人对robot协议已经有了对照详细的领会。使用好robots协议对于我们网站的SEO有着主要作用,做的好可以有用的屏障那些我们不想让搜索引擎抓取的页面,也就是对用户体验不高的页面,从而将有利于要害词排名的内页充实展示个客户,获得搜索引擎对站内页面的权重,从而有利于我们将网站要害词排名做的更好,从而获取更多流量。

作者:星辰seo博客

如何利用robots.txt 优化 WordPress博客

点击这里复制本文地址

下载声明

本站发布所有广告信息、资源下载,均来自互联网,非本站自制,与本站无关。 如有侵犯您的合法权益请来信告之。我们会在三个工作日内清除。


本站中所有资料、资源文件均来自于网络搜索,仅作为技术学习研究之用,请必须在24小时内删除所下载资源,切勿用于商业用途,否则由此引发的法律纠纷及连带责任本站和发布者概不承担。


本站保证站内提供的所有可下载资源(软件等等)都是按“原样”提供,本站未做过任何改动;但本网站不保证本站提供的下载资源的准确性、安全性和完整性;同时本网站也不承担用户因使用这些下载资源对自己和他人造成任何形式的损失或伤害。


访问本站的用户必须明白,【源码爱好者】对提供下载的软件等不拥有任何权利,其版权归该下载资源的合法拥有者所有。


本站所有资源均不提供相关技术服务,如果源码下载地址失效请联系站长进行补发。

源码爱好者 © All Rights Reserved.  Copyright Your WebSite.Some Rights Reserved.本站发布所有资源,均来自互联网,非本站自制,分享目的仅供大家学习与参考,与本站无关。 如有侵犯您的合法权益请来信告之。我们会在三个工作日内予以清除。
Sitemap | Archivers | 导航页 |
欢迎使用| 广告合作| 关于我们| 联系我们| 欢迎使用| 下载说明| 免责声明| 开通会员| 网站地图|