首页 > 问答 > robots.txt文件存在限制指令怎么操作取消限制

robots.txt文件存在限制指令怎么操作取消限制

[导读]:www.cts028.com http://www.cts028.com/ [?] 也可指定搜索引擎,加入白名单即可 ### 检测Robots,同时看看是否以前的robots曾经禁用过,新的robots生效要有一定的时间。 上上定制 ### 我查看了...

www.cts028.com

http://www.cts028.com/[?]

也可指定搜索引擎,加入白名单即可

###

检测Robots,同时看看是否以前的robots曾经禁用过,新的robots生效要有一定的时间。 上上定制

###

我查看了Robots.txt文件没有,应该是正常的。

1、查看源代码是否加了禁止代码

2、查看robots.txt文件是否封禁(根目录)

3、利用站长平台抓取诊断查询(服务器ip不正确进行反馈就行),若服务器限制蜘蛛ip,请通过UA查询辨识,加入白名单即可。

###

User-agent: * *代表所有搜索引擎,也可指定搜索引擎,如指定百度,User-agent: BaiduspiderDisallow: /a/ 这里定义是禁止抓取a目录下面的所有内容Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片Disallow:/ab/ 禁止爬取ab文件夹下面的文件。Allow: /cgi-bin/a/ 这里定义是允许爬寻cgi-bin目录下面的a目录Allow: /tmp 这里定义是允许爬寻tmp的整个目录Allow: .htm$ 允许访问以”.htm”为后缀的URL。Allow: .gif$ 允许抓取网页和gif格式图片Sitemap: 网站地图,告诉爬虫这个页面是网站地图

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/90641.html