首页 > 问答 > 网站日志屏蔽掉这些目录还是会抓取,麻烦各位大神看看是怎么

网站日志屏蔽掉这些目录还是会抓取,麻烦各位大神看看是怎么

[导读]:Disallow: /base/ Disallow: /openapi/ Disallow: /business/ Disallow: /user/ Disallow: /newHouse/ Disallow: /syzl-business-api/ 屏蔽完之后依然会抓取这些页面,请问是屏蔽的方法不对吗?要怎样Disallow才...

Disallow: /base/

Disallow: /openapi/

Disallow: /business/

Disallow: /user/

Disallow: /newHouse/

Disallow: /syzl-business-api/


屏蔽完之后依然会抓取这些页面,请问是屏蔽的方法不对吗?要怎样Disallow才能避免内容再次被抓取呢?

requestUrl:"/syzl-business-api/news/queryNewsType/"

requestUrl:"/syzl-business-api/newHouse/config"

requestUrl:"/syzl-business-api/news/newsDetail"

requestUrl:"/openapi/combo/area/queryCities"

requestUrl:"/base/getCurrentCityInfo"

requestUrl:"/base/getHotBusinessArea"

requestUrl:"/business/public/phone"

requestUrl:"/business/public/queryCityConfModel

requestUrl:"/openapi/combo/area/queryCities"

requestUrl:"/office/list/area_all/page2"

Robots屏蔽并不代表搜索引擎不会爬抓。只要有链接指向相关文件,搜索引擎还是会爬抓的,然后根据robots文件考虑是否收录。

另外,建议合理查询爬抓的IP是否为搜索引擎蜘蛛爬抓的,还是用户访问的。

有时候很多链接并不是搜索引擎爬抓的,而是用户访问的或者模拟蜘蛛爬抓的。

###

1、抓取是否有收录

2、你这个屏蔽是啥时候做的,如果是近期刚做,需要有响应期

3、你使用百度站长后台,抓取诊断检测下,看看是抓取还是无法抓取

QQ截图20191107114836

###

用命令nslookup +ip查询一下蜘蛛的真假,这一句  User-agent: *     有没有加上?

###

屏蔽没有用,百度该抓取还是抓取,淘宝屏蔽了百度,百度不还是照样抓取

###

不懂  进来学习一下

###

假蜘蛛抓取的 不用管  你用金花站长工具可以剔除假蜘蛛的

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/93226.html