首页 > 问答 > 蜘蛛抓取了网站不存在的文件内容是怎么回事?

蜘蛛抓取了网站不存在的文件内容是怎么回事?

[导读]:刚开始建站时在robots.txt里禁止了所有的蜘蛛,前两天刚做好就改为了允许所有蜘蛛抓取。 但是今天分析日志时发现了几十个404的错误,原因都是蜘蛛抓取了一个叫/Article/文件里...

刚开始建站时在robots.txt里禁止了所有的蜘蛛,前两天刚做好就改为了允许所有蜘蛛抓取。
但是今天分析日志时发现了几十个404的错误,原因都是蜘蛛抓取了一个叫/Article/文件里的图片。
但是我的网站根本就没有这个文件,我自己也没有找到,请问各位师兄这是怎么回事?
现在我已经在robots.txt里面禁止了这个文件的访问,这样可以吗?



这个应该是光年SEO日志分析工具吧!

这个查404不准确。最好用editplus打开log后缀的日志文件。用ctrl+F查找404页面。

###

对于返回404状态码的设置屏蔽,禁止抓取,同时在百度站长平台工具提交死链文件,对蜘蛛爬行和抓取有帮助的。

百度蜘蛛能够爬行这个文件夹,说明这个文件目录URL在网站存在链接的。

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/29377.html