首页 > 问答 > robots写错导致排名大幅度往下掉,该做什么补救?

robots写错导致排名大幅度往下掉,该做什么补救?

[导读]:Robots写错导致排名下降是有可能的,楼上说的影响较大的,是被屏蔽的直接页面,例如Disallow:/,那么这个页面一般情况下肯定就不会被用来排名了。但如果在robots.txt中有Disall...



Robots写错导致排名下降是有可能的,楼上说的影响较大的,是被屏蔽的直接页面,例如Disallow:/,那么这个页面一般情况下肯定就不会被用来排名了。但如果在robots.txt中有Disallow:/zhuanti/,而原本这个目录下的页面都有指向某个专题页面的链接,现在被屏蔽掉,就有可能导致专题页的权重下降,排名下滑。

只要清楚这些错误的规则,在搜索引擎的站长管理工具中更新或提交,就坐等搜索引擎更新好了,毕竟任何更新都是需要时间的,不要太着急。

###

一般情况下,Robots写好了之后上传至网站的根目录就可以了,蜘蛛在对网站抓取的时候会首先爬行robots文件,以便来确定本站哪些内容是被禁止抓取的,所以你写好了之后只要放在根目录就可以了。

###

我记得百度站长工具中,有一个工具就是Robots更新提交,你可以研究一下,在那里提交了一份新的robots,然后等上几天,如果不行,可以实行投诉。

###

仔细看看Robots.txt到底如何写,这个很重要,从新修改下,在上传上去。在检测下...

###

有改动的时候,每次都用站长平台检测一下,这样就不用担心了!

###

确定写错了,修改过来上传到根目录即可,蜘蛛默认首先爬行这个文件,
如果说非想提交下放心,那就运用各自搜索引擎的站长工具,比如google的管理员工具后台又可以提交Robots的地址

###

Robots.txt文件写错了,估计是你屏蔽掉了某些文件,导致一些重要的网页出现了不允许蜘蛛爬取,时间长了,百度就会当一些网页成为死链接,从而删除该网页。

解决方法:修改robots.txt文件,正确的了解其中的意思,将需要放出来的文件都放出来,等待蜘蛛的正常爬取,看看反应。同时,加大相关文章的编写,多增加一些内链到这些屏蔽的网页当中,增加蜘蛛的爬取频率。个人愚见,仅供参考。

###

你写的很模糊,网站的排名偶尔掉那很正常的,你应该把你的Robots的内容拿出来让大家看看,否则这里没法确定是robots的原因。
我的理解robots是告诉搜索引擎哪些内容是可以抓取的哪些是不可以抓取的,只有你屏蔽了首页才会影响排名很大,对于小站其他影响都很小的。

###

如果确定是Robots文件对网站关键词排名造成影响,只需修改robot文件,静等一周左右即可。

###

Robots写错了在网站后台或者ftp都可以修改,将错误的纠正就可以了,等蜘蛛下次来抓取它可以检索到。

###

你确定是Robots写错 造成的吗?把他改过来 重新提交下 下次更新就会好了

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/18308.html