robots文件不能用,系统自带的有,本人手写的起不到效果。注:如果大人有解决次问题方法,请留下您的宝贵经验。
首先对wp这个不是很关注。个人博客也是用wp做的,但是我一直实用的都是动态的,路径本身就很短,实用伪静态,路径比动态的还要长一些。
如果说收录了动态的也收录了静态。过一点时间搜索引擎就会自动删除动态的,前提是你做了伪静态写了TOBOTS。
自己写的Robots.txt 直接上传到根目录就可以,如果不行就是你空间的问题,延期在上传一下试试看
###首先,不能用是因为当你根目录里面没有Robots.txt这个文件时,程序会自动生成一个robots.txt,
当你在根目录里面建一个robots.txt文件时,就会调用这个robots.txt
Disallow: /?
我只是嫌弃静态的地址太丑而且不好看,WP的默认动态链接收录是没有问题的。
建新站没有更新一定内容建议Robots禁了蜘蛛,都调好了再放出来吧
个人还是建议使用动态网址,经过很多测试,动态网址的收录也是不错的,没有必要非要用伪静态!
###不是不能用,是你的网站上线的时候,Robots中没有屏蔽掉动态的url,百度已经顺利抓取你的网站数据,这其中包括了动态的url,当然也包括了你伪静态后的url。
然后你自己写了一个robots,百度第二次过来抓取的时候的确是disallow没有去抓取你的动态url,但是之前已经反馈到百度的数据被放了出来而已,所以坐等一段时间,百度会删除的。
元芳,这回答你可满意,哈哈。
把%?之类的屏蔽掉。
###Robots.txt 如果不能用 你想办法解决·~如果是虚拟空间 你最好是换服务器提供商~~现在这东西是基础要求 如果对方不提供 那说明者服务器提供商很垃圾~~
然后用robots.txt屏蔽动态地址即可~~
wp的固定链接规则做好
在Robots.txt中添加禁止规则:
Disallow: /?
Disallow: /*?replytocom=
我的博客就是这样禁止 原先也有很多评论的动态网址和带有?p=id 这样的
现在没有了。
短时间内百度的反应没这么快
如果你是修改不了文件那是权限问题,找空间商可以解决;
---如果确认操作无误,问题有无法解决
加个canonical标签。
注:百度目前不支持此标签,不错更具LEE的说法支持这个标签已经在计划中。
建议:建立sitmaps
使用工具模拟爬行发现动态URL找到入口删掉。
所有站内外链接使用静态URL###
我是从一开始建站就是研究的wp,wp做了伪静态以后,您必须在robot文件中屏蔽所有动态网址。
###对于灾个问题我也遇到过,wp伪静态设置的问题,你可以将WP的伪静态去掉,看一下是不是能找到根目录下的自已写的Robots.txt了。 如果是的话那么将伪静态规则做适当修改就OK了。
###Robots文件不能用,应该不会吧,找出不能用的原因。毕竟,用它限制网站内容的收录还是比较方便的。
可以让显示在前台的网址尽量都是静态的,这样不给动态网址入口,也就没法收录了。
本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/27255.html