[导读]:我有10万个页面,分别是1.html到100000.html。 出于某种原因要屏蔽19836.html之后的所有页面。 这实在是难为了小生,思前想后也搞不定。 谢谢各种元芳同志。 还写什么Robots。。。...
我有10万个页面,分别是1.html到100000.html。
出于某种原因要屏蔽19836.html之后的所有页面。
这实在是难为了小生,思前想后也搞不定。
谢谢各种元芳同志。
还写什么Robots。。。
如果是我就建议程序写好规则,页面排序到19836停止。。。用另外一个页面从19837开始计算,在页面上写上Robots meta标签。。。
看你的程序厉害到什么程度了,他们有他们的方法,沟通,沟通。
哈哈,
把之19836html.后的所有页面下载到本地,要求程序猿在代码里面批量加上Robots meta标签即可。
如果robots.txt 这么写可行不?
Disallow:/1983*.html
Disallow:/199**.html
Disallow:/2****.html
Disallow:/3****.html
Disallow:/4****.html
Disallow:/5****.html
Disallow:/6****.html
Disallow:/7****.html
Disallow:/8****.tml
Disallow:/9****.tml
Disallow:/10****.tml
写个删除表的xml 提交 属于逆向思维?
###沈亮兴 正解,除此之外,还可做一个死链清单(格式参见百度说明),在百度站长工具中的“死链提交”中提交一下。
###还确实为难人了,按 沈亮兴 的思路吧。
本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/17177.html