[导读]:企业公司的产品毕竟不像淘宝,京东那样的繁多,因此在分类标签页中难免产生空白页,类别越细化那么空白页越多,但是这样的页面无疑是有利于客户体验的,可以精确找到自...
企业公司的产品毕竟不像淘宝,京东那样的繁多,因此在分类标签页中难免产生空白页,类别越细化那么空白页越多,但是这样的页面无疑是有利于客户体验的,可以精确找到自己喜欢的产品,可以百度却看见了很多空白页,那么这种情况下我们是不是应该把这些页面做robots呢?
例如这个页面www点skyphoto点com点cn/case_17_181_200.html
如果做robots 又应该怎样写规则呢?
其实空白页多倒不是不好,如果利于用户体验度,空白页面,顶多百度不抓取,倒不会给网站带来什么特别的负面。
写Robots时,只用这样禁止就可以了:也可以直接禁止目录,其实我看了你的网站,倒没有必要做robots
Disallow: /case_17_181_
质量好,想让搜索引擎收录率高,建议加
###企业站都做聚合页面了,聚合页面要注意质量,大量垃圾页面可能被K。
本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/20543.html