首页 > 问答 > 对于这样的重复页面怎么处理?

对于这样的重复页面怎么处理?

[导读]:最特出的就是网站注册页面: 1、从首页进入的ulr:www。xxx。com/xxx/xxxx 2、产品部为了推广做cps,新的链接为:www。xxx。com/CPSxxx/CPSxxxx?id=xxx 这两个地址都是网站的注册页面,内...

最特出的就是网站注册页面:

1、从首页进入的ulr:www。xxx。com/xxx/xxxx
2、产品部为了推广做cps,新的链接为:www。xxx。com/CPSxxx/CPSxxxx?id=xxx

这两个地址都是网站的注册页面,内容一模一样,而且这两个地址都被收录了,虽说不以这些页面去竞争某些关键词,但是也会给网站造成很多重复页。

其实网站还有肯定还有页面为了进行推广或监测使用,有大量的url不同内容一模一样的页面,但是我都没有找到带有cps的url从站内给到的入口。

我应该怎么处理比较好?robots禁止和用canonical处理?

最保险的方法:两个一起用

###

最直接的办法还是Robots屏蔽

###

这个是你的网站做了伪静态处理 只要在Robots.txt里面屏蔽就可以了 Disallow: /CPSxxx/CPSxxxx?id=xxx

###

简单一句 Robots屏蔽

###

那些用于CPS的URL建议全部采用Robots屏蔽。

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/17658.html