首页 > 问答 > 我该用robots还是canonical去屏蔽重复页?

我该用robots还是canonical去屏蔽重复页?

[导读]:网站有个问答平台,首页是www。xxx。com/questions.action,以翻页的形式展现问答平台所有的问题,问答还非三项,“所有问题”“待回答问题”“热门问题”。 现在的问题是,“所...

网站有个问答平台,首页是www。xxx。com/questions.action,以翻页的形式展现问答平台所有的问题,问答还非三项,“所有问题”“待回答问题”“热门问题”。

现在的问题是,“所有问题”下的内容与问答平台首页下的内容几乎是一模一样的,链接是www。xxx。com/questions.action?view=all&typeId= (这条链接没有被收录)

---------------------------
还有就是问答平台下有个问题分类,也是出现同样问题。
比如:美白护肤

在平台首页,通过标签点击“美白护肤”,链接是:
www。xxx。com/questions.action?typeId=120&page=1
在“美白护肤”分类下,点击“所有问题”,链接是:
www。xxx。com/questions.action?view=all&typeId=120

内容页是一模一样的,相似度达95%以上。

像上述的这两种情况,我是该用robots把点击“所有问题“后的url屏蔽,还是用canonical去处理(修改url这个因为网站系统问题,开发同事说不能修改静态地址)?

建议采用Nofollow加canonical来处理所有问题。

理由:
加了nofollow之后,搜索引擎不会在通过你的内链抓到所有问题的页面去。
canonical则是针对已经被搜索引擎收录,等搜索引擎下次抓取改页面的时候就知道这个页面的唯一地址已经确认为首页,会逐步的减少这些页面的抓取量。

这样问题就解决了

###

都用不完了,一个是禁止抓,一个是软301,两码事、

###

如果你的重复页面URL有共同特征,比如

www。xxx。com/
假设这些重复链接是都是这种URL,那么你直接Robots.txt屏蔽URL中包含/的链接就可以了。

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/17518.html