首页 > 问答 > 搜索引擎抓取大量的404该如何处理

搜索引擎抓取大量的404该如何处理

[导读]:搜索引擎抓取大量的404该如何处理? 写到Robots文件中去,禁止掉制作抓取,就能直接减少404页面的抓取。 方法一: User-agent: * Disallow: / ? 如果你所有页面?参数的都是404页面。...

搜索引擎抓取大量的404该如何处理?



写到Robots文件中去,禁止掉制作抓取,就能直接减少404页面的抓取。

方法一:
User-agent: *
Disallow: /?

如果你所有页面?参数的都是404页面。

方法二:
使用web目录中的文件来自定义内容。” 再将404页面传入主机web目录下。
(Disallow: /)在写入robots文件中。

方法三:
没有主机管理平台404页面的设置,这里需要在网上目录下新建一个文件
文件名为(.htaccess)在此文件内输入如下代码(用记事本打开即可)
ErrorDocument 404 /
再将404页面改名为
(Disallow: /)在写入robots文件中。

###

目测是一些坏人get搜索拼垃圾链接,然后往外发。。大站经常这样,原来智联的排名中有一堆违禁词都是这么来的。不知道你说的处理指什么,反正提交404是没啥用的,今儿提交12w,赶明他又做出24w。。。

我能想到的,要么把get改成post;要么直接Robots里加上"jobs?jobKw",把搜索url全屏掉。那些用动态url做的招聘列表用静态url生成一份,提交百度,动态url 301到静态url。我倾向第二种。

###

高手在这里啊!!

###

Robots中加入disallow: /屏蔽掉所有动态页面,防止蜘蛛陷阱,

###

找到这些404页面的规律,然后使用Robots.txt屏蔽掉。

###

明显是百度蜘蛛技术不行,谷歌就不会抓取这些链接。
让百度负责爬虫的工程师改算法罢。

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/29275.html