首页 > 问答 > 一个网站上线3个月百度分文不收,我该怎么办呢

一个网站上线3个月百度分文不收,我该怎么办呢

[导读]:网站上线3个月 了,百度一条没收录 谷歌、搜搜、搜狗、360搜网站名均排名第一 我勒个去,就百度不收录 其实我们外链做的很广泛了 百度贴吧也有不少引蜘蛛的链接 robots.txt也...

网站上线3个月 了,百度一条没收录
谷歌、搜搜、搜狗、360搜网站名均排名第一
我勒个去,就百度不收录
其实我们外链做的很广泛了
百度贴吧也有不少引蜘蛛的链接
robots.txt也没禁止百度
也没有nofollow百度
求支招。。。。
www。chinazlgz。com
对了,内容是他们自己复制转载的,目前已经让停止了,可能的原因就在这吧
另外百度统计里 收录索引区域也是显示 无数据
难道百度蜘蛛没来爬行吗?为什么是无数据,别的站都是曲线图
求精英们给支招

7.4晚我删除了robots.txt,避免robots的影响

Robots.txt的规范问题目前还是比较模糊的。
官方说,建立robots的时候,里面必须包含一个Disallow,否则是无效的。但是百度在示范里面给的也比较明确,那就是Allow:/表示不禁止任何页面被收录。所以现在也搞不清楚到底哪一个才是正确的。

不过从楼主的经验来看,既然其它搜索引擎都收录了,那么百度不收录的话就不应该是robots的问题。建议去查查网站的日志,看看到底是蜘蛛没有来,还是来了没爬行,还是爬行了没有索引。这些在索引后台是看不出来的

###

你需要在文章原创上面下功夫,写一些原创文章,然后提交给百度,查看一下日志看看蜘蛛有来过没有。

另外你的Robots文件改写成下面的试试:
User-agent: *
Allow: /

###

Robots文件改写成下面的试试:
User-agent: *
Allow: /

在看看IIS日志,看看搜索引擎有没有来抓取过。

###

看看日志再说

###

新网站上线你就搞复制的发布,收录的话就不正常了,必须发的话,Robots禁止蜘蛛抓取,必须原创。百度对新站考核期延长,复制的内容不收录很正常,完全原创的百度也不保证收录的

###

你的Robots.txt有问题
User-agent: *
Disallow:

这样有可能屏蔽百度蜘蛛,如果楼主这样写robots还不如不写为好

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/18505.html