首页 > 问答 > robots.txt 文件如何禁止某个搜索引擎访问

robots.txt 文件如何禁止某个搜索引擎访问

[导读]:robots.txt 文件如何禁止某个搜索引擎访问   就不详细写了 ### User-agent:搜索引擎蜘蛛 Disallow:/ 各大搜索引擎蜘蛛名字可以去百度一下  就不详细写了 ### 三楼说,一楼回答的很对...

robots.txt 文件如何禁止某个搜索引擎访问 

 就不详细写了

###
User-agent:搜索引擎蜘蛛 
Disallow:/

各大搜索引擎蜘蛛名字可以去百度一下  就不详细写了

###

三楼说,一楼回答的很对

###

楼上回答完美

###

仅禁止Baiduspider访问


User-agent:Baiduspider


Disallow:

仅允许Baiduspider访问您的网站


User-agent:Baiduspider


Disallow:

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/104833.html