[导读]:网站内页7000+,制作sitemap后生成了多个文件: sitemap.xml、 sitemap1.xml、 sitemap2.xml.... 这种情况下怎么写到robots.txt里呢? 赴美生子 https://www.mifubaobao.com [?] 直接把地址都写进去就可...
网站内页7000+,制作sitemap后生成了多个文件:sitemap.xml、sitemap1.xml、sitemap2.xml....
这种情况下怎么写到robots.txt里呢?
赴美生子 https://www.mifubaobao.com[?]
直接把地址都写进去就可以了
###列出来就可以了
###直接写就好
###直接写就好了,Robots
###直接写就好了
###依次排列
###依次罗列
###在User-agent: *下边依次罗列就可以 这是针对所有搜索引擎 如果你想屏蔽哪个搜素引擎需要你单独再写 然后加上disallow
###Robots 是规则,Sitemap多个也不影响
###直接到网站所在服务器根目录放入Robots就行了
本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/106078.html