robots.txt的写法138
百度蜘蛛是一机器,它只认识数字、字母和汉字,而其中robots.txt就是最重要也是最开始和百度“对话”的内容。
当我们的网站在没有建好的时候,我们不希望百度来抓取我们的网站,往往有人会禁止百度来抓取。但是,这种做法是非常不好的,这样会让百度蜘蛛很难再来到你的网站了。所以,我们必须现在本地搭建网站,等一切都搞好以后,再去买域名、空间,要不,一个网站的反复修改,会对你的网站有一定的不利影响。
我们的网站起初的robots.txt写法如下:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
User-agent: * 的意思是,允许所以引擎抓取。
而Disallow: /wp-admin/和Disallow: /wp-includes/,则是禁止百度抓取我们的隐私,包括用户密码、数据库等。这样的写法既保护了我们的隐私,也让百度蜘蛛的抓取最大化。
如果,你想禁止百度蜘蛛抓取某一个页面,比如123.html,那就加一句代码“Disallow: /123.html/”即可。
robots.txt写好后,只需要上传到网站的根目录下即可。
以上就是robots.txt的写法的详细内容
2022-12-04
沈阳抖音SEO排名深度解析:本地企业短视频流量增长与品牌曝光全攻略
https://www.jisuseo.cn/129900.html
SEO基础教程:从入门到精通的网站引流与推广实战指南
https://www.jisuseo.cn/129899.html
聊城抖音图文SEO:从策略到费用,助您抢占本地流量高地
https://www.jisuseo.cn/129898.html
深度解析:SEO自学成长路径与知乎平台高效推广策略
https://www.jisuseo.cn/129897.html
谷歌SEO技术优化:深度解析、实战策略与排名提升指南
https://www.jisuseo.cn/129896.html
热门文章
油管youtube视频无法打开的原因
https://www.jisuseo.cn/9544.html
刚刚!今日头条窃取百度搜索结果实锤![3989字]
https://www.jisuseo.cn/19376.html
百度蜘蛛的鉴别方法
百度真假蜘蛛IP如何识别?判断百度蜘蛛的鉴别方法
外链和友情链接的区别
外链和友情链接的区别
HTML代码建议
https://www.jisuseo.cn/386.html