久久青草精品A片狠狠,日韩欧美视频一区二区,亚洲国码AV日韩,国产精品黄在

Robots.txt寫法制作

2016-03-04 15:58:11 22692

robots.txt是站長在做網站優化的時候常用的工具之一,作用就是告訴搜索引擎,那些文件是可以抓取的,那些文件是不讓抓取的。下面就來為大家分享,robots.txt的寫法。

寫Robots之前,我們可以先登錄網站的根目錄,先整理好哪些文件夾不想背搜索引擎爬抓。


然后最后Robots.txt的寫法如下。
# robots.txt
User-agent: *
Allow: /
Disallow: /aspnet_client
Disallow: /bot
Sitemap:http://域名地址.com//sitemap.xml
其中:
Disallow后面的文件夾是禁止搜索引擎抓取的。

然后保存成robots.txt

然后登錄自己的網站ftp,把制作好的robots.txt文件復制到網站的根目錄即可。

最后登錄百度站長工具,檢測是否提交成功,檢測出robots.txt文件即可。



通??梢岳眠@些工具來寫Robots。




提交成功!非常感謝您的反饋,我們會繼續努力做到更好!

這條文檔是否有幫助解決問題?

非常抱歉未能幫助到您。為了給您提供更好的服務,我們很需要您進一步的反饋信息:

在文檔使用中是否遇到以下問題: