国产人与禽ZoZ0性伦多活几年,真实国产老熟女无套中出,аⅴ资源中文在线天堂,另类老妇性BBwBBw

野狼SEO團隊,純白帽SEO倡導(dǎo)者!18年專注網(wǎng)站優(yōu)化服務(wù),支持月付!? [點擊查看公司宣傳冊]
專注純白帽、整站正規(guī)優(yōu)化
讓你排名上升,流量暴漲!
網(wǎng)站優(yōu)化服務(wù)電話
0371-56789-390
詳細內(nèi)容
當前位置:首頁 > SEO知識 > 詳情

百度優(yōu)化工作中不得不提到的Robots.txt

發(fā)布時間:2013-12-21 來源:本站原創(chuàng) 作者:野狼SEO團隊 閱讀:676

   Robots.txt對于任何一個從事SEO研究工作的人都是至關(guān)重要的,因為透過Robots.txt我們可以直接與搜索引擎蜘蛛進行對話,告訴他們哪些可以抓取,哪些不可以抓取。

  

  一、為什么設(shè)置Robots.txt?

  
  在進行SEO操作的時候,我們需要告訴搜索引擎哪些頁面重要哪些頁面不重要,重要的頁面讓蜘蛛進行抓取,不重要的頁面進行屏蔽可以減少網(wǎng)站服務(wù)器的負擔。
  

  二、一些常見的問題和知識點

  
  1、蜘蛛在發(fā)現(xiàn)一個網(wǎng)站的時候,第一步是抓取網(wǎng)站的Robots.txt文件(當然官方上是這么說的,有時候也會出現(xiàn)不遵守的情況);
  
  2、建議所有的網(wǎng)站都要設(shè)置Robots.txt文件,如果你認為網(wǎng)站上所有內(nèi)容都是重要的,你可以建立一個空的robots.txt文件;
  

  三、在robots.txt文件中設(shè)置網(wǎng)站地圖

  
  你可以在robots.txt中添加網(wǎng)站的地圖,告訴蜘蛛網(wǎng)站地圖所在的地址。
  

  四、Robots.txt的順序

  
  在蜘蛛?yún)f(xié)議中,Disallow與Allow是有順序的,這是一個非常重要的問題,如果設(shè)置錯誤可能會導(dǎo)致抓取錯誤。
  
  引擎蜘蛛程序會根據(jù)第一個匹配成功的Allow或Disallow行確定是否訪問某個URL,一個例子可以讓你更清楚明白:
  
  1.User-agent:*2.Allow:/seojc/bbs3.Disallow:/seojc/這個情況下,蜘蛛/seojc/bbs目錄可以正常抓取,但/seojc/目錄的文件無法抓取。通過這種方式可以允許蜘蛛訪問特定目錄中的部分url。
  
  我們對調(diào)下位置觀察一下。
  
  1.User-agent:*2.Disallow:/seojc/3.Allow:/seojc/bbs/seojc/目錄出現(xiàn)在第一行,禁止抓取目錄下的所有文件,那么第二行的Allow就無效,因為第一行中已經(jīng)禁止抓取seojc目錄下的所有文件,而bbs目錄正好位于seojc目錄下。因此匹配不成功。
  

  五、Robots.txt路徑問題

  
  在蜘蛛?yún)f(xié)議中,Allow和Disallow后面可以跟兩種路徑形式,即絕對鏈接、相對鏈接。絕對鏈接就是完整的URL形式,而相對鏈接只針對根目錄。這是重點記住。
  

  六、斜杠問題

  
  Disallow:/seojc表示禁止抓取seoic這個目錄下的所有文件,如seojc/1.html、seojc/rmjc.php;
  
  Disallow:/seojc/表示禁止抓取seojc這個目錄,而seojc.1.html、seojc/rmjc.php是可以抓取的。

本文作者:野狼SEO團隊

十六年網(wǎng)站建設(shè)相關(guān)經(jīng)驗
一站式為您提供網(wǎng)站相關(guān)服務(wù)

歡迎掃碼咨詢

訪客頭像訪 客107.1***
新評論

還沒有人評論,快來搶個沙發(fā)!