日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

怎么利用robots文件做好网站优化让蜘蛛更好的抓取网站?

發布時間:2023/11/22 综合教程 25 生活家
生活随笔 收集整理的這篇文章主要介紹了 怎么利用robots文件做好网站优化让蜘蛛更好的抓取网站? 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

  robots文件存在于網站根目錄,是用來告訴百度蜘蛛那些應該抓取,那些不應該抓取。正確使用robots文件有助于做好seo優化,robots文件的核心詞匯就是allow和disallow用法。百度官網是認可這個文件的,在百度站長平臺上也有robots這個欄目,點擊進入,就可以看到你網站robots文件是否編寫正確了。

  百度robots文件使用說明

  1、robots.txt可以告訴百度您網站的哪些頁面可以被抓取,哪些頁面不可以被抓取。

  2、您可以通過Robots工具來創建、校驗、更新您的robots.txt文件,或查看您網站robots.txt文件在百度生效的情況。

  3、Robots工具暫不支持https站點。

  4、Robots工具目前支持48k的文件內容檢測,請保證您的robots.txt文件不要過大,目錄最長不超過250個字符。

  

  上圖我給的一個例子中,disallow語句有問題,原因是把英文的冒號寫成了中文的冒號。

  當然直接輸入網站根目錄加上robtots.txt文件也可以

  

  User-agent:*   是用來置頂那些搜索引擎蜘蛛可以抓取的,一般默認設置

  Disallow:/category/*/page/ 分類目錄下面翻頁后的鏈接,比如,進入校賺網分類目錄 "推廣運營經驗"目錄后,在翻頁一次,就成了 stcash.com/category/tuiguangyunying/page/2形式了

  Disallow:/?s=* Disallow:/*/?s=*  搜索結果頁面和分類目錄搜索結果頁面,這里沒必要再次抓取。

  Disallow:/wp-admin/ Disallow:/wp-content/ Disallow:/wp-includes/   這三個目錄是系統目錄,一般都是屏蔽蜘蛛抓取

  Disallow:/*/trackback  trackback的鏈接

  Disallow:/feed Disallow:/*/feed Disallow:/comments/feed  訂閱鏈接

  Disallow:/?p=*   文章短鏈接,會自動301跳轉到長連接

  例如,朱海濤博客之前就被收錄過短連接

  Disallow:/*/comment-page-*   Disallow:/*?replytocom* 這兩個我在之前文章有過說明,來自于評論鏈接,很容易造成重復收錄。

  在robots.txt文件的最后還可以制定sitemap文件 Sitemap:http://***.com/sitemap.txt

  sitemap地址指令,主流是txt和xml格式。在這里分享一段張戈所寫txt格式的simemap文件。

  將上述代碼保存到txt文件,上傳到根目錄,并且在robots.txt文件中指定即可

  這里給大家共享下我的robots.txt文件

復制內容到剪貼板

  1.   User-agent:*
  2.   Disallow:/wp-admin/
  3.   Disallow:/*/comment-page-*
  4.   Disallow:/*?replytocom*
  5.   Disallow:/wp-content/
  6.   Disallow:/wp-includes/
  7.   Disallow:/category/*/page/
  8.   Disallow:/*/trackback
  9.   Disallow:/feed
  10.   Disallow:/*/feed
  11.   Disallow:/comments/feed
  12.   Disallow:/?s=*
  13.   Disallow:/*/?s=*\
  14.   Disallow:/attachment/
  15.   Disallow:/tag/*/page/
  16.   Sitemap:http://www.stcash.com/sitemap.xml

總結

以上是生活随笔為你收集整理的怎么利用robots文件做好网站优化让蜘蛛更好的抓取网站?的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。