zblog php robots,zblog的robots.txt怎么写?zblog的robots.txt文件示例下载
robots.txt對(duì)于比較seo的站長(zhǎng)來說是一個(gè)很重要的東西,經(jīng)常有朋友再問zblog的robots怎么寫?本文就來詳細(xì)說明下。
首先來解釋下robots.txt是什么?robots.txt有什么作用?robots.txt是搜索引擎中訪問網(wǎng)站的時(shí)候要查看的第一個(gè)文件。當(dāng)一個(gè)搜索蜘蛛訪問一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會(huì)按照該文件中的內(nèi)容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網(wǎng)站上所有沒有被口令保護(hù)的頁(yè)面。
以上內(nèi)容來自百度百科。
看了上面的內(nèi)容就能了解robots.txt是告訴搜索們?cè)撌珍浤男╉?yè)面, 所以我們就要知道zblog程序里面哪有文件夾是給蜘蛛爬的哪些文件夾不能給蜘蛛爬。請(qǐng)參考“https://www.txcstx.cn/post/1085.html”。
給大家一個(gè)示范的robots.txt也就是本站的robots.txt文件:User-agent:?*
Disallow:?/zb_users/
Disallow:?/zb_system/
Sitemap:http://www.txcstx.cn/sitemap.xml
上面的robots.txt意思是讓蜘蛛不要爬zb_users和zb_system這兩個(gè)文件夾,另外本站的“Sitemap”文件是“seo工具大全”插件生成的,你們可以下載其他插件(https://app.zblogcn.com/search.php?q=Sitemap)生成Sitemap文件。
總結(jié)
以上是生活随笔為你收集整理的zblog php robots,zblog的robots.txt怎么写?zblog的robots.txt文件示例下载的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: iis 改了php ini不生效,Win
- 下一篇: php json csv,比JSON更简