日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

scrapy没有运行结果_关于Scrapy爬虫项目运行和调试的小技巧(下篇)

發布時間:2025/3/12 编程问答 20 豆豆
生活随笔 收集整理的這篇文章主要介紹了 scrapy没有运行结果_关于Scrapy爬虫项目运行和调试的小技巧(下篇) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

前幾天給大家分享了關于Scrapy爬蟲項目運行和調試的小技巧上篇,沒來得及上車的小伙伴可以戳超鏈接看一下。今天小編繼續沿著上篇的思路往下延伸,給大家分享更為實用的Scrapy項目調試技巧。
三、設置網站robots.txt規則為False
一般的,我們在運用Scrapy框架抓取數據之前,需要提前到settings.py文件中,將“ROBOTSTXT_OBEY = True”改為ROBOTSTXT_OBEY = False。
在未改動之后settings.py文件中默認爬蟲是遵守網站的robots.txt規則的,如下圖所示。


如果遵守robots.txt規則的話,那么爬取的結果會自動過濾掉很多我們想要的目標信息,因此有必要將該參數設置為False,如下圖所示。


設置好robots.txt規則之后,我們便可以抓到更多網頁的信息。
四、利用Scrapy shell進行調試
通常我們要運行Scrapy爬蟲程序的時候會在命令行中輸入“scrapy crawl crawler_name”,細心的小伙伴應該知道上篇文章中創建的main.py文件也是可以提高調試效率的,不過這兩種方法都是需要從頭到尾運行Scrapy爬蟲項目,每次都需要請求一次URL,效率十分低。運行過Scrapy爬蟲項目的小伙伴都知道Scrapy運行的時候相對較慢,有時候因為網速不穩定,根部就無法動彈。針對每次都需要運行Scrapy爬蟲的問題,這里介紹Scrapy shell調試方法給大家,可以事半功倍噢。
Scrapy給我們提供了一種shell模式,讓我們可以在shell腳本之下獲取整個URL對應的網頁源碼。在命令行中進行運行,其語法命令是“scrapy shell URL”,URL是指你需要抓取的網頁網址或者鏈接,如下圖所示。


該命令代表的意思是對該URL進行調試,當命令執行之后,我們就已經獲取到了該URL所對應的網頁內容,之后我們就可以在該shell下進行調試,再也不用每次都執行Scrapy爬蟲程序,發起URL請求了。
通過shell腳本這種方式可以極大的提高調試的效率,具體的調試方法同爬蟲主體文件中的表達式語法一致。舉個栗子,如下圖所示。


將兩個Xpath表達式所對應的選擇器放到scrapy shell調試的腳本下,我們可以很清楚的看到提取的目標信息,而且省去了每次運行Scrapy爬蟲程序的重復步驟,提高了開發效率。這種方式在Scrapy爬蟲過程中十分常用,而且也十分的實用,希望小伙伴們都可以掌握,并且積極主動的為自己所用。
關于Scrapy爬蟲項目運行和調試的部分小技巧先分享到這里,尤其是Debug調試和Scrapy shell調試極為常用,希望小伙伴們可以多多利用起來,讓其為自己的項目服務,可以事半功倍噢~~

總結

以上是生活随笔為你收集整理的scrapy没有运行结果_关于Scrapy爬虫项目运行和调试的小技巧(下篇)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。