日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

批量下载小说网站上的小说(python爬虫)

發(fā)布時間:2023/12/10 python 51 豆豆
生活随笔 收集整理的這篇文章主要介紹了 批量下载小说网站上的小说(python爬虫) 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

隨便說點什么

  因為在學(xué)python,所有自然而然的就掉進(jìn)了爬蟲這個坑里,好吧,主要是因為我覺得爬蟲比較酷,才入坑的。

  想想看,你可以批量自動的采集互聯(lián)網(wǎng)上海量的資料數(shù)據(jù),是多么令人激動啊!

  所以我就被這塊大蛋糕吸引過來了 :)

?

  想學(xué)爬蟲自然要去找學(xué)習(xí)資料了,不過網(wǎng)上有很多,我找了不少,個人覺得崔慶才的爬蟲教程寫得不錯。起碼對我來說,入門是夠了。

  感興趣的朋友可以點進(jìn)鏈接看看:Python爬蟲學(xué)習(xí)系列教程? ?<==這位兄臺博客做得也很好

  掌握了基本的爬蟲知識,主要是urllib,urlib2,re 這些庫,以及Request(),urlopen()的基本用法之后,我就開始尋找爬取目標(biāo)。

?

  正好女朋友的哥哥讓她幫忙下載小說,找我推薦幾本,我一時也不知道他哥喜歡什么類型的,心想干脆找個小說網(wǎng)批量下載一些小說。

  于是說干就干,用了一個中午時間寫了一個粗糙的爬蟲腳本,啟動發(fā)現(xiàn)可以運行,讓腳本在這兒跑著,我回去躺在床上呼呼大睡。

  起來之后發(fā)現(xiàn)腳本遇到錯誤,停掉了,于是debug,干掉bug之后跑起來陸續(xù)又發(fā)現(xiàn)幾個錯誤,于是干脆在一些容易出錯的地方,例如urlopen()請求服務(wù)器的地方,本地write()寫入的地方(是的,這也會有超時錯誤!)加入了try-except捕獲錯誤進(jìn)行處理,另外加入了socket.timeout網(wǎng)絡(luò)超時限制,修修補(bǔ)補(bǔ)之后總算可以順暢的運行。

  如此,運行了兩天,爬蟲腳本把這個小說網(wǎng)上的幾乎所有小說都下載到了本地,一共27000+本小說,一共40G。

  自此,大功告成,打包發(fā)了過去。另外說一句,百度云真坑,每次上傳數(shù)量有限制,分享給朋友文件數(shù)量有限制,分享的文件夾大小也有限制,害的我還得整成壓縮版才能分享。

下載界面

下面附上代碼

1 #coding=utf-8 2 import urllib 3 import urllib2 4 import re 5 import os 6 7 webroot = 'http://www.xuanshu.com' 8 9 for page in range(20,220): 10 print '正在下載第'+str(page)+'頁小說' 11 12 url = 'http://www.xuanshu.com/soft/sort02/index_'+str(page)+'.html' 13 headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6' } 14 try: 15 request = urllib2.Request(url,headers=headers) 16 response = urllib2.urlopen(request,timeout=180) 17 #print response.read() 18 except urllib2.URLError, e: 19 if hasattr(e,"code"): 20 print e.code 21 if hasattr(e,"reason"): 22 print e.reason 23 24 html = response.read().decode('utf-8') 25 #print html 26 pattern = re.compile(u'<li>.*?<div class="s">.*?target="_blank">(.*?)</a><br />大小:(.*?)<br>.*?</em><br>更新:(.*?)</div>.*?<a href="(.*?)"><img.*?>(.*?)</a>.*?<div class="u">(.*?)</div>',re.S) 27 items = re.findall(pattern,html) 28 #print items 29 30 for item in items: 31 try: 32 book_auther = item[0].encode('gbk') 33 book_size = item[1].encode('gbk') 34 book_updatetime = item[2].encode('gbk') 35 book_link = item[3].encode('gbk') 36 book_name = item[4].encode('gbk') 37 book_note = item[5].encode('gbk') 38 39 book_full_link = webroot + book_link # 構(gòu)建書的絕對地址 40 41 #請求地址 42 try: 43 request = urllib2.Request(book_full_link,headers=headers) 44 response = urllib2.urlopen(request,timeout=180) 45 except urllib2.URLError, e: 46 if hasattr(e,"code"): 47 print e.code 48 if hasattr(e,"reason"): 49 print e.reason 50 html = response.read().decode('utf-8') 51 #print html 52 pattern = re.compile('<a class="downButton.*?<a class="downButton" href=\'(.*?)\'.*?Txt.*?</a>',re.S) 53 down_link = re.findall(pattern,html) 54 print book_name 55 print down_link 56 57 # down txt 58 try: 59 request = urllib2.Request(down_link[0].encode('utf-8'),headers=headers) 60 response = urllib2.urlopen(request,timeout=180) 61 except urllib2.URLError, e: 62 if hasattr(e,"code"): 63 print e.code 64 if hasattr(e,"reason"): 65 print e.reason 66 try: 67 fp = open(book_name+'.txt','w') 68 except IOError,e: 69 pattern = re.compile('<strong>.*?>(.*?)<.*?</strong>',re.S) 70 book_name = re.findall(pattern,book_name) 71 fp = open(book_name[0]+'.txt','w') 72 print 'start download' 73 fp.write(response.read()) 74 print 'down finish\n' 75 fp.close() 76 except Exception,e: 77 print '該條目解析出現(xiàn)錯誤,忽略' 78 print e 79 print '' 80 fp = open('error.log','a') 81 fp.write('page:'+str(page)+'\n') 82 fp.write(item[4].encode('gbk')) 83 #fp.write(e) 84 fp.write('\nThere is an error in parsing process.\n\n') 85 fp.close() 86 87

注意

該腳本只定向抓取“選書網(wǎng)”小說站,“玄幻奇幻”分類下的小說。供網(wǎng)友們參考,可自行修改。

寫得比較粗糙,勿噴……


Freecode# :?www.cnblogs.com/yym2013

總結(jié)

以上是生活随笔為你收集整理的批量下载小说网站上的小说(python爬虫)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。