日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > C# >内容正文

C#

C#最基本的小说爬虫

發(fā)布時(shí)間:2025/3/21 C# 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 C#最基本的小说爬虫 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

新手學(xué)習(xí)C#,自己折騰弄了個(gè)簡單的小說爬蟲,實(shí)現(xiàn)了把小說內(nèi)容爬下來寫入txt,還只能爬指定網(wǎng)站。

第一次搞爬蟲,涉及到了網(wǎng)絡(luò)協(xié)議,正則表達(dá)式,弄得手忙腳亂跑起來效率還差勁,慢慢改吧。

爬的目標(biāo):http://www.166xs.com/xiaoshuo/83/83557/

?

?

?

?

?

一、先寫HttpWebRequest把網(wǎng)站扒下來

這里有幾個(gè)坑,大概說下:

第一個(gè)就是記得弄個(gè)代理IP爬網(wǎng)站,第一次忘了弄代理然后ip就被封了。。。。。

第二個(gè)就是要判斷網(wǎng)頁是否壓縮,第一次沒弄結(jié)果各種轉(zhuǎn)碼gbk utf都是亂碼。后面解壓就好了。

/// <summary>/// 抓取網(wǎng)頁并轉(zhuǎn)碼/// </summary>/// <param name="url"></param>/// <param name="post_parament"></param>/// <returns></returns>public string HttpGet(string url, string post_parament){string html;HttpWebRequest Web_Request = (HttpWebRequest)WebRequest.Create(url);Web_Request.Timeout = 30000;Web_Request.Method = "GET";Web_Request.UserAgent = "Mozilla/4.0";Web_Request.Headers.Add("Accept-Encoding", "gzip, deflate");//Web_Request.Credentials = CredentialCache.DefaultCredentials;//設(shè)置代理屬性WebProxy-------------------------------------------------WebProxy proxy = new WebProxy("111.13.7.120", 80);//在發(fā)起HTTP請(qǐng)求前將proxy賦值給HttpWebRequest的Proxy屬性Web_Request.Proxy = proxy;HttpWebResponse Web_Response = (HttpWebResponse)Web_Request.GetResponse();if (Web_Response.ContentEncoding.ToLower() == "gzip") // 如果使用了GZip則先解壓 {using (Stream Stream_Receive = Web_Response.GetResponseStream()){using (var Zip_Stream = new GZipStream(Stream_Receive, CompressionMode.Decompress)){using (StreamReader Stream_Reader = new StreamReader(Zip_Stream, Encoding.Default)){html = Stream_Reader.ReadToEnd();}}}}else{using (Stream Stream_Receive = Web_Response.GetResponseStream()){using (StreamReader Stream_Reader = new StreamReader(Stream_Receive, Encoding.Default)){html = Stream_Reader.ReadToEnd();}}}return html;}

?

?

二、下面就是用正則處理內(nèi)容了,由于正則表達(dá)式不熟悉所以重復(fù)動(dòng)作太多。

1.先獲取網(wǎng)頁內(nèi)容

IWebHttpRepository webHttpRepository = new WebHttpRepository();string html = webHttpRepository.HttpGet(Url_Txt.Text, "");

?

2.獲取書名和文章列表

書名

?

?文章列表

?

string Novel_Name = Regex.Match(html, @"(?<=<h1>)([\S\s]*?)(?=</h1>)").Value; //獲取書名 Regex Regex_Menu = new Regex(@"(?is)(?<=<dl class=""book_list"">).+?(?=</dl>)");string Result_Menu = Regex_Menu.Match(html).Value; //獲取列表內(nèi)容 Regex Regex_List = new Regex(@"(?is)(?<=<dd>).+?(?=</dd>)");var Result_List = Regex_List.Matches(Result_Menu); //獲取列表集合

?

3.因?yàn)檎鹿?jié)列表前面有多余的<dd>,所以要剔除

int i = 0; //計(jì)數(shù)string Menu_Content = ""; //所有章節(jié)foreach (var x in Result_List){if (i < 4){//前面五個(gè)都不是章節(jié)列表,所以剔除 }else{Menu_Content += x.ToString();}i++;}

?

4.然后獲取<a>的href和innerHTML,然后遍歷訪問獲得內(nèi)容和章節(jié)名稱并處理,然后寫入txt

Regex Regex_Href = new Regex(@"(?is)<a[^>]*?href=(['""]?)(?<url>[^'""\s>]+)\1[^>]*>(?<text>(?:(?!</?a\b).)*)</a>");MatchCollection Result_Match_List = Regex_Href.Matches(Menu_Content); //獲取href鏈接和a標(biāo)簽 innerHTML string Novel_Path = Directory.GetCurrentDirectory() + "\\Novel\\" + Novel_Name + ".txt"; //小說地址 File.Create(Novel_Path).Close();StreamWriter Write_Content = new StreamWriter(Novel_Path);foreach (Match Result_Single in Result_Match_List){string Url_Text = Result_Single.Groups["url"].Value;string Content_Text = Result_Single.Groups["text"].Value;string Content_Html = webHttpRepository.HttpGet(Url_Txt.Text + Url_Text, "");//獲取內(nèi)容頁 Regex Rege_Content = new Regex(@"(?is)(?<=<p class=""Book_Text"">).+?(?=</p>)");string Result_Content = Rege_Content.Match(Content_Html).Value; //獲取文章內(nèi)容 Regex Regex_Main = new Regex(@"(&nbsp;&nbsp;&nbsp;&nbsp;)(.*)");string Rsult_Main = Regex_Main.Match(Result_Content).Value; //正文 string Screen_Content = Rsult_Main.Replace("&nbsp;", "").Replace("<br />", "\r\n");Write_Content.WriteLine(Content_Text + "\r\n");//寫入標(biāo)題Write_Content.WriteLine(Screen_Content);//寫入內(nèi)容 }Write_Content.Dispose();Write_Content.Close();MessageBox.Show(Novel_Name+".txt 創(chuàng)建成功!");System.Diagnostics.Process.Start(Directory.GetCurrentDirectory() + "\\Novel\\");

?

三、小說寫入成功

?

轉(zhuǎn)載于:https://www.cnblogs.com/xinyibufang/p/7615400.html

總結(jié)

以上是生活随笔為你收集整理的C#最基本的小说爬虫的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 成人特级毛片69免费观看 | 91嫩草影视| 日韩精品在线免费观看视频 | 日本xxxxxxxxx69| 伦理亚洲 | 91成人在线| 懂色av中文一区二区三区天美 | 成人做爰的视频 | 国产精品人成在线观看免费 | 亚洲字幕成人中文在线观看 | 日韩黄色在线 | 日韩精品中文字幕一区二区三区 | 图片区 小说区 区 亚洲五月 | www.五月婷婷.com| 日本福利片在线观看 | 黄色片免费在线 | 亚洲精品91 | 日本激情一区二区三区 | 久草视频在线资源站 | 日韩中文字幕第一页 | 日韩欧美一卡二卡 | 三级自拍视频 | www日本在线观看 | 成人aaa| www.美色吧.com| 欧美亚洲国产日韩 | 精品欧美一区二区精品少妇 | 亚洲黄色中文字幕 | 草莓巧克力香氛动漫的观看方法 | 久草精品国产 | 日本视频在线观看免费 | 色爽爽一区二区三区 | 日本大尺度做爰呻吟 | 亚洲第一视频在线播放 | 性感美女视频一二三 | 亚洲视频一区在线 | 欧美日韩国产网站 | 久射久| 99免费在线视频 | 国产成人精品视频在线观看 | 久久四色 | 亚洲视频在线一区二区 | 亚洲色图p | 在线免费av网址 | 国产精品5| 全黄一级片 | 中文字幕 欧美 日韩 | 精品一二三四区 | 日批在线 | 日韩毛片一区二区三区 | 欧美肥妇bwbwbwbxx | 一二三区不卡 | 中文字幕一区在线观看 | 91漂亮少妇露脸在线播放 | 久久久久毛片 | 国内外成人免费视频 | 亚洲最大av网 | 91视频在线观看免费 | 精品在线二区 | 国产在线xx | 久久精品6 | 性xxxx欧美老肥妇牲乱 | 成人午夜毛片 | 男人av资源 | 国产成人精品一区二区三区无码熬 | 黑人玩弄人妻一区二区三区四 | 国产午夜电影在线观看 | 日韩精品电影在线观看 | 天天看天天做 | 午夜精品福利在线 | 久久精品国产亚洲7777 | caoporn人人| 人人草网站 | 成人激情视频在线观看 | 国产精品美乳在线观看 | 黄色一级免费大片 | 午夜精品久久久久久久第一页按摩 | 亚洲人久久 | 久久99国产精品成人 | 国语对白91 | 久久久久久久久久久久久女国产乱 | 国产91精 | 精品人妻久久久久一区二区三区 | 日韩国产精品一区二区 | 亚洲国产精品激情在线观看 | 2024av| 18精品爽国产白嫩精品 | 免费荫蒂添的好舒服视频 | 国产社区在线 | 97在线免费视频 | 成人视品 | 国产盗摄一区二区三区在线 | 在线观看免费视频 | 欧美性猛交xxxx乱大交蜜桃 | 少妇超碰 | 成人综合社区 | 国产成人精品女人久久久 | 日本久久久久久久久久 | 亚洲av无码日韩精品影片 |