日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 前端技术 > javascript >内容正文

javascript

java jsonp网络爬虫_JSOUP 爬虫

發布時間:2023/12/10 javascript 48 豆豆
生活随笔 收集整理的這篇文章主要介紹了 java jsonp网络爬虫_JSOUP 爬虫 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

接下來我們專門針對幾種常見的應用場景舉例說明 jsoup 是如何優雅的進行 HTML 文檔處理的。

4.文檔輸入

jsoup 可以從包括字符串、URL地址以及本地文件來加載 HTML 文檔,并生成 Document 對象實例。

下面是相關代碼:

//直接從字符串中輸入 HTML 文檔

String html = "

JSONP" +

"

這里是 jsoup 項目的相關文章

";

Document doc=Jsoup.parse(html);//從URL直接加載 HTML 文檔

Document doc = Jsoup.connect("http://www.baidu.net/").get();

String title=doc.title();

Document doc= Jsoup.connect("http://www.baidu.net/")

.data("query", "Java") //請求參數

.userAgent("I’m jsoup") //設置User-Agent

.cookie("auth", "token") //設置cookie

.timeout(3000) //設置連接超時時間

.post(); //使用POST方法訪問URL//從文件中加載 HTML 文檔

File input = new File("D:/test.html");

Document doc= Jsoup.parse(input,"UTF-8","http://www.oschina.net/");

請大家注意最后一種 HTML 文檔輸入方式中的 parse 的第三個參數,為什么需要在這里指定一個網址呢(雖然可以不指定,如第一種方法)?因為 HTML 文檔中會有很多例如鏈接、圖片以及所引用的外部腳本、css文件等,而第三個名為 baseURL 的參數的意思就是當 HTML 文檔使用相對路徑方式引用外部文件時,jsoup 會自動為這些 URL 加上一個前綴,也就是這個 baseURL。?例如 :

開源軟件

會被轉換成

開源軟件。

5.解析并提取 HTML 元素

這部分涉及一個 HTML 解析器最基本的功能,但 jsoup 使用一種有別于其他開源項目的方式——選擇器,我們將在最后一部分詳細介紹 jsoup 選擇器,本節中你將看到 jsoup 是如何用最簡單的代碼實現。

不過 jsoup 也提供了傳統的 DOM 方式的元素解析,看看下面的代碼:

File input = new File("D:/test.html");

Document doc= Jsoup.parse(input, "UTF-8", "http://www.baidu.net/");

Element content= doc.getElementById("content");

Elements links= content.getElementsByTag("a");for(Element link : links) {

String linkHref= link.attr("href");

String linkText=link.text();

}

你可能會覺得 jsoup 的方法似曾相識,沒錯,像 getElementById 和 getElementsByTag 方法跟 JavaScript 的方法名稱是一樣的,功能也完全一致。你可以根據節點名稱或者是 HTML 元素的 id 來獲取對應的元素或者元素列表。

與 htmlparser 項目不同的是,jsoup 并沒有為 HTML 元素定義一個對應的類,一般一個 HTML 元素的組成部分包括:節點名、屬性和文本,jsoup 提供簡單的方法供你自己檢索這些數據,這也是 jsoup 保持瘦身的原因。

而在元素檢索方面,jsoup 的選擇器簡直無所不能,

File input = new File("D:\test.html");

Document doc= Jsoup.parse(input,"UTF-8","http://www.baidu.net/");

Elements links= doc.select("a[href]"); //具有 href 屬性的鏈接

Elements pngs = doc.select("img[src$=.png]");//所有引用png圖片的元素

Element masthead = doc.select("div.masthead").first();//找出定義了 class="masthead" 的元素

Elements resultLinks = doc.select("h3.r > a"); //direct a after h3

這是 jsoup 真正讓我折服的地方,jsoup 使用跟 jQuery 一模一樣的選擇器對元素進行檢索,以上的檢索方法如果換成是其他的 HTML 解釋器,至少都需要很多行代碼,而 jsoup 只需要一行代碼即可完成。

jsoup 的選擇器還支持表達式功能,我們將在最后一節介紹這個超強的選擇器。

6.修改數據

在解析文檔的同時,我們可能會需要對文檔中的某些元素進行修改,例如我們可以為文檔中的所有圖片增加可點擊鏈接、修改鏈接地址或者是修改文本等。

下面是一些簡單的例子:

doc.select("div.comments a").attr("rel", "nofollow");//為所有鏈接增加 rel=nofollow 屬性

doc.select("div.comments a").addClass("mylinkclass");//為所有鏈接增加 class="mylinkclass" 屬性

doc.select("img").removeAttr("onclick"); //刪除所有圖片的onclick屬性

doc.select("input[type=text]").val(""); //清空所有文本輸入框中的文本

道理很簡單,你只需要利用 jsoup 的選擇器找出元素,然后就可以通過以上的方法來進行修改,除了無法修改標簽名外(可以刪除后再插入新的元素),包括元素的屬性和文本都可以修改。

修改完直接調用 Element(s) 的 html() 方法就可以獲取修改完的 HTML 文檔。

7.HTML 文檔清理

jsoup 在提供強大的 API 同時,人性化方面也做得非常好。在做網站的時候,經常會提供用戶評論的功能。有些用戶比較淘氣,會搞一些腳本到評論內容中,而這些腳本可能會破壞整個頁面的行為,更嚴重的是獲取一些機要信息,例如 XSS 跨站點攻擊之類的。

jsoup 對這方面的支持非常強大,使用非常簡單。看看下面這段代碼:

String unsafe = "

JSONP

";

String safe=Jsoup.clean(unsafe, Whitelist.basic());//輸出://

JSONP

jsoup 使用一個 Whitelist 類用來對 HTML 文檔進行過濾,該類提供幾個常用方法:

總結

以上是生活随笔為你收集整理的java jsonp网络爬虫_JSOUP 爬虫的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。