日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

使用Jsoup实现网络爬虫

發布時間:2023/12/10 编程问答 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 使用Jsoup实现网络爬虫 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

一、什么是Jsoup?

jsoup是一款Java的HTML解析器、可以通過URL獲取DOM元素并解析,也可對HTML文本內容進行解析,jsoup提供了一套非常簡單的方法,類似于CSS、JQuery的操作方法對元素或者是數據進行操作。

二、Jsoup的特點及作用

  • 從URL,文件或字符串中抓取并解析HTML
  • 使用DOM遍歷或CSS選擇器查找和提取數據
  • 處理HTML元素,屬性和文本
  • 根據安全的白名單清除用戶提交的內容,以防止XSS攻擊
  • 輸出整潔的HTML

三、示例

1、解析資源的方式

(1) Jsoup.connect(urlPath).get(); //加載URL (2) Jsoup.parse(""); //從字符串中解析 (3) Jsoup.parse(File in,String charsetName,String baseUri); //從本地文件進行解析

該示例使用第一種方式,加載URL

2、添加相關依賴
2.1 pom.xml中添加依賴

<dependency><groupId>org.jsoup</groupId><artifactId>jsoup</artifactId><version>1.13.1</version> </dependency>

2.2 或者下載Jar包:
jsoup-1.13.1.jar

3、示例代碼

紅色框中是我們想要的部分,每一個DIV對應一張圖片

public class Test {/*** Jsoup常用對象:* 1、Document:文檔對象* 2、Element:元素對象* 3、Elements:Element元素對象的集合* @param args*/public static void main(String[] args) {//設置請求的地址String urlPath = "http://sc.chinaz.com/tupian/fengjingtupian.html";//調用方法test(urlPath);}public static void test(String urlPath){try { //加載URL中的元素Document document = Jsoup.connect(urlPath).get();//獲取我們需要的內容(大概的節點)Elements elements = document.select(".all_wrap #container");//定位到我們想要的標簽(詳細節點)Elements elements2 = elements.select("img");//使用循環獲取當個的元素for(Element node:elements2){//獲取img標簽中src屬性值String href = node.attr("src");//從圖像地址中截取一段文件名出來String fileName = href.substring(href.lastIndexOf("/")+1);//使用URL單個訪問URL url = new URL(href);//打開連接URLConnection conn = url.openConnection();//使用文件流讀取網頁上的內容InputStream is = conn.getInputStream();//把獲取到的內容,保存在本地中OutputStream os = new FileOutputStream(new File("d:\\images",fileName));//設置臨時存儲變量int i = 0 ;while((i = is.read())!=-1){os.write(i);}System.out.println(fileName+" ----------->下載成功!"); } } catch (Exception e) {e.printStackTrace();}}}

總結

以上是生活随笔為你收集整理的使用Jsoup实现网络爬虫的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。