日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Jsoup爬虫实例

發布時間:2023/12/10 编程问答 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Jsoup爬虫实例 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

一、簡介

jsoup 是一款Java 的HTML解析器,可直接解析某個URL地址、HTML文本內容。它提供了一套非常省力的API,可通過DOM,CSS以及類似于jQuery的操作方法來取出和操作數據。(來源百度)

?二、準備

首先你需要找到一個你需要爬取數據的網站,找到你需要的數據所在HTML中的定位

?可以根據下面這個指令查看你定位是否正確

document.querySelector(".zwm").innerText

?

?下面事具體實現:

public static void collectSingle() throws IOException{//獲取5頁公司數據for (int i = 1; i <=5; i++) {//獲取頁面文本的地址 地址省略了String addr = "http://www.*****.com/job/p"+i+".shtml";URL url = new URL(addr);Document doc = Jsoup.parse(url,5000);//解析內容,提取數據Elements as = doc.select("a.comName");as.forEach(a->{String href = a.attr("href");href = "http://www.*****.com"+href;//插入數據庫的sql語句String sql = "insert into com values (?,?,?,?,?,?,?,?,?)";try{//提取地址中的idString sid = href.replaceAll("\\D+(\\d+)\\.shtml","$1");int id = Integer.parseInt(sid);SpiderHelper.collectSingle(href,sql,id,".zwm>span",".zwm>em",".gsmc:nth-child(2)",".jbyq",//要求".fuli",//福利".gsmc>a>span",//公司名稱".gsmc>span",//發布時間".zwmsCon",//簡介".gzddCon>span");} catch (IOException e) {e.printStackTrace();}catch (RuntimeException e){//跳過DBhelper產生的運行是異常===》相同的公司數據}});}}

查看數據庫,運行成功!

?

總結

以上是生活随笔為你收集整理的Jsoup爬虫实例的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。