日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > java >内容正文

java

别人家的程序员是如何使用 Java 进行 Web 抓取的?

發布時間:2025/3/18 java 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 别人家的程序员是如何使用 Java 进行 Web 抓取的? 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Web抓取非常有用,它可以收集信息供多種用途使用,如數據分析、統計、提供第三方信息,還可以給深神經網絡和深度學習提供數據。

Web抓取是什么?

有一種非常廣泛的誤解,人們似乎把Web抓取和Web爬蟲當成了同一種東西。所以我們先明確這一點。

兩者有個非常顯著的區別:

Web爬蟲,指搜索或“爬”網頁以獲得任意信息的過程。通常是搜索引擎如Google、Yahoo或Bing的功能,以便給我們顯示搜索結果。

Web抓取,指從特定的網站上利用特別定制的自動化軟件手機信息的過程。
創一個小群,供大家學習交流聊
如果有對學JAVA方面有什么疑惑問題的,或者有什么想說的想聊的大家可以一起交流學習一起進步呀
也希望大家對學JAVA能夠持之以恒
JAVA愛好群
如果你想要學好JAVA最好加入一個組織,這樣大家學習的話就比較方便,還能夠共同交流和分享資料,給你推薦一個學習的組織:快樂學習JAVA組織 可以點擊組織二字,可以直達

注意!

盡管Web抓取本身是從網站獲取信息的合法方式,但如果使用不當,可能會變成非法。

有幾種情況需要特別注意:

Web抓取可以被認為是拒絕服務攻擊:發送太多請求來獲取數據會給服務器帶來太多壓力,從而限制了正常用戶訪問網站的能力。

無視版權法和服務條款:因為許多人、許多組織和公司都開發Web抓取軟件來收集信息,給許多網站如Amazon、eBay、LinkedIn、Instagram、Facebook等帶來了不小的麻煩。因此,絕大多數網站都禁止使用抓取軟件獲取他們的數據,你必須獲得書面許可才能收集數據。

Web抓取可被惡意使用:抓取軟件的行為很像機器人,一些框架甚至提供能夠自動填寫并提交表單的工具。因此可以被用作自動垃圾發送工具,甚至能攻擊網站。這也是CAPTCHA存在的原因之一。

如果你想開發一個強大的抓取軟件,請務必考慮以上幾點,遵守法律和法規。

Web抓取框架

就像許多現代科技一樣,從網站提取信息這一功能也有多個框架可以選擇。最流行的有JSoup、HTMLUnit和Selenium WebDriver。我們這篇文章討論JSoup。

JSoup

JSoup是個開源項目,提供強大的數據提取API。可以用它來解析給定URL、文件或字符串中的HTML。它還能操縱HTML元素和屬性。

使用JSoup解析字符串

解析字符串是JSoup的最簡單的使用方式。

public class JSoupExample {

public static void main(String[] args) {String html = "<html><head><title>Website title</title></head><body><p>Sample paragraph number 1 </p><p>Sample paragraph number 2</p></body></html>";Document doc = Jsoup.parse(html);System.out.println(doc.title());Elements paragraphs = doc.getElementsByTag("p");for (Element paragraph : paragraphs) {System.out.println(paragraph.text());}}

這段代碼非常直觀。調用parse()方法可以解析輸入的HTML,將其變成Document對象。調用該對象的方法就能操縱并提取數據。

在上面的例子中,我們首先輸出頁面的標題。然后,我們獲取所有帶有標簽“p”的元素。然后我們依次輸出每個段落的文本。

運行這段代碼,我們可以得到以下輸出:

Website title

Sample paragraph number 1

Sample paragraph number 2
使用JSoup解析URL

解析URL的方法跟解析字符串有點不一樣,但基本原理是相同的:

public class JSoupExample {

public static void main(String[] args) throws IOException {Document doc = Jsoup.connect("https://www.wikipedia.org").get();Elements titles = doc.getElementsByClass("other-project");for (Element title : titles) {System.out.println(title.text());}}

}
要從URL抓取數據,需要調用connect()方法,提供URL作為參數。然后使用get()從連接中獲取HTML。這個例子的輸出為:

Commons Freely usable photos & more

Wikivoyage Free travel guide

Wiktionary Free dictionary

Wikibooks Free textbooks

Wikinews Free news source

Wikidata Free knowledge base

Wikiversity Free course materials

Wikiquote Free quote compendium

MediaWiki Free & open wiki application

Wikisource Free library

Wikispecies Free species directory

Meta-Wiki Community coordination & documentation
可以看到,這個程序抓取了所有class為other-project的元素。

這種方法是最常用的,因此我們看一些通過URL進行抓取的其他例子。

抓取指定URL的所有鏈接

public void allLinksInUrl() throws IOException {

Document doc = Jsoup.connect("https://www.wikipedia.org").get();Elements links = doc.select("a[href]");for (Element link : links) {System.out.println("\nlink : " + link.attr("href"));System.out.println("text : " + link.text());}}

運行結果是一個很長的列表:

Link : //en.wikipedia.org/

Text : English 5 678 000+ articles

Link : //ja.wikipedia.org/

Text : 日本語 1 112 000+ 記事

Link : //es.wikipedia.org/

Text : Espa?ol 1 430 000+ artículos

Link : //de.wikipedia.org/

Text : Deutsch 2 197 000+ Artikel

Link : //ru.wikipedia.org/

Text : Русский 1 482 000+ статей

Link : //it.wikipedia.org/

Text : Italiano 1 447 000+ voci

Link : //fr.wikipedia.org/

Text : Fran?ais 2 000 000+ articles

Link : //zh.wikipedia.org/

Text : 中文 1 013 000+ 條目

<!--A bunch of other languages -->

Text : Wiktionary Free dictionary

Link : //www.wikibooks.org/

Text : Wikibooks Free textbooks

Link : //www.wikinews.org/

Text : Wikinews Free news source

Link : //www.wikidata.org/

Text : Wikidata Free knowledge base

Link : //www.wikiversity.org/

Text : Wikiversity Free course materials

Link : //www.wikiquote.org/

Text : Wikiquote Free quote compendium

Link : //www.mediawiki.org/

Text : MediaWiki Free & open wiki application

Link : //www.wikisource.org/

Text : Wikisource Free library

Link : //species.wikimedia.org/

Text : Wikispecies Free species directory

Link : //meta.wikimedia.org/

Text : Meta-Wiki Community coordination & documentation

Link : https://creativecommons.org/l...

Text : Creative Commons Attribution-ShareAlike License

Link : //meta.wikimedia.org/wiki/Terms_of_Use

Text : Terms of Use

Link : //meta.wikimedia.org/wiki/Privacy_policy

Text : Privacy Policy
與此相似,你還可以得到圖像的數量、元信息、表單參數等一切你能想到的東西,因此經常被用于獲取統計數據。

使用JSoup解析文件

public void parseFile() throws URISyntaxException, IOException {

URL path = ClassLoader.getSystemResource("page.html");File inputFile = new File(path.toURI());Document document = Jsoup.parse(inputFile, "UTF-8");System.out.println(document.title());//parse document in any way}

如果要解析文件,就不需要給網站發送請求,因此不用擔心運行程序會給服務器增添太多負擔。盡管這種方法有許多限制,并且數據是靜態的,因而不適合許多任務,但它提供了分析數據的更合法、更無害的方式。

得到的文檔可以用前面說過的任何方式解析。

設置屬性值

除了讀取字符串、URL和文件并獲取數據之外,我們還能修改數據和輸入表單。

例如,在訪問亞馬遜時,點擊左上角的網站標志,能返回到網站的首頁。

如果想改變這個行為,可以這樣做:

public void setAttributes() throws IOException {

Document doc = Jsoup.connect("https://www.amazon.com").get();Element element = doc.getElementById("nav-logo");System.out.println("Element: " + element.outerHtml());element.children().attr("href", "notamazon.org");System.out.println("Element with set attribute: " + element.outerHtml());}

獲取網站標志的id后,我們可以查看其HTML。還可以訪問它的子元素,并改變其屬性。

Element: <div id="nav-logo">

<span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span>

Try Prime

</div>

Element with set attribute: <div id="nav-logo">

<span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span>

Try Prime

</div>
默認情況下,兩個子元素都指向了各自的鏈接。將屬性改變為別的值之后,可以看到子元素的href屬性被更新了。

添加或刪除類

除了設置屬性值之外,我們還可以修改前面的例子,給元素添加或刪除類:

public void changePage() throws IOException {

Document doc = Jsoup.connect("https://www.amazon.com").get();Element element = doc.getElementById("nav-logo");System.out.println("Original Element: " + element.outerHtml());<!--Setting attributes -->element.children().attr("href", "notamazon.org");System.out.println("Element with set attribute: " + element.outerHtml());<!--Adding classes -->element.addClass("someClass");System.out.println("Element with added class: " + element.outerHtml());<!--Removing classes -->element.removeClass("someClass");System.out.println("Element with removed class: " + element.outerHtml());}

運行代碼會給我們以下信息:

Original Element: <div id="nav-logo">

<span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span>

Try Prime

</div>

Element with set attribute: <div id="nav-logo">

<span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span>

Try Prime

</div>

Element with added class: <div id="nav-logo" class="someClass">

<span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span>

Try Prime

</div>

Element with removed class: <div id="nav-logo">

<span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span>

Try Prime

</div>
可以把新的代碼以.html形式保存到本機,或者通過HTTP請求發送大歐網站上,不過要注意后者可能是非法的。

結論

在許多情況下Web抓取都很有用,但使用時務必要遵守法律。本文介紹了流行的Web抓取框架JSoup,以及使用它解析信息的幾種方式。

總結

以上是生活随笔為你收集整理的别人家的程序员是如何使用 Java 进行 Web 抓取的?的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 久久爱伊人 | 日韩精品人妻无码一本 | 操网站| 一级片成人 | 特黄大片又粗又大又暴 | 免费 成 人 黄 色 | 日韩精品一区在线播放 | 久久毛片网站 | 久久影视精品 | 色操插| 日韩av手机在线播放 | 97成人免费视频 | 二色av| 波多野结衣av一区二区全免费观看 | 99国产精品一区二区三区 | 婷婷在线免费 | 玩偶游戏在线观看免费 | 97在线观看免费高清 | 日韩电影在线一区 | 成人在线不卡视频 | 天天做天天爱天天爽 | 亚洲激情图 | 黄色免费毛片 | 熟妇人妻久久中文字幕 | 国产大屁股喷水视频在线观看 | 久久青青国产 | 日韩精品在线免费 | 久久亚洲AV成人无码国产人妖 | 疯狂做爰的爽文多肉小说王爷 | 久久久.www| 亚洲区久久 | 婷婷综合视频 | 蜜臀av性久久久久蜜臀aⅴ麻豆 | 欧美xxxx性xxxxx高清 | 欧美日韩一区二区三区在线电影 | 中文字幕国产一区二区 | 欧美成人a交片免费看 | 亚洲黄色精品视频 | 亚洲欧美精品在线观看 | 四虎影院污 | 久色视频 | 9999re | 视频久久| 亚洲中文字幕一区二区在线观看 | 国产小视频在线观看免费 | 拔萝卜91 | 日本一二三区视频 | 亚洲欧美综合另类自拍 | 波多一区| 欧美不卡一区 | 国产乱了高清露脸对白 | 深夜激情影院 | 老司机福利精品 | 国产女人18水真多18精品一级做 | 四虎永久地址 | 欧美永久免费 | 这里只有精品免费视频 | 日本xxxx裸体xxxx | 日本亚洲免费 | 放几个免费的毛片出来看 | 喷水av | 天堂av中文 | 香蕉在线观看视频 | 亚洲自拍偷拍视频 | ,午夜性刺激免费看视频 | 在线观看黄| 日日操日日摸 | 亚洲精品久久夜色撩人男男小说 | 婷婷视频网| 精品无码一区二区三区蜜臀 | 96在线视频 | 黄色在线观看网站 | 欧洲色av| 久久99精品国产麻豆婷婷 | 精品国产乱子伦一区二区 | av大片在线观看 | 日本丰满少妇做爰爽爽 | 一区二区三区四区五区av | 欧美不卡在线视频 | 久久久久久久久久久久久国产 | www.色99| 超碰中文在线 | 国产精品h | 色天堂在线视频 | 国产精品区一区二 | aaa特级毛片 | 欧美乱轮视频 | 手机av在线网 | 亚洲一级二级片 | 1000部多毛熟女毛茸茸 | 九九五月天 | 9l蝌蚪porny中文自拍 | av在线不卡免费看 | 男女羞羞的视频 | www插插插无码免费视频网站 | 日韩一级影片 | 久久精品免费一区二区 | 国产黄色免费 | av网址在线免费观看 |