日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > java >内容正文

java

Java爬虫抓取网页

發布時間:2023/12/31 java 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Java爬虫抓取网页 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Java爬蟲抓取網頁

原作者:hebedich??原文鏈接
下面直接貼代碼: import java.io.BufferedReader; import java.io.InputStreamReader; import java.net.URL; import java.net.URLConnection; import java.util.regex.Matcher; import java.util.regex.Pattern;public class Main {static String sendGet(String url){// 定義即將訪問的鏈接// 定義一個字符串用來存儲網頁內容String result = "";// 定義一個緩沖字符輸入流BufferedReader in = null;try {// 將string轉成url對象URL realUrl = new URL(url);// 初始化一個鏈接到那個url的連接URLConnection connection = realUrl.openConnection();// 開始實際的連接connection.connect();// 初始化 BufferedReader輸入流來讀取URL的響應in = new BufferedReader(new InputStreamReader(connection.getInputStream()));// 用來臨時存儲抓取到的每一行的數據String line;while ((line = in.readLine()) != null) {//遍歷抓取到的每一行并將其存儲到result里面result += line;}} catch (Exception e) {System.out.println("發送GET請求出現異常!" + e);e.printStackTrace();}// 使用finally來關閉輸入流finally {try {if (in != null) {in.close();}} catch (Exception e2) {e2.printStackTrace();}}return result;}public static void main(String[] args) {String url = "http://www.baidu.com";// 訪問鏈接并獲取頁面內容String result = sendGet(url);// 使用正則匹配圖片的src內容System.out.println(result);}}

總結

以上是生活随笔為你收集整理的Java爬虫抓取网页的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。