日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > 数据库 >内容正文

数据库

python爬取数据存入mysql

發布時間:2025/3/21 数据库 19 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬取数据存入mysql 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
#這里的mysql數據庫用的是phpstudy里的,安裝方便 #需要下載MySqldb第三方庫 import MySQLdb,requests from bs4 import BeautifulSoupdef get_ip_list(url, headers):web_data = requests.get(url, headers=headers)soup = BeautifulSoup(web_data.text, 'lxml')ips = soup.find_all('tr')#ip_list = []for i in range(1, len(ips)):ip_info = ips[i]tds = ip_info.find_all('td')yield (tds[1].text,tds[2].text,tds[5].text)def main():url= 'http://www.xicidaili.com/nn/'#要爬取的網站headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'}db = MySQLdb.connect(host='localhost',user='root',passwd='root',db='mydatebase')#連接數據庫(地址,用戶名,密碼,數據庫名)cur = db.cursor()#取游標sql = "insert into ips(IP,Port,Type) VALUES ('%s','%s','%s')"for index in range(1,51):t = url+str(index)print("第%d頁面下載"%index)for i in get_ip_list(t,headers):#迭代下載的代理IP數組print(str(i).rjust(50," "))cur.execute(sql%(i[0],i[1],i[2]))#執行數據庫插入操作cur.close()db.close()if __name__=="__main__":main()


總結

以上是生活随笔為你收集整理的python爬取数据存入mysql的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。