日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

前程无忧岗位数据爬取+Tableau可视化分析

發布時間:2023/12/14 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 前程无忧岗位数据爬取+Tableau可视化分析 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

目錄

一、項目背景

二、數據爬取

1、相關庫的導入與說明

2、獲取二級頁面鏈接

1)分析一級頁面url特征

2)構建一級url庫

3)爬取所有二級url鏈接

3、獲取崗位信息并保存

三、數據清洗

1、數據讀取、去重、空值處理

1)相關庫導入及數據讀取

2)數據去重與控制處理

2、“崗位名稱”字段預處理

1)”崗位名稱“字段預覽

2)構建關鍵詞,篩選名稱

3)崗位名稱標準化處理

3、“崗位薪資”字段預處理

4、“公司規模”字段預處理

5、“職位信息”字段預處理

6、其它字段預處理

7、數據存儲

四、Tableau數據可視化展示

1、崗位數量城市分布氣泡圖

2、熱門城市用人需求Top15

?3、用人需求Top15行業及其薪資情況

4、各類型企業崗位需求樹狀分布圖

5、經驗學歷與薪資需求突出顯示表?

6、不同行業知識、技能要求詞云圖

1)傳統制造業

2) 計算機相關行業

3)服務行業?

6、崗位數量與薪資水平地理分布

7、可視化看板最終展示結果

五、源代碼

1、爬蟲源代碼

2、數據預處理源碼


一、項目背景

????????隨著科技的不斷進步與發展,數據呈現爆發式的增長,各行各業對于數據的依賴越來越強,與數據打交道在所難免,而社會對于“數據”方面的人才需求也在不斷增大。因此了解當下企業究竟需要招聘什么樣的人才?需要什么樣的技能?不管是對于在校生,還是對于求職者來說,都顯得十分必要。
? ? ? ? 對于一名小白來說,想要入門數據分析,首先要了解目前社會對于數據相關崗位的需求情況,基于這一問題,本文針對前程無憂招聘網站,利用python爬取了其全國范圍內大數據、數據分析、數據挖掘、機器學習、人工智能等與數據相關的崗位招聘信息。并通過Tableau可視化工具分析比較了不同行業的崗位薪資、用人需求等情況;以及不同行業、崗位的知識、技能要求等。

? ? ? ? ?可視化分析效果圖示例:

二、數據爬取

  • 爬取字段:崗位名稱、公司名稱、薪資水平、工作經驗、學歷需求、工作地點、招聘人數、發布時間、公司類型、公司規模、行業領域、福利待遇、職位信息;
  • 說明:在前程無憂招聘網站中,我們在搜索框中輸入“數據”兩個字進行搜索發現,共有2000個一級頁面,其中每個頁面包含50條崗位信息,因此總共有約100000條招聘信息。當點擊一級頁面中每個崗位信息時,頁面會跳轉至相應崗位的二級頁面,二級頁面中即包含我們所需要的全部字段信息;

????????一級頁面如下:

????????二級頁面如下:

  • 爬取思路:先針對一級頁面爬取所有崗位對應的二級頁面鏈接,再根據二級頁面鏈接遍歷爬取相應崗位信息;
  • 開發環境:python3、Spyder

1、相關庫的導入與說明

import json import requests import pandas as pd from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC from lxml import etree from selenium.webdriver import ChromeOptions

? ? ? ? 由于前程無憂招聘網站的反爬機制較強,采用動態渲染+限制ip訪問頻率等多層反爬,因此在獲取二級頁面鏈接時需借助json進行解析,本文對于二級頁面崗位信息的獲取采用selenium模擬瀏覽器爬取,同時通過代理IP的方式,每隔一段時間換一次請求IP以免觸發網站反爬機制。?

2、獲取二級頁面鏈接

1)分析一級頁面url特征

# 第一頁URL的特征 "https://search.51job.com/list/000000,000000,0000,00,9,99,數據,2,1.html?" # 第二頁URL的特征 "https://search.51job.com/list/000000,000000,0000,00,9,99,數據,2,2.html?" # 第三頁URL的特征 "https://search.51job.com/list/000000,000000,0000,00,9,99,數據,2,3.html?"

? ? ? ? 通過觀察不同頁面的URL可以發現,不同頁面的URL鏈接只有“.html”前面的數字不同,該數字正好代表該頁的頁碼?,因此只需要構造字符串拼接,然后通過for循環語句即可構造自動翻頁。

2)構建一級url庫

url1 = [] for i in range(2000):url_pre = "https://search.51job.com/list/000000,000000,0000,00,9,99,數據,2,%s" % (1+i) #設置自動翻頁 url_end = ".html?"url_all = url_pre + url_endurl1.append(url_all) print("一級URL庫創建完畢")

3)爬取所有二級url鏈接

url2 = [] j = 0 for url in url1:j += 1re1 = requests.get(url , headers = headers,proxies= {'http':'tps131.kdlapi.com:15818'},timeout=(5,10)) #通過proxies設置代理iphtml1 = etree.HTML(re1.text) divs = html1.xpath('//script[@type = "text/javascript"]/text()')[0].replace('window.__SEARCH_RESULT__ = ',"") js = json.loads(divs)for i in range(len(js['engine_jds'])):if js['engine_jds'][i]['job_href'][0:22] == "https://jobs.51job.com":url2.append(js['engine_jds'][i]['job_href'])else:print("url異常,棄用") #剔除異常urlprint("已爬取"+str(j)+"頁") print("成功爬取"+str(len(url2))+"條二級URL")

注意:爬取二級URL鏈接時發現并非爬取的所有鏈接都是規范的,會存在少部分異常URL,這會對后續崗位信息的爬取造成干擾,因此需要利用if條件語句對其進行剔除。

3、獲取崗位信息并保存

option = ChromeOptions() option.add_experimental_option('excludeSwitches', ['enable-automation']) option.add_argument('--proxy-server=http://tps131.kdlapi.com:15818') #設置代理ip driver = webdriver.Chrome(options=option) for url in url2:co = 1while co == 1:try:driver.get(url)wait = WebDriverWait(driver,10,0.5)wait.until(EC.presence_of_element_located((By.ID,'topIndex')))except:driver.close()driver = webdriver.Chrome(options=option)co = 1else:co = 0try:福利待遇 = driver.find_elements_by_xpath('//div[@class = "t1"]')[0].text 崗位名稱 = driver.find_element_by_xpath('//div[@class = "cn"]/h1').text薪資水平 = driver.find_element_by_xpath('//div[@class = "cn"]/strong').text職位信息 = driver.find_elements_by_xpath('//div[@class = "bmsg job_msg inbox"]')[0].text公司類型 = driver.find_elements_by_xpath('//div[@class = "com_tag"]/p')[0].text公司規模 = driver.find_elements_by_xpath('//div[@class = "com_tag"]/p')[1].text公司領域 = driver.find_elements_by_xpath('//div[@class = "com_tag"]/p')[2].text公司名稱 = driver.find_element_by_xpath('//div[@class = "com_msg"]/a/p').text工作地點 = driver.find_elements_by_xpath('//div[@class = "cn"]//p[@class = "msg ltype"]')[0].text.split("|")[0]工作經驗 = driver.find_elements_by_xpath('//div[@class = "cn"]//p[@class = "msg ltype"]')[0].text.split("|")[1]學歷要求 = driver.find_elements_by_xpath('//div[@class = "cn"]//p[@class = "msg ltype"]')[0].text.split("|")[2]招聘人數 = driver.find_elements_by_xpath('//div[@class = "cn"]//p[@class = "msg ltype"]')[0].text.split("|")[3]發布時間 = driver.find_elements_by_xpath('//div[@class = "cn"]//p[@class = "msg ltype"]')[0].text.split("|")[4]except:福利待遇 = "nan" 崗位名稱 = "nan"薪資水平 = "nan"職位信息 = "nan"公司類型 = "nan"公司規模 = "nan"公司領域 = "nan"公司名稱 = "nan"工作地點 = "nan"工作經驗 = "nan"學歷要求 = "nan"招聘人數 = "nan"發布時間 = "nan"print("信息提取異常,棄用")finally: info = { "崗位名稱" : 崗位名稱,"公司名稱" : 公司名稱,"薪資水平" : 薪資水平,"工作經驗" : 工作經驗,"學歷要求" : 學歷要求,"工作地點" : 工作地點,"招聘人數" : 招聘人數,"發布時間" : 發布時間,"公司類型" : 公司類型,"公司規模" : 公司規模,"公司領域" : 公司領域,"福利待遇" : 福利待遇,"職位信息" : 職位信息}jobs_info.append(info) df = pd.DataFrame(jobs_info) df.to_excel(r"E:\python爬蟲\前程無憂招聘信息.xlsx")

? ? ? ? 在爬取并剔除異常數據之后,最終得到了90000多條完整的數據做分析,但經過觀察發現,所爬取的數據并非全都與“數據”崗位相關聯。實際上,前程無憂招聘網站上與“數據”有關的只有幾百頁,而我們爬取了2000頁的所有數據,因此在后面進行數據處理時需要把無關的數據剔除掉。在爬取前根據對代碼的測試發現,有些崗位字段在進行爬取時會出現錯位,從而導致數據存儲失敗,為了不影響后面代碼的執行,這里設置了“try-except”進行異常處理,同時使用while循環語句在服務器出現請求失敗時關閉模擬瀏覽器并進行重新請求。

三、數據清洗

1、數據讀取、去重、空值處理

????????在獲取了所需數據之后,可以看出數據較亂,并不利于我們進行分析,因此在分析前需要對數據進行預處理,得到規范格式的數據才可以用來最終做可視化數據展示。

? ? ? ? 獲取的數據截圖如下:

1)相關庫導入及數據讀取

#導入相關庫 import pandas as pd import numpy as np import jieba#讀取數據 df = pd.read_excel(r'E:\python爬蟲\前程無憂招聘信息.xlsx',index_col=0)

2)數據去重與控制處理

  • 對于重復值的定義,我們認為一個記錄的公司名稱和崗位名稱一致時,即可看作是重復值。因此利用drop_duplicates()函數剔除所有公司名稱和崗位名稱相同的記錄并保留第一個記錄。
  • 對于空值處理,只刪除所有字段信息都為nan的記錄。
#去除重復數據 df.drop_duplicates(subset=['公司名稱','崗位名稱'],inplace=True)#空值刪除 df[df['公司名稱'].isnull()] df.dropna(how='all',inplace=True)

2、“崗位名稱”字段預處理

1)”崗位名稱“字段預覽

? ? ? ? 首先我們對“崗位名稱”的格式進行調整,將其中所有大寫英文字母統一轉換為小寫,例如將"Java"轉換為"java",然后對所有崗位做一個頻次統計,統計結果發現“崗位名稱”字段很雜亂,且存在很多與“數據”無關的崗位,因此要對數據做一個篩選。

df['崗位名稱'] = df['崗位名稱'].apply(lambda x:x.lower()) counts = df['崗位名稱'].value_counts()

2)構建關鍵詞,篩選名稱

? ? ? ? 首先我們列出與“數據”崗位“有關的一系列關鍵詞,然后通過count()與for語句對所有記錄進行統計判斷,如果包含任一關鍵詞則保留該記錄,如果不包含則刪除該字段。

#構建目標關鍵詞 target_job = ['算法','開發','分析','工程師','數據','運營','運維','it','倉庫','統計'] #篩選目標數據 index = [df['崗位名稱'].str.count(i) for i in target_job] index = np.array(index).sum(axis=0) > 0 job_info = df[index]

3)崗位名稱標準化處理

? ? ? ? 基于前面對“崗位名稱”字段的統計情況,我們定義了目標崗位列表job_list,用來替換統一相近的崗位名稱,之后,我們將“數據專員”、“數據統計”統一歸為“數據分析”。

job_list = ['數據分析',"數據統計","數據專員",'數據挖掘','算法','大數據','開發工程師','運營','軟件工程','前端開發','深度學習','ai','數據庫','倉庫管理','數據產品','客服','java','.net','andrio','人工智能','c++','數據管理',"測試","運維","數據工程師"] job_list = np.array(job_list) def Rename(x,job_list=job_list):index = [i in x for i in job_list]if sum(index) > 0:return job_list[index][0]else:return x job_info['崗位名稱'] = job_info['崗位名稱'].apply(Rename) job_info["崗位名稱"] = job_info["崗位名稱"].apply(lambda x:x.replace("數據專員","數據分析")) job_info["崗位名稱"] = job_info["崗位名稱"].apply(lambda x:x.replace("數據統計","數據分析"))

? ? ? ? 統一之后的“崗位名稱”如下圖所示:

?

3、“崗位薪資”字段預處理

? ? ? ? 對于“崗位薪資”字段的處理,重點在于對其單位格式轉換,在簡單觀察該字段后發現,其存在“萬/年”、“萬/月”、“千/月”等不同單位,因此需要對其做一個統一換算,將數據格式統一轉換為“元/月”,并根據最高工資與最低工資求出平均值。

job_info['崗位薪資'].value_counts()#剔除異常數據 index1 = job_info["崗位薪資"].str[-1].isin(["年","月"]) index2 = job_info["崗位薪資"].str[-3].isin(["萬","千"]) job_info = job_info[index1 & index2] #計算平均工資 job_info['平均薪資'] = job_info['崗位薪資'].astype(str).apply(lambda x:np.array(x[:-3].split('-'),dtype=float)) job_info['平均薪資'] = job_info['平均薪資'].apply(lambda x:np.mean(x)) #統一工資單位 job_info['單位'] = job_info['崗位薪資'].apply(lambda x:x[-3:]) def con_unit(x):if x['單位'] == "萬/月":z = x['平均薪資']*10000elif x['單位'] == "千/月":z = x['平均薪資']*1000elif x['單位'] == "萬/年":z = x['平均薪資']/12*10000return int(z) job_info['平均薪資'] = job_info.apply(con_unit,axis=1) job_info['單位'] = '元/月'

說明:首先我們對該字段進行統計預覽,之后做一個數據篩選剔除異常單位與空值記錄,再計算出每個字段的平均工資,接著定義一個函數,將格式換算為“元/月”,得到最終的“平均薪資”字段。

4、“公司規?!弊侄晤A處理

? ? ? ? 對于“公司規?!弊侄蔚奶幚磔^簡單,只需要定義一個if條件語句將其格式做一個轉換即可。

job_info['公司規模'].value_counts() def func(x):if x == '少于50人':return "<50"elif x == '50-150人':return "50-150"elif x == '150-500人':return '150-500'elif x == '500-1000人':return '500-1000'elif x == '1000-5000人':return '1000-5000'elif x == '5000-10000人':return '5000-10000'elif x == '10000人以上':return ">10000"else:return np.nan job_info['公司規模'] = job_info['公司規模'].apply(func)

5、“職位信息”字段預處理

job_info['職位信息'] = job_info['職位信息'].apply(lambda x:x.split('職能類別')[0]) with open(r"E:\python爬蟲\數據處理\停用詞表.txt",'r',encoding = 'utf8') as f:stopword = f.read() stopword = stopword.split() #對“職業信息”字段進行簡單處理,去除無意義的文字,構造jieba分詞 job_info['職位信息'] = job_info['職位信息'].apply(lambda x:x.lower()).apply(lambda x:"".join(x)).apply(lambda x:x.strip()).apply(jieba.lcut).apply(lambda x:[i for i in x if i not in stopword]) #按照行業進行分類,求出每一個行業下各關鍵詞的詞頻統計,以便于后期做詞云圖 cons = job_info['公司領域'].value_counts() industries = pd.DataFrame(cons.index,columns=['行業領域']) industry = pd.DataFrame(columns=['分詞明細','行業領域']) for i in industries['行業領域']:words = []word = job_info['職位信息'][job_info['公司領域'] == i]word.dropna(inplace=True)[words.extend(str(z).strip('\'[]').split("\', \'")) for z in word]df1 = pd.DataFrame({'分詞明細':words,'行業領域':i})industry = industry.append(df1,ignore_index=True) industry = industry[industry['分詞明細'] != "\\n"] industry = industry[industry['分詞明細'] != ""] #剔除詞頻小于300的關鍵詞 count = pd.DataFrame(industry['分詞明細'].value_counts()) lst = list(count[count['分詞明細'] >=300].index) industry = industry[industry['分詞明細'].isin(lst)] #數據存儲 industry.to_excel(r'E:\python爬蟲\數據處理\詞云.xlsx')

6、其它字段預處理

  • “工作地點”字段:該字段有”市-區“和”市“兩種格式,如”廣州-天河“與”廣州“,因此需要統一轉換為”市“的格式;
  • “公司領域”字段:每個公司的行業字段可能會有多個行業標簽,我們默認以第一個作為改公司的行業標簽;
  • “招聘人數”字段:由于某些公司崗位沒有具體招聘人數,因此我們默認以最低需求為標準,將“招若干人”改為“招1人”,以便于后面統計分析;
  • 其它字段:對于其他幾個字段格式只存在一些字符串空格問題,因此只需要對其進行去除空格即可。
#工作地點字段處理 job_info['工作地點'] = job_info['工作地點'].apply(lambda x:x.split('-')[0])#公司領域字段處理 job_info['公司領域'] = job_info['公司領域'].apply(lambda x:x.split('/')[0]) a = job_info['公司領域'].value_counts()#招聘人數字段處理 job_info['招聘人數'] = job_info['招聘人數'].apply(lambda x:x.replace("若干","1").strip()[1:-1])#工作經驗與學歷要求字段處理 job_info['工作經驗'] = job_info['工作經驗'].apply(lambda x:x.replace("無需","1年以下").strip()[:-2]) job_info['學歷需求'] = job_info['學歷需求'].apply(lambda x:x.split()[0])#公司福利字段處理 job_info['公司福利'] = job_info['公司福利'].apply(lambda x:str(x).split())

7、數據存儲

? ? ? ? 我們針對清洗干凈后的數據另存為一個文檔,對源數據不做修改。

job_info.to_excel(r'E:\python爬蟲\前程無憂(已清洗).xlsx')

四、Tableau數據可視化展示

1、崗位數量城市分布氣泡圖

結論分析:從氣泡圖中可以看出,“數據”相關崗位數量較高的城市有:上海、深圳、廣州、北京、杭州、武漢等。

2、熱門城市用人需求Top15

結論分析:通過條形圖可以看出,“數據”相關崗位用人需求達1000人以上的城市有15個,需求由高到低依次為:上海、深圳、廣州、北京、武漢、杭州、成都、南京、蘇州、無錫、西安、長沙、鄭州、重慶。其中上海用人需求高達10000人。

?3、用人需求Top15行業及其薪資情況

結論分析:從不同行業的用人需求與薪資對比可知,用人需求排名前4的行業分別:計算機軟件、互聯網、電子技術、計算機服務;平均薪資排名前4的行業分別為:互聯網、計算機軟件、通信、專業服務。可以發現,“數據”相關崗位在計算機領域需求大,薪資高,前景好。

4、各類型企業崗位需求樹狀分布圖

結論分析:在發布的眾多崗位需求信息中,以民營公司為主,其崗位數量、用人需求極高,但薪資待遇一般,而上市公司的崗位數量一般,但薪資待遇好。

5、經驗學歷與薪資需求突出顯示表?

????????注:顏色深淺表示薪資高低,數字表示招聘人數

結論分析:根據突出顯示表可以發現,在學歷要求方面,大專與本科生需求量較大;經驗要求方面,3年以下相關經驗的崗位占大多數,而薪資方面,學歷越高,經驗越豐富則薪資越高。因此可以判斷數據分析行業還是一個較新興的行業,目前行業的基礎崗位較多,且具有豐富經驗的專家較少。

6、不同行業知識、技能要求詞云圖

1)傳統制造業

2) 計算機相關行業

3)服務行業

?結論分析:上圖通過列舉了傳統制造業、計算機相關行業以及服務業三個行業進行對比分析,三個行業對于“數據”相關崗位工作要求的共同點都是注重相關的行業經驗及數據處理等能力,而計算機相關行業對于技術如開發、數據庫、系統維護等編程能力要求較高,傳統制造業和服務行業則更側重于業務分析、管理、團隊合作綜合型能力等。

6、崗位數量與薪資水平地理分布

7、可視化看板最終展示結果

?

五、源代碼

1、爬蟲源代碼

import json import requests import pandas as pd from lxml import etree from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver import ChromeOptions from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as ECurl1 = [] url2 = [] jobs_info = [] for i in range(2000):url_pre = "https://search.51job.com/list/000000,000000,0000,00,9,99,數據,2,%s" % (1+i) #頁面跳轉url_end = ".html?"url_all = url_pre + url_endurl1.append(url_all) print("一級URL庫創建完畢")#從json中提取數據并加載 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.63 Safari/537.36','Connection': 'close','Host': 'search.51job.com'} j = 0 for url in url1:j += 1re1 = requests.get(url , headers = headers,proxies= {'http':'tps131.kdlapi.com:15818'},timeout=(5,10))html1 = etree.HTML(re1.text) divs = html1.xpath('//script[@type = "text/javascript"]/text()')[0].replace('window.__SEARCH_RESULT__ = ',"") js = json.loads(divs)for i in range(len(js['engine_jds'])):if js['engine_jds'][i]['job_href'][0:22] == "https://jobs.51job.com":url2.append(js['engine_jds'][i]['job_href'])else:print("url異常,棄用")print("已解析"+str(j)+"頁") print("成功提取"+str(len(url2))+"條二級URL")#爬取崗位數據 option = ChromeOptions() option.add_experimental_option('excludeSwitches', ['enable-automation']) option.add_argument('--proxy-server=http://tps131.kdlapi.com:15818') driver = webdriver.Chrome(options=option) for url in url2:co = 1while co == 1:try:#設置IP代理driver.get(url)wait = WebDriverWait(driver,10,0.5)wait.until(EC.presence_of_element_located((By.ID,'topIndex')))except:driver.close()driver = webdriver.Chrome(options=option)co = 1else:co = 0try:福利待遇 = driver.find_elements_by_xpath('//div[@class = "t1"]')[0].text 崗位名稱 = driver.find_element_by_xpath('//div[@class = "cn"]/h1').text薪資水平 = driver.find_element_by_xpath('//div[@class = "cn"]/strong').text職位信息 = driver.find_elements_by_xpath('//div[@class = "bmsg job_msg inbox"]')[0].text公司類型 = driver.find_elements_by_xpath('//div[@class = "com_tag"]/p')[0].text公司規模 = driver.find_elements_by_xpath('//div[@class = "com_tag"]/p')[1].text公司領域 = driver.find_elements_by_xpath('//div[@class = "com_tag"]/p')[2].text公司名稱 = driver.find_element_by_xpath('//div[@class = "com_msg"]/a/p').text工作地點 = driver.find_elements_by_xpath('//div[@class = "cn"]//p[@class = "msg ltype"]')[0].text.split("|")[0]工作經驗 = driver.find_elements_by_xpath('//div[@class = "cn"]//p[@class = "msg ltype"]')[0].text.split("|")[1]學歷要求 = driver.find_elements_by_xpath('//div[@class = "cn"]//p[@class = "msg ltype"]')[0].text.split("|")[2]招聘人數 = driver.find_elements_by_xpath('//div[@class = "cn"]//p[@class = "msg ltype"]')[0].text.split("|")[3]發布時間 = driver.find_elements_by_xpath('//div[@class = "cn"]//p[@class = "msg ltype"]')[0].text.split("|")[4]except:福利待遇 = "nan" 崗位名稱 = "nan"薪資水平 = "nan"職位信息 = "nan"公司類型 = "nan"公司規模 = "nan"公司領域 = "nan"公司名稱 = "nan"工作地點 = "nan"工作經驗 = "nan"學歷要求 = "nan"招聘人數 = "nan"發布時間 = "nan"print("信息提取異常,棄用")finally: info = { "崗位名稱" : 崗位名稱,"公司名稱" : 公司名稱,"薪資水平" : 薪資水平,"工作經驗" : 工作經驗,"學歷要求" : 學歷要求,"工作地點" : 工作地點,"招聘人數" : 招聘人數,"發布時間" : 發布時間,"公司類型" : 公司類型,"公司規模" : 公司規模,"公司領域" : 公司領域,"福利待遇" : 福利待遇,"職位信息" : 職位信息}jobs_info.append(info) df = pd.DataFrame(jobs_info) df.to_excel(r"E:\python爬蟲\前程無憂招聘信息.xlsx")

2、數據預處理源碼

import pandas as pd import numpy as np import jieba#數據讀取 df = pd.read_excel(r'E:\python爬蟲\前程無憂招聘信息.xlsx',index_col=0)#數據去重與空值處理 df.drop_duplicates(subset=['公司名稱','崗位名稱'],inplace=True) df[df['招聘人數'].isnull()] df.dropna(how='all',inplace=True)#崗位名稱字段處理 df['崗位名稱'] = df['崗位名稱'].apply(lambda x:x.lower()) counts = df['崗位名稱'].value_counts() target_job = ['算法','開發','分析','工程師','數據','運營','運維','it','倉庫','統計'] index = [df['崗位名稱'].str.count(i) for i in target_job] index = np.array(index).sum(axis=0) > 0 job_info = df[index] job_list = ['數據分析',"數據統計","數據專員",'數據挖掘','算法','大數據','開發工程師','運營','軟件工程','前端開發','深度學習','ai','數據庫','倉庫管理','數據產品','客服','java','.net','andrio','人工智能','c++','數據管理',"測試","運維","數據工程師"] job_list = np.array(job_list) def Rename(x,job_list=job_list):index = [i in x for i in job_list]if sum(index) > 0:return job_list[index][0]else:return x job_info['崗位名稱'] = job_info['崗位名稱'].apply(Rename) job_info["崗位名稱"] = job_info["崗位名稱"].apply(lambda x:x.replace("數據專員","數據分析")) job_info["崗位名稱"] = job_info["崗位名稱"].apply(lambda x:x.replace("數據統計","數據分析"))#崗位薪資字段處理 index1 = job_info["崗位薪資"].str[-1].isin(["年","月"]) index2 = job_info["崗位薪資"].str[-3].isin(["萬","千"]) job_info = job_info[index1 & index2] job_info['平均薪資'] = job_info['崗位薪資'].astype(str).apply(lambda x:np.array(x[:-3].split('-'),dtype=float)) job_info['平均薪資'] = job_info['平均薪資'].apply(lambda x:np.mean(x)) #統一工資單位 job_info['單位'] = job_info['崗位薪資'].apply(lambda x:x[-3:]) job_info['公司領域'].value_counts() def con_unit(x):if x['單位'] == "萬/月":z = x['平均薪資']*10000elif x['單位'] == "千/月":z = x['平均薪資']*1000elif x['單位'] == "萬/年":z = x['平均薪資']/12*10000return int(z) job_info['平均薪資'] = job_info.apply(con_unit,axis=1) job_info['單位'] = '元/月'#工作地點字段處理 job_info['工作地點'] = job_info['工作地點'].apply(lambda x:x.split('-')[0])#公司領域字段處理 job_info['公司領域'] = job_info['公司領域'].apply(lambda x:x.split('/')[0])#招聘人數字段處理 job_info['招聘人數'] = job_info['招聘人數'].apply(lambda x:x.replace("若干","1").strip()[1:-1])#工作經驗與學歷要求字段處理 job_info['工作經驗'] = job_info['工作經驗'].apply(lambda x:x.replace("無需","1年以下").strip()[:-2]) job_info['學歷需求'] = job_info['學歷需求'].apply(lambda x:x.split()[0])#公司規模字段處理 job_info['公司規模'].value_counts() def func(x):if x == '少于50人':return "<50"elif x == '50-150人':return "50-150"elif x == '150-500人':return '150-500'elif x == '500-1000人':return '500-1000'elif x == '1000-5000人':return '1000-5000'elif x == '5000-10000人':return '5000-10000'elif x == '10000人以上':return ">10000"else:return np.nan job_info['公司規模'] = job_info['公司規模'].apply(func)#公司福利字段處理 job_info['公司福利'] = job_info['公司福利'].apply(lambda x:str(x).split())#職位信息字段處理 job_info['職位信息'] = job_info['職位信息'].apply(lambda x:x.split('職能類別')[0]) with open(r"E:\C++\停用詞表.txt",'r',encoding = 'utf8') as f:stopword = f.read() stopword = stopword.split() job_info['職位信息'] = job_info['職位信息'].apply(lambda x:x.lower()).apply(lambda x:"".join(x)).apply(lambda x:x.strip()).apply(jieba.lcut).apply(lambda x:[i for i in x if i not in stopword]) cons = job_info['公司領域'].value_counts() industries = pd.DataFrame(cons.index,columns=['行業領域']) industry = pd.DataFrame(columns=['分詞明細','行業領域']) for i in industries['行業領域']:words = []word = job_info['職位信息'][job_info['公司領域'] == i]word.dropna(inplace=True)[words.extend(str(z).strip('\'[]').split("\', \'")) for z in word]df1 = pd.DataFrame({'分詞明細':words,'行業領域':i})industry = industry.append(df1,ignore_index=True) industry = industry[industry['分詞明細'] != "\\n"] industry = industry[industry['分詞明細'] != ""] count = pd.DataFrame(industry['分詞明細'].value_counts()) lst = list(count[count['分詞明細'] >=300].index) industry = industry[industry['分詞明細'].isin(lst)]#數據存儲 industry.to_excel(r'E:\python爬蟲\數據預處理\詞云.xlsx') job_info.to_excel(r'E:\python爬蟲\數據預處理\前程無憂(已清洗).xlsx')

?

總結

以上是生活随笔為你收集整理的前程无忧岗位数据爬取+Tableau可视化分析的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

bayu135国产精品视频 | 久久中文精品视频 | 超碰成人av | 91片黄在线观看动漫 | 久久国产精品免费看 | 欧美成人区 | 精品黄色视 | 综合在线色 | 中文字幕在线视频第一页 | 黄色av一区二区 | 婷婷在线精品视频 | 午夜成人影视 | 国产在线欧美日韩 | 欧美日韩视频在线观看免费 | 中文在线a在线 | 日韩一区二区三区高清在线观看 | 黄色一级大片在线免费看产 | 在线观看网站你懂的 | 992tv在线 | 久久激情五月丁香伊人 | 蜜桃av人人夜夜澡人人爽 | 手机看片国产 | 天堂久久电影网 | 久草在线视频在线 | 国产精品久久久久一区 | 日韩电影中文字幕在线 | 国产九九九九九 | 99综合电影在线视频 | 人人爽人人爽人人片 | 国产区免费| 日本三级中文字幕在线观看 | 深夜福利视频在线观看 | 男女啪啪视屏 | 99精品视频精品精品视频 | 国产免费激情久久 | 一区二区三区福利 | 久久国产精品第一页 | 美女一二三区 | 一区二区三区四区久久 | 中文电影网 | 在线看国产精品 | 丝袜美腿在线 | 亚洲精品国产成人av在线 | www.久久免费视频 | 一级黄色片在线 | 久久天 | 久艹视频在线免费观看 | 69国产在线观看 | 婷婷久久久 | 免费91在线观看 | 国产精品 国产精品 | 亚洲免费观看视频 | 91亚洲网 | 午夜免费在线观看 | 免费日韩视频 | 欧美日韩亚洲第一页 | 久久久人人人 | 激情五月网站 | 人人干人人做 | 国产人成免费视频 | 69久久99精品久久久久婷婷 | 网站免费黄 | 91人人爽久久涩噜噜噜 | 五月婷婷综合激情 | 国产一区高清在线 | 久久久久久久久久电影 | 久久在线免费视频 | 伊人狠狠色| 久久精品日产第一区二区三区乱码 | 国产精品入口久久 | 超碰人人在| 色综合久久久久久久 | 91av社区 | 亚洲成人影音 | 天天操夜夜摸 | 国产精成人品免费观看 | 天天曰天天 | 天天草视频 | 91高清完整版在线观看 | 精品国产视频在线 | 91资源在线视频 | www好男人| 亚洲综合婷婷 | 99精品免费视频 | 午夜成人影视 | 成人av网站在线 | 亚洲欧美精品在线 | 99久久999久久久精玫瑰 | 最近中文字幕国语免费高清6 | 亚洲伦理中文字幕 | 午夜精品99久久免费 | 久草免费在线视频观看 | 麻豆传媒视频观看 | 成人黄色免费在线观看 | 激情综合色综合久久综合 | 91免费看黄 | 欧美一级片在线观看视频 | 色欧美视频 | 一级黄色片网站 | 一区二区不卡 | 香蕉影院在线观看 | 97香蕉久久超级碰碰高清版 | 欧美性色黄 | 69精品视频 | 日韩在线免费观看视频 | 久久久久久久久电影 | 国产精品久久久久久久久搜平片 | 狠狠色丁香婷婷综合欧美 | 麻豆国产视频下载 | 三级黄色在线观看 | 2019久久精品| 成人av在线亚洲 | 国产91精品一区二区绿帽 | 亚洲少妇xxxx| 草莓视频在线观看免费观看 | 日韩乱色精品一区二区 | 免费看黄色91 | 蜜臀av性久久久久av蜜臀妖精 | 日韩av网页 | 久久久亚洲影院 | 日韩字幕 | 国产午夜精品免费一区二区三区视频 | 亚洲国产高清在线观看视频 | 亚洲一区黄色 | 最近字幕在线观看第一季 | 天天操夜夜曰 | 波多野结衣一区二区三区中文字幕 | 亚洲精品国产拍在线 | 在线观看精品一区 | 久久精美视频 | 人人超碰人人 | 日韩在线视频播放 | 亚洲成a人片在线www | av在线播放免费 | 一区二区不卡视频在线观看 | 国产在线一卡 | 综合色婷婷 | 五月色综合 | 婷婷伊人五月 | 人人爽夜夜爽 | 国产精品久久一 | 九九日九九操 | 国产一区免费看 | 国产精品国产三级国产aⅴ入口 | www.超碰97.com | 亚洲国产高清在线 | av高清在线| 国产精品久久久久9999吃药 | 免费黄色av| 中文字幕在线观看国产 | 午夜12点| 日韩一区二区免费播放 | 狠狠色丁香婷婷综合久久片 | 91精品国产欧美一区二区 | 中文字幕日韩av | 天堂在线免费视频 | 国产色网站 | 狠狠色狠狠色综合日日92 | 美女又爽又黄 | 夜夜躁狠狠躁日日躁视频黑人 | 天天综合视频在线观看 | 亚洲电影av在线 | 9热精品 | 黄色天堂在线观看 | 国产高清一 | 日韩精品综合在线 | 91在线观看视频 | 久久黄色小说视频 | 亚洲精品中文字幕视频 | av三级av| 亚洲a资源| 五月婷婷激情综合 | 午夜精品久久久久久中宇69 | 精品国内自产拍在线观看视频 | 久久精品视频中文字幕 | 国产成人无码AⅤ片在线观 日韩av不卡在线 | 四虎影视4hu4虎成人 | 国产精品美乳一区二区免费 | 色综合久久久网 | 国产五月婷 | 亚洲国产精久久久久久久 | 国产成人专区 | 91超级碰碰 | 国产不卡视频在线 | 91av在线免费观看 | 欧美一级欧美一级 | 国产拍在线 | 色婷婷成人 | 久久久久国产精品视频 | 亚洲精品视频中文字幕 | 中国一级特黄毛片大片久久 | 欧美一二三在线 | 在线观看国产成人av片 | 91麻豆国产福利在线观看 | 欧美日韩一区二区三区不卡 | 欧美日韩在线免费观看 | 在线国产激情视频 | 成人免费一区二区三区在线观看 | 中文区中文字幕免费看 | 国产视频 亚洲视频 | 狠狠色噜噜狠狠狠狠2022 | 中文字幕视频网站 | 久久免费国产 | 永久免费精品视频 | 国产专区日韩专区 | 日韩欧美视频在线 | 亚洲成av人片在线观看无 | 精品一区二三区 | 91丨九色丨国产丨porny精品 | 亚洲 中文字幕av | 欧美作爱视频 | 亚洲一区免费在线 | www.久久色 | 国产精品99在线播放 | 欧美一级日韩三级 | 久章草在线观看 | 一 级 黄 色 片免费看的 | 中文字幕国产一区二区 | 国产一级二级在线播放 | 久久人人爽人人人人片 | 狠狠躁夜夜av | 夜夜躁狠狠躁日日躁视频黑人 | av免费在线播放 | www.久热 | 天天射天天色天天干 | 美女视频免费一区二区 | 91看片在线观看 | 亚洲日本欧美在线 | 国产精品va在线 | 日韩精品无码一区二区三区 | 日韩.com| 亚洲精品成人免费 | 伊人色播 | 国内精品久久久久久久久久清纯 | 麻豆精品传媒视频 | 久久久久久国产精品亚洲78 | 久久久久久久久久毛片 | 国产成人精品一二三区 | 欧美日韩在线观看视频 | 中文字幕欧美日韩va免费视频 | 91久久精品一区 | 日韩精品久久久久久久电影99爱 | 青青河边草免费观看 | 国产亚洲人成网站在线观看 | 久久成人一区 | 成人app在线免费观看 | 一区二区电影网 | 9999精品免费视频 | 人人搞人人爽 | 久久人人97超碰精品888 | 成年人视频在线观看免费 | 日日爱夜夜爱 | 免费精品久久久 | 中文字幕亚洲字幕 | 国产精品99久久免费黑人 | 日韩欧美一二三 | 成片人卡1卡2卡3手机免费看 | 日韩在线视频精品 | 免费av网址在线观看 | 九九视频一区 | 二区三区中文字幕 | 欧美激情第一区 | 在线观看亚洲国产精品 | 国产精品毛片一区二区 | 97视频免费在线 | 日韩免费一级a毛片在线播放一级 | 日韩一区二区三区在线观看 | 婷婷5月激情5月 | 国产香蕉av | 欧美日韩一区二区久久 | 一区二区伦理电影 | 精品久久久久久国产 | 中文字幕一区三区 | 日韩av影视在线观看 | 爱爱av网站 | 国产精品久久久久久一二三四五 | 一级α片免费看 | 天天操婷婷 | 日韩av午夜 | 欧美精品免费一区二区 | a在线免费 | 免费一级片在线 | 久久国产电影 | 日韩欧美精品一区二区 | 91传媒免费在线观看 | 国产精品久久久久永久免费观看 | 国产97av| 在线一区二区三区 | 中文字幕在线一区观看 | 国产不卡精品 | 中文字幕一区二区三区乱码不卡 | 性色av一区二区三区在线观看 | 亚洲狠狠丁香婷婷综合久久久 | 中文亚洲欧美日韩 | 日韩欧美网址 | 久久久久综合网 | 久久久久久国产精品久久 | 99精品免费在线观看 | 天天插天天狠天天透 | 中文字幕首页 | 香蕉视频久久久 | 成人影视免费 | 欧美一区二区在线 | 日韩视频a | 国产午夜av | 成人免费视频在线观看 | 欧美精品亚洲精品日韩精品 | 久久夜夜爽| 麻豆影视在线播放 | 亚洲精品久 | 五月导航| 欧美福利视频一区 | 粉嫩av一区二区三区四区在线观看 | 91精品伦理 | 免费观看一区二区 | 国产一级片直播 | 国产精品第一 | 91视频国产免费 | 亚洲精品视频中文字幕 | 久久久久国产精品免费网站 | 国产 欧美 日产久久 | 日日夜夜艹| 在线看黄色av | 免费久久久 | 国产精品乱看 | 日韩精品一区电影 | 在线天堂日本 | 国产视频资源在线观看 | 欧美日韩视频在线播放 | 久久爱影视i| 亚洲综合色网站 | 在线看一区二区 | 中文字幕欧美日韩va免费视频 | 天天爽人人爽夜夜爽 | 日本性生活一级片 | www国产亚洲精品久久麻豆 | 亚洲aⅴ乱码精品成人区 | 久久人操 | 久久视频精品在线 | 午夜影视一区 | 亚洲极色 | 在线观看片 | 久久久999精品视频 国产美女免费观看 | 91在线看黄 | 成人香蕉视频 | 久久精品一区八戒影视 | 国产精品一区二区三区在线看 | 午夜91视频| 成年人在线免费看视频 | 成人动图 | 久久免费一 | 色播五月婷婷 | 国产欧美中文字幕 | 久久婷婷网| 日本中文字幕久久 | av在线免费不卡 | 91日本在线播放 | 亚洲 欧洲av | 亚洲伊人第一页 | 国产美女免费视频 | 精品日韩av| 公与妇乱理三级xxx 在线观看视频在线观看 | 99色免费| 丝袜一区在线 | 亚洲免费高清视频 | 免费国产在线精品 | 国产成人一区二区三区 | 国产精品99久久久精品免费观看 | 中文在线天堂资源 | 99久高清在线观看视频99精品热在线观看视频 | 日韩黄色在线观看 | 懂色av一区二区三区蜜臀 | 欧美激情精品 | 久久综合狠狠综合久久狠狠色综合 | 97精品超碰一区二区三区 | 久久精品影视 | 国产一区二区免费在线观看 | 亚洲免费观看视频 | 玖玖在线看 | 五月婷婷综合激情网 | 国产九九九精品视频 | 狠狠狠干狠狠 | 久久久精品综合 | 久久国产精品一国产精品 | 久久人人精 | 五月天综合| 亚洲激情在线视频 | 午夜天使| 开心婷婷色 | 九九九九精品九九九九 | www国产精品com | 天天综合网~永久入口 | 久草免费在线观看视频 | 五月天色中色 | 国产一区二区在线免费视频 | 亚洲精品免费在线视频 | 亚洲午夜av久久乱码 | 亚洲美女视频网 | 在线视频欧美精品 | 狠狠干狠狠久久 | 日本中文字幕电影在线免费观看 | 六月丁香社区 | 一区二区三区免费在线播放 | 国产在线观看你懂的 | 亚洲综合色丁香婷婷六月图片 | 国产区欧美 | 国产在线p| 国产在线理论片 | 91久久影院| 国产分类视频 | 午夜免费视频网站 | av电影久久| 亚洲综合网| 中文字幕精品三级久久久 | 中文字幕在线免费看线人 | 碰超在线97人人 | 亚洲精品91天天久久人人 | 2020天天干夜夜爽 | 成人av在线直播 | 在线观看一级片 | 日本久久久亚洲精品 | 国产精品综合久久久久 | 综合久久久久 | 日韩欧美精品一区二区三区经典 | 啪啪资源 | 色婷婷www | 久草在线免费播放 | 免费在线观看午夜视频 | 国内精品视频免费 | 一区二区三区四区五区在线 | 99国产在线观看 | 久久69av| 国产精品久久久久久久久久久免费看 | 亚洲 综合 精品 | 久久激情日本aⅴ | 免费观看丰满少妇做爰 | 麻豆手机在线 | 99精品一区二区 | 中文字幕一区二区三区乱码在线 | www.久久久.com | 国产福利91精品一区 | 婷婷国产精品 | 97人人艹 | 日韩高清激情 | 91经典在线 | 婷婷九月激情 | 婷婷伊人五月 | 欧美了一区在线观看 | 中文字幕在线观看第二页 | 丝袜精品视频 | 69视频永久免费观看 | 97精品国产91久久久久久久 | 欧美激情精品久久久久久免费 | 波多野结衣最新 | 91爱爱网址 | 91视频中文字幕 | 日日干美女 | 91高清免费 | 五月激情站 | 免费欧美 | 国产欧美综合在线观看 | 综合久久久久久久久 | 欧美一级片在线免费观看 | 国产精品一区在线观看 | 国产女人免费看a级丨片 | 99视频在线免费播放 | 久久久精品欧美一区二区免费 | www蜜桃视频| 超碰大片| 九九视频免费观看视频精品 | 丁香六月久久综合狠狠色 | 国产又粗又猛又色又黄网站 | 日韩手机视频 | 欧美日韩激情网 | 性日韩欧美在线视频 | 69av视频在线观看 | 久草爱| 亚洲精品国产精品国自产 | 色播激情五月 | 中文字幕xxxx | 欧美日韩国产区 | 亚洲综合在线五月天 | 久久久久久久久免费 | 国产永久网站 | 久久国产网站 | 91精品伦理 | 免费视频 你懂的 | 色91av| 中文av影院 | 成人av资源在线 | 91久久国产自产拍夜夜嗨 | 日韩激情在线视频 | 四川bbb搡bbb爽爽视频 | 在线你懂的视频 | 亚洲一区二区三区miaa149 | 亚洲精品va| 久久久久久高潮国产精品视 | 国产精品系列在线播放 | 亚洲国产精品久久久久 | 人人躁| 久久久午夜精品福利内容 | 黄色视屏av| aaa黄色毛片 | 日韩不卡高清 | 免费的成人av | 国内精品久久久久国产 | 亚洲成免费 | 欧美午夜久久久 | 久久精品视频日本 | 在线综合 亚洲 欧美在线视频 | 色天天中文 | 亚洲成av人片在线观看 | 操操综合 | 亚洲免费a | 91精品国产网站 | 久久久久北条麻妃免费看 | 欧美成人亚洲 | 伊人热 | 不卡av电影在线 | 国产91小视频 | 91九色免费视频 | 天天干天天做天天爱 | 亚洲一区精品人人爽人人躁 | 亚洲午夜精品一区二区三区电影院 | 国产精品色视频 | 97在线免费视频 | 丰满少妇在线观看网站 | 天天操天天摸天天干 | 日本久久久精品视频 | 欧美成人理伦片 | 蜜臀久久99静品久久久久久 | 欧美日韩视频一区二区三区 | 亚洲欧美国产精品va在线观看 | 久久,天天综合 | 成片人卡1卡2卡3手机免费看 | 亚洲欧美日韩在线看 | 成年人app网址 | 成人97视频一区二区 | 97精品国产97久久久久久春色 | av直接看| 亚洲欧美日韩精品久久久 | 天天干夜夜 | 男女男视频 | 一区二区高清在线 | 国产又粗又长的视频 | 精品一区电影国产 | 丁香综合五月 | 香蕉97视频观看在线观看 | 在线观看香蕉视频 | 欧美 日韩 性 | 91看片成人 | 欧美性生活久久 | 久久国产亚洲精品 | 天天躁日日躁狠狠躁av麻豆 | 91夜夜夜| wwwwww黄| 美女av免费 | 欧美日韩三级在线观看 | 不卡av免费在线观看 | 成人黄色免费在线观看 | 国产一区在线看 | 午夜精品电影一区二区在线 | 天堂av在线7| 国产看片网站 | 91网址在线 | 国产一区二区不卡视频 | 深爱综合网 | 色婷婷狠狠18 | 亚洲精品高清在线观看 | 久99久在线视频 | 超碰人人国产 | 亚洲欧美成人在线 | 日本三级不卡视频 | 欧美精品999 | 亚洲精品www. | 激情欧美丁香 | 91精品伦理| 天天操偷偷干 | 国产精品理论片 | 免费av黄色 | 国产成人亚洲精品自产在线 | 久草视频看看 | 丁香五香天综合情 | 黄色一级大片在线免费看国产一 | 国产精品欧美 | 色综合久久88色综合天天人守婷 | 97国产超碰在线 | 日操干 | 992tv在线成人免费观看 | 在线午夜电影神马影院 | 日本精品一区二区三区在线播放视频 | 丁香六月久久综合狠狠色 | 亚洲最新在线视频 | 日韩一区二区三免费高清在线观看 | 亚洲黄网站 | 亚洲视频1区2区 | 免费人成在线观看 | 国产精品亚洲精品 | 天天色天天综合 | 亚洲免费精品一区二区 | 国产福利精品视频 | 91麻豆产精品久久久久久 | 99爱这里只有精品 | 色偷偷88欧美精品久久久 | 中文字幕首页 | 日韩在线播放视频 | 国产一线二线三线性视频 | 欧美污在线观看 | 国产永久网站 | 国产老太婆免费交性大片 | 三级黄色片在线观看 | 日日夜夜免费精品视频 | 免费看精品久久片 | 久久嗨| 天天干天天搞天天射 | 国产91精品一区二区麻豆网站 | 美女黄色网在线播放 | 国产中的精品av小宝探花 | 免费进去里的视频 | 天天干天天弄 | 色婷婷精品大在线视频 | 久久久久久久久久久久影院 | 亚洲精品视频在线观看免费视频 | 亚洲乱码一区 | 99精彩视频在线观看免费 | 狠狠干狠狠艹 | 五月花激情| 国产高清视频在线播放一区 | 97视频免费播放 | 在线观看视频你懂得 | 成年人黄色免费看 | 99久久久久免费精品国产 | 亚洲电影久久久 | 大片网站久久 | 免费网站看av片 | a天堂最新版中文在线地址 久久99久久精品国产 | 日本少妇久久久 | 麻豆成人网 | 亚洲伦理中文字幕 | 日韩欧美视频在线观看免费 | 日韩视频免费看 | 久久免费视频在线观看30 | 国产美女网站在线观看 | 欧美日韩国产网站 | 亚洲视屏在线播放 | 中文字幕之中文字幕 | 国产一区二区免费 | 日本女人的性生活视频 | 日韩有码欧美 | 九九在线精品视频 | 精品一区av| 久久免费a | 国产成人精品三级 | 亚洲爱爱视频 | 亚洲精品一区二区精华 | 五月婷婷欧美视频 | 精品国产一区二区三区噜噜噜 | 久久情网| 黄色三级网站在线观看 | 中文字幕成人在线 | av超碰在线 | 天天射天 | av电影免费看 | 成年人av在线播放 | 久久视频在线 | 五月婷婷播播 | 伊人天天干 | 日本三级人妇 | 99麻豆视频| av中文字幕在线看 | 日本aaaa级毛片在线看 | 亚洲精品欧美精品 | 欧美一区二区在线免费看 | 久久一区二 | 亚洲一区二区三区精品在线观看 | 久久国产精品99精国产 | 久草热久草视频 | 国产日韩三级 | 在线观看av大片 | 日韩在线观看小视频 | 黄色视屏av | 久久国产精品免费观看 | 成人三级网站在线观看 | 98超碰在线| 成人av在线看| 国产一区播放 | 国产精品成人自产拍在线观看 | 操久久免费视频 | 色在线国产 | 久久免费看视频 | 在线天堂v | 亚洲高清激情 | 成人久久久精品国产乱码一区二区 | 国产在线第三页 | 免费观看黄 | 欧美性一级观看 | 精品一区二区亚洲 | 久久黄色免费视频 | 91av视频在线播放 | 黄色亚洲 | 国产成人精品国内自产拍免费看 | av电影一区二区三区 | 精品一区二区免费在线观看 | 五月激情片| 91tv国产成人福利 | 一区二区三区高清在线 | 日韩电影在线看 | 久草综合在线观看 | 国产精品久久久久久久毛片 | 超碰国产在线观看 | 亚洲最新视频在线播放 | 亚洲理论视频 | 蜜臀久久99精品久久久久久网站 | 国产一卡在线 | 九九久久婷婷 | 丁香免费视频 | 综合中文字幕 | 五月婷婷视频在线观看 | 摸阴视频 | 欧美激情va永久在线播放 | 日韩理论片 | 免费在线观看午夜视频 | 91精品国自产拍天天拍 | 天天亚洲综合 | 在线观看中文字幕dvd播放 | 免费视频91 | 看片黄网站 | av免费在线观看网站 | 国语自产偷拍精品视频偷 | av一级黄| 香蕉影院在线 | 四虎成人精品永久免费av | 中文字幕免费高清在线观看 | 亚洲无在线| 国产黄视频在线观看 | 久久精品毛片 | 精品一区二区精品 | 日韩激情av在线 | 国产精品久久久久久久久久东京 | 人人搞人人爽 | 日韩毛片在线播放 | 九九日韩| 国产精品女同一区二区三区久久夜 | 中文字幕在线观看日本 | 欧美视频日韩 | 91女人18片女毛片60分钟 | 日韩v在线| 99re久久资源最新地址 | 日本最新一区二区三区 | 爱爱av网站 | 超碰公开在线 | 中文字幕在线观看网 | 欧美在线视频不卡 | 日本韩国精品一区二区在线观看 | 美女黄网久久 | 久精品在线| 欧美韩日精品 | 人人狠狠综合久久亚洲 | 欧美日韩在线观看一区二区三区 | 久久艹在线 | 国产裸体bbb视频 | 久久午夜精品视频 | 免费观看黄色12片一级视频 | 国产精品18久久久久久不卡孕妇 | 天天色天天色天天色 | 免费高清在线观看电视网站 | 欧美日韩大片在线观看 | 国产精品美女久久久 | 视频91在线 | 久久久蜜桃一区二区 | 久久久久草| 最新中文字幕视频 | 日本在线观看黄色 | www日| 成人h在线观看 | 91香蕉视频 | 在线一区观看 | 日韩欧美在线观看一区二区 | 91视频这里只有精品 | 久久视频国产精品免费视频在线 | 干干操操 | www日韩精品 | aaa日本高清在线播放免费观看 | 国产精品美女久久久久久久久 | 99国产免费网址 | 成人在线观看影院 | 国产一区播放 | 亚洲精品美女久久久 | 国产欧美精品一区二区三区四区 | 国产精品va在线观看入 | 国产日韩精品欧美 | 在线免费高清一区二区三区 | 色av男人的天堂免费在线 | 婷婷成人综合 | 日韩av线观看 | 精品国产精品国产偷麻豆 | 91在线视频免费播放 | 久久免费视频播放 | av黄色免费在线观看 | a天堂最新版中文在线地址 久久99久久精品国产 | 国产精品自产拍在线观看蜜 | 国产资源在线播放 | 91精品啪在线观看国产 | 中文字幕免费播放 | 视频在线99 | 日本黄色免费观看 | 91精品毛片| 91色一区二区三区 | 国产高清在线永久 | 在线视频日韩欧美 | 性色av一区二区三区在线观看 | 99精品免费在线观看 | 欧美精品一区二区蜜臀亚洲 | 视频91在线| 人人干人人超 | 四虎国产精品免费 | 天天躁日日躁狠狠躁av中文 | 亚a在线| 91mv.cool在线观看 | 深夜国产在线 | 伊人六月 | 91污视频在线| 色伊人网 | 99久久99久久精品 | 99看视频在线观看 | 91视频电影 | 最新国产在线视频 | 在线一区二区三区 | 香蕉视频在线播放 | 天堂中文在线播放 | 91九色蝌蚪在线 | 日韩精品电影在线播放 | 99精品欧美一区二区三区黑人哦 | 91伊人久久大香线蕉蜜芽人口 | 日韩久久在线 | 久久亚洲欧美 | 国产精品久久久久高潮 | 亚洲精品国产品国语在线 | 久久综合网色—综合色88 | 这里只有精品视频在线 | 亚洲国产日韩在线 | 日韩精品专区 | 成人黄大片 | 一区精品在线 | 国产精品免费观看视频 | 日韩在线观看一区二区三区 | 亚洲人成影院在线 | 亚洲理论电影网 | 婷婷综合导航 | 五月天亚洲激情 | 精品一区 在线 | 不卡视频在线 | www.狠狠操| 中文字幕亚洲综合久久五月天色无吗'' | 最近中文字幕高清字幕在线视频 | 午夜精品一区二区三区四区 | 久久视频网址 | 一级久久久| 天天在线操 | 国内精品久久久久国产 | 日本不卡一区二区三区在线观看 | 天天久久夜夜 | 丁香五月缴情综合网 | 在线播放国产一区二区三区 | 免费看在线看www777 | 操操碰 | 精品国产资源 | 西西人体www444 | 久久久久激情电影 | 97超碰超碰久久福利超碰 | www操操 | 亚洲国产中文在线 | 中文字幕精品一区久久久久 | 国产69精品久久久久9999apgf | 久久久国产精品电影 | 狠狠狠狠狠操 | 操碰av| 久草视频免费在线观看 | 久久国产精品视频免费看 | 亚洲午夜精品久久久久久久久久久久 | 免费国产视频 | 91在线观看欧美日韩 | 亚洲激情在线观看 | 亚洲精品福利在线观看 | 精品二区久久 | 91在线网站| 久久婷亚洲五月一区天天躁 | 高潮久久久| 亚洲一级性| 91片在线观看 | 五月开心激情 | 亚洲国产成人精品电影在线观看 | 可以免费看av | 国产色婷婷在线 | 超碰在线天天 | 国产精品久久久久久超碰 | 99亚洲精品在线 | 国产亚洲婷婷 | 久久国产精品一区二区三区 | 99产精品成人啪免费网站 | 国产精品福利无圣光在线一区 | 在线观看精品 | 在线视频app | 免费a级黄色毛片 | 69国产盗摄一区二区三区五区 | 精品99在线观看 | 国产精品12345 | 成人a视频在线观看 | 胖bbbb搡bbbb擦bbbb| 久久久久国产精品免费免费搜索 | 大片网站久久 | 国内精品一区二区 | 色多多视频在线 | 欧美激情综合五月色丁香 | 欧美日韩一级久久久久久免费看 | 国产精品 美女 | 免费观看一级成人毛片 | 欧美激情精品久久久 | 在线看片一区 | 91精品久久久久久久91蜜桃 | 又污又黄网站 | 亚洲欧洲美洲av | 性色av免费在线观看 | 欧美在线观看视频免费 | 久精品在线观看 | 国产资源网站 | 免费在线观看毛片网站 | 日韩激情视频 | 成人网在线免费视频 | 亚洲午夜av久久乱码 | 久久天天拍 | 亚洲国产中文字幕 | www.人人干| 久久伦理电影网 | 日本精品一区二区三区在线播放视频 | 一区二区三区播放 | 欧美成人黄色 | 亚洲三级av | 亚洲精品国内 | 日韩一区视频在线 | 欧美精品久 | 亚洲人成网站精品片在线观看 | 蜜桃av综合网 | 国产美女视频黄a视频免费 久久综合九色欧美综合狠狠 | 久草在线免费看视频 | 国产传媒一区在线 | 欧美日韩国产色综合一二三四 | 看av在线| 免费在线精品视频 | 91天堂在线观看 | 久久精品久久久久久久 | 亚洲精品免费在线观看视频 | 久草在线资源观看 | 国产精品亚洲片在线播放 | 成人蜜桃视频 | 五月综合色婷婷 | 综合网伊人 | 91麻豆精品国产自产在线游戏 | 免费看的黄网站 | 精品视频成人 | 亚洲午夜大片 | 特级a毛片 | 日韩网站一区 | 欧美最新大片在线看 | 成人资源在线播放 | 中文字幕av网站 | 国产视频一区二区在线 | 国产精品免费久久久久影院仙踪林 | 天天插天天操天天干 | 午夜视频亚洲 | 日韩精品欧美一区 | 在线久草视频 | 麻豆一区在线观看 | 91激情| 91成人精品一区在线播放69 | 午夜精品久久久久久久99 | 久久乐九色婷婷综合色狠狠182 | 五月婷婷一区二区三区 | 成人在线免费视频 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 超碰人人91| 午夜视频黄 | 毛片网在线 | 99麻豆视频| 色综合久久久久久中文网 | 日韩av偷拍| 国产一区免费在线观看 | 人人干网站| 色瓜| 91在线中文字幕 | 久久精品—区二区三区 | 在线观看的a站 | 美女免费视频观看网站 | 在线观看国产日韩欧美 | 美女av在线免费 | 国产亚洲精品v | 欧美韩国日本在线 | 天堂网一区二区三区 |