日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

你们要的代码来了!爬了菊姐的两万条评论——详细代码解读篇

發(fā)布時間:2024/1/18 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 你们要的代码来了!爬了菊姐的两万条评论——详细代码解读篇 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

點擊上方“程序人生”,選擇“置頂公眾號”

第一時間關注程序猿(媛)身邊的故事


作者

張俊紅

如需轉(zhuǎn)載,請聯(lián)系原作者授權。


前言

上一篇文章爬了菊姐的兩萬條評論,竟發(fā)現(xiàn)菊粉都是這樣的人!發(fā)出后,大家反響還不錯。

在上一篇文章中之所以沒帶代碼主要是因為我只想寫一篇數(shù)據(jù)分析報告,咱們平常給領導看數(shù)據(jù)分析報告,肯定也不會把Sql代碼、Python代碼放在PPT中,給老板講述每一行Sql代碼是什么意思,所以就沒有放代碼。

但是大家都很愛學習,都想要代碼學習學習,所以今天就專門來一篇講講代碼。

在開始具體的代碼講解之前,我需要說明一下關于菊粉人數(shù)中摩羯座人數(shù)最多這個結(jié)論的一些爭議,有人評論說微博用戶如果不設置年齡的話,默認就是1月1,也就是摩羯座,所以摩羯座人數(shù)比較多。先來看兩張圖:

未設置年齡前的信息 設置個人信息 設置年齡后的信息

通過上面幾張截圖來看的話,如果未設置年齡時,并不會默認顯示成摩羯座,所以應該就不存在大家說的那種情況。

還有所在地和家鄉(xiāng)是可以選擇則其他的,性別、年齡、星座是不可以選擇其他。我們本次就是要獲取這幾個字段。

本篇主要分為三個部分:

  • 數(shù)據(jù)獲取

  • 數(shù)據(jù)預處理

  • 可視化圖表制作

數(shù)據(jù)抓取

先講講數(shù)據(jù)抓取的邏輯,最終目的就是要找到pick王菊的人都是哪些人,剛開始想的是直接抓取王菊的粉絲列表,但是后來發(fā)現(xiàn)微博數(shù)據(jù)有限制,只能抓取少量的粉絲列表,所以這個方案行不通,只能換下一個。

在小歪大佬的建議下,決定抓取王菊微博留言下面的用戶,因為這些用戶是和王菊有過互動的,要比那些只關注沒有互動(這里的互動只指評論這一動作)的用戶粉的程度要大,更有代表性。

所以最終的一個數(shù)據(jù)抓取思路就是:通過獲取微博評論下的用戶,然后進而獲取用戶基本信息,具體實現(xiàn)代碼如下:

獲取每條微博評論url

我們先隨便點擊一條微博的評論進去,看看我們要的字段都在哪里。

最近一條微博的評論
可以看到,有評論 text ,以及每一條 text 對應的 user_id ,找到了字段位置,我們再來看看這些字段對應url是什么,有什么規(guī)律。
微博評論url
通過查看這個url https://m.weibo.cn/api/comments/show?id=4248590911655823&page=1 ,我們大概可以猜出,id前面的部分 https://m.weibo.cn/api/comments/show? 應該是所有微博評論都一樣的,id值是唯一的,每一個id對應一條微博,而page是表示一條微博的評論存放在多頁里面,經(jīng)過驗證確實如此,而且page最大值就是100,100以后就不返回數(shù)據(jù)了。

所以接下來我們的目標就是獲取每條微博對應的唯一id值。回到用戶主頁,

微博id
可以看到每條微博的發(fā)布時間,以及微博id,也就是只需要解析用戶主頁url就可以得到該用戶的每條微博對應的id值。 url = https://m.weibo.cn/api/container/getIndex?uid=1773294041&luicode=10000011&lfid=100103type%3D1%26q%3D%E7%8E%8B%E8%8F%8A&featurecode=20000320&containerid=1076031773294041

獲取到每條微博的id值以后,我們就可以獲取到每條微博評論的url,具體代碼如下:

#導入相關庫
import requests
import json

comment_parameter = []#用來存放weibo_id值
comment_url = []#用來存放weibo_url

#獲取每條微博的id值
url = 'https://m.weibo.cn/api/container/getIndex?uid=1773294041&luicode=10000011&lfid=100103type%3D1%26q%3D%E7%8E%8B%E8%8F%8A&\featurecode=20000320&type=uid&value=1773294041&containerid=1076031773294041'

c_r = requests.get(url)
for i in range(2,11):
? ?c_parameter = (json.loads(c_r.text)["data"]["cards"][i]["mblog"]["id"])
? ?comment_parameter.append(c_parameter)

#獲取每條微博評論url
c_url_base = 'https://m.weibo.cn/api/comments/show?id='
for parameter in comment_parameter:
? ?for page in range(1,101):#提前知道每條微博只可抓取前100頁評論
? ? ? ?c_url = c_url_base + str(parameter) + "&page=" + str(page)
? ? ? ?comment_url.append(c_url)

獲取每個user_id和comment

上面獲取到每條微博評論的url以后,我們就可以直接請求對應的url,然后把user_idtext解析出來即可,實現(xiàn)代碼如下:

user_id = []#用來存放user_id
comment = []#用來存放comment
for url in comment_url:
? ?u_c_r = requests.get(url)
? ?try:
? ? ? ?for m in range(0,9):#提前知道每個url會包含9條用戶信息
? ? ? ? ? ?one_id = json.loads(u_c_r.text)["data"]["data"][m]["user"]["id"]
? ? ? ? ? ?user_id.append(one_id)
? ? ? ? ? ?one_comment = json.loads(u_c_r.text)["data"]["data"][m]["text"]
? ? ? ? ? ?comment.append(one_comment)
? ?except:
? ? ? ?pass

獲取containerid

獲取到了user_id以后,我們再來看看我們想要獲取的字段在哪,如下圖,

用戶信息界面
知道了我們想要獲取的字段在哪以后,再看看這些字段對應的url是什么?
用戶信息對應url
看到這個url以后我們又可以猜測,每個用戶信息對應的url應該只有 value&containerid 這兩個值是不一樣的,其他都是一樣的,經(jīng)驗證,缺失如此,且 value 值就是 user_id containerid 是另外一個唯一值,所以我們接下來的目標是獲取每個用戶對應的 containerid 。具體實現(xiàn)代碼如下: containerid = []
user_base_url = "https://m.weibo.cn/api/container/getIndex?type=uid&value="
for id in set(user_id):#需要對user_id去重
? ?containerid_url = user_base_url + str(id)
? ?try:
? ? ? ?con_r = requests.get(containerid_url)
? ? ? ?one_containerid = json.loads(con_r.text)["data"]['tabsInfo']['tabs'][0]["containerid"]
? ? ? ?containerid.append(one_containerid)
? ?except:
? ? ? ?containerid.append(0)

獲取用戶基本信息

知道了user_id以及containerid,我們就可以唯一確定一個用戶的基本信息,具體實現(xiàn)代碼如下:

#這里需要設置headers以及cookie模擬登陸
feature = []#存放用戶基本信息
id_lose = []#存放請求失敗id
user_agent = "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36"
headers = {"User-Agent":user_agent}
m = 1
for num in zip(user_id,containerid):
? ?url = "https://m.weibo.cn/api/container/getIndex?uid="+str(num[0])+"&luicode=10000011&lfid=100103type%3D1%26q%3D&featurecode=20000320&type=uid&value="+str(num[0])+"&containerid="+str(num[1])
? ?try:
? ? ? ?r = requests.get(url,headers = headers,cookies = cookie)
? ? ? ?feature.append(json.loads(r.text)["data"]["cards"][1]["card_group"][1]["item_content"].split(" ?"))
? ? ? ?print("成功第{}條".format(m))
? ? ? ?m = m + 1
? ? ? ?time.sleep(1)#設置睡眠一秒鐘,防止被封
? ?except:
? ? ? ?id_lose.append(num[0])

#將featrue建立成DataFrame結(jié)構(gòu)便于后續(xù)分析
user_info = pd.DataFrame(feature,columns = ["性別","年齡","星座","國家城市"])


最后的結(jié)果如下表:

用戶信息表
可以看到,年齡和星座為空,并不是摩羯座,且當年齡和星座為空時,所在地就會錯位到年齡列,接下來就做一些數(shù)據(jù)預處理。

數(shù)據(jù)清洗

數(shù)據(jù)清洗邏輯如下:

  • 對于國家列為空,星座列不空且不包含座字,則認為是國家城市名,則把星座列賦值給國家城市列

  • 對于國家列為空,星座列也為空,年齡列不為空且不包含歲或座字,則把年齡列賦值給國家城市列

  • 對于星座列為空,但是年齡列包含座字,則把年齡列賦值給星座列

  • 對于星座列不包含座的,全部賦值為“未知”

  • 對于年齡列不包含歲的,全部賦值為“999歲”(為便于后續(xù)好篩選)

  • 對于國家列為空的,全部賦值為“其他”

具體代碼如下:

#數(shù)據(jù)清洗
user_info1 = user_info[(user_info["性別"] == "男") | (user_info["性別"] == "女")]#去除掉性別不為男女的部分
user_info1 = user_info1.reindex(range(0,5212))#重置索引


user_index1 = user_info1[(user_info1["國家城市"].isnull() == True)&(user_info1["星座"].isnull() == False)
? ? ? ? ? ? ? ? ? ? ? ? &(user_info1["星座"].map(lambda s:str(s).find("座")) == -1)].index
for index in user_index1:
? ?user_info1.iloc[index,3] = user_info1.iloc[index,2]

user_index2 = user_info1[((user_info1["國家城市"].isnull() == True)&(user_info1["星座"].isnull() == True)
? ? ? ? ? ? ? ? ? ? ? ? ?&(user_info1["年齡"].isnull() == False)&(user_info1["年齡"].map(lambda s:str(s).find("歲")) == -1))].index
for index in user_index2:
? ?user_info1.iloc[index,3] = user_info1.iloc[index,1]

user_index3 = user_info1[((user_info1["星座"].map(lambda s:str(s).find("座")) == -1)&
? ? ? ? ? ? ? ? ? ? ? ? ?(user_info1["年齡"].map(lambda s:str(s).find("座")) != -1))].index
for index in user_index3:
? ?user_info1.iloc[index,2] = user_info1.iloc[index,1]

user_index4 = user_info1[(user_info1["星座"].map(lambda s:str(s).find("座")) == -1)].index
for index in user_index4:
? ?user_info1.iloc[index,2] = "未知"

user_index5 = user_info1[(user_info1["年齡"].map(lambda s:str(s).find("歲")) == -1)].index
for index in user_index5:
? ?user_info1.iloc[index,1] = "999歲"#便于后續(xù)統(tǒng)一處理

user_index6 = user_info1[(user_info1["國家城市"].isnull() == True)].index
for index in user_index6:
? ?user_info1.iloc[index,3] = "其他"

圖表制作

主要講講這篇報告中涉及到的圖表的制作,上一篇文章中的圖表我是用的BDP做的,因為BDP做出來的要比python做出來的美觀,而且方便,所以我就用了BDP,這篇主要是講代碼,所以就給大家用python實現(xiàn)一遍。

詞云圖制作

詞云圖制作是先把一大段話進行分詞,分成若干個詞語,然后對詞語進行計數(shù),最后挑選出出現(xiàn)次數(shù)比較大的那些詞,繪制在同一張圖上,且出現(xiàn)次數(shù)越多,字體顯示越大,最終效果圖如下:

菊粉留言
當然了,最后結(jié)果只是右半部分,左半部分是為了對比后期PS加上去的。具體實現(xiàn)代碼如下: import fool
from collections import Counter
from PIL import Image,ImageSequence ?
from wordcloud import WordCloud,ImageColorGenerator

#因留言結(jié)構(gòu)比較亂,所以先保存到本地做進一步處理
#刪除掉一些html元素
pd.DataFrame(comment).to_csv(r"C:\Users\zhangjunhong\Desktop\comment.csv")

#處理完以后再次載入進來
comment_data = pd.read_excel(r"C:\Users\zhangjunhong\Desktop\comment.xlsx")

#將數(shù)據(jù)轉(zhuǎn)換成字符串
text = (",").join(comment_data[0])

#進行分詞
cut_text = ' '.join(fool.cut(text))

#將分詞結(jié)果進行計數(shù)
c = Counter(cut_text)
c.most_common(500)#挑選出詞頻最高的500詞

#將結(jié)果導出到本地進行再一次清洗,刪除無意義的符號詞
pd.DataFrame(c.most_common(500)).to_excel(r"C:\Users\zhangjunhong\Desktop\fenci.xlsx")

#導入背景圖,這里選擇菊姐頭像
image = Image.open('C:/Users/zhangjunhong/Desktop/圖片1.png')

#將圖片信息轉(zhuǎn)換成數(shù)組形式
graph = np.array(image)

#設置詞云參數(shù)
#參數(shù)分別是指定字體、背景顏色、最大的詞的大小、使用給定圖作為背景形狀 ?
wc = WordCloud(font_path = "C:\\Windows\\Fonts\\simkai.ttf", background_color = 'White', max_words = 150, mask = graph) ?

fp = pd.read_csv(r"C:\Users\zhangjunhong\Desktop\da200.csv",encoding = "gbk")#讀取詞頻文件 ?
name = list(fp.name)#詞 ?
value = fp.time#詞的頻率 ?
dic = dict(zip(name, value))#詞以及詞頻以字典形式存儲 ?

#根據(jù)給定詞頻生成詞云
wc.generate_from_frequencies(dic)
image_color = ImageColorGenerator(graph) ?

plt.imshow(wc) ?
plt.axis("off")#不顯示坐標軸 ?
plt.show()

#保存結(jié)果到本地
wc.to_file('C:/Users/zhangjunhong/Desktop/wordcloud.jpg')

這里分詞沒有用jieba分詞,而是用了fool,據(jù)稱是最準確的中文分詞包,github地址:https://github.com/rockyzhengwu/FoolNLTK

餅圖繪制

餅圖就很簡單了,代碼如下:

繪制男女比例的餅圖
user_info1["性別"].value_counts(normalize = True).plot.pie(title = "菊粉男女分布",autopct='%.2f')
菊粉男女分布

柱狀圖繪制

先對年齡進行分區(qū)間,然后再進行統(tǒng)計繪制,代碼如下

#將把年齡從字符串變成數(shù)字
user_info1["age_1"] = [int(age[:-1]) for age in user_info1["年齡"]]

#對年齡進行分組
bins = (0,10,20,25,30,100,1000)#將年齡進行區(qū)間切分
cut_bins = pd.cut(user_info1["age_1"],bins = bins,labels = False)
ax = cut_bins[cut_bins < 5].value_counts(normalize =True).plot.bar(title = "菊粉年齡分布")#將大于100歲的過濾掉
ax.set_xticklabels(["0-10歲","10-20歲","20-25歲","25-30歲","30+"],rotation = 0)
菊粉年齡分布

地圖繪制

#導入相關庫
import matplotlib.pyplot as plt
import matplotlib
from matplotlib.patches import Polygon
from mpl_toolkits.basemap import Basemap
from matplotlib.collections import PatchCollection

#將省份和城市進行分列
country_data = pd.DataFrame([country.split(" ") for country in user_info1["國家城市"]],columns = ["省份","城市"])

#將國家和城市與user表合并
user_data = pd.merge(user_info1,country_data,left_index = True,right_index = True,how = "left")

#按省份進行分組計數(shù)
shengfen_data = user_data.groupby("省份")["性別"].count().reset_index().rename(columns = {"性別":"人次"})

#需要先對各省份地址進行經(jīng)緯度解析
#導入解析好的省份經(jīng)緯度信息
location = pd.read_table(r"C:\Users\zhangjunhong\Desktop\latlon_106318.txt",sep = ",")

#將省份數(shù)據(jù)和經(jīng)緯度進行匹配
location_data = pd.merge(shengfen_data,location[["關鍵詞","地址","谷歌地圖緯度","谷歌地圖經(jīng)度"]],
? ? ? ? ? ? ? ? ? ?left_on = "省份",right_on = "關鍵詞",how = "left")

#進行地圖可視化
#創(chuàng)建坐標軸
fig = plt.figure(figsize=(16,12))
ax ?= fig.add_subplot(111)

#需要提前下載中國省份地圖的.shp
#指明.shp所在路徑進行導入
basemap = Basemap(llcrnrlon= 75,llcrnrlat=0,urcrnrlon=150,urcrnrlat=55,projection='poly',lon_0 = 116.65,lat_0 = 40.02,ax = ax)
basemap.readshapefile(shapefile = "C:/Users/zhangjunhong/Desktop/CHN_adm/CHN_adm1",name = "china")

#定義繪圖函數(shù)
def create_great_points(data):
? ?lon ? = np.array(data["谷歌地圖經(jīng)度"])
? ?lat ? = np.array(data["谷歌地圖緯度"])
? ?pop ? = np.array(data["人次"],dtype=float)
? ?name = np.array(data["地址"])
? ?x,y = basemap(lon,lat)
? ?for lon,lat,pop,name in zip(x,y,pop,name):
? ? ? ?basemap.scatter(lon,lat,c = "#778899",marker = "o",s = pop*10)
? ? ? ?plt.text(lon,lat,name,fontsize=10,color = "#DC143C")

#在location_data上調(diào)用繪圖函數(shù)
create_great_points(location_data)

plt.axis("off")#關閉坐標軸
plt.savefig("C:/Users/zhangjunhong/Desktop/itwechat.png")#保存圖表到本地
plt.show()#顯示圖表
菊粉全國分布

上面地圖繪制主要是用的Python中的Basemap庫,解析地理位置用的XGeocoding_v2

Top省份和Top城市就是兩個柱狀圖,制作方式和上面的年齡分布類似。

樹地圖繪制

星座顯示的這種可視化形式叫做樹地圖,主要用的squarify庫,實現(xiàn)如下:

import squarify
# 創(chuàng)建數(shù)據(jù)
xingzuo = user_info1["星座"].value_counts(normalize = True).index
size = user_info1["星座"].value_counts(normalize = True).values
rate = np.array(["34%","6.93%","5.85%","5.70%","5.62%","5.31%","5.30%","5.24%","5.01%","4.78%","4.68%","4.36%"])

# 繪圖
colors = ['steelblue','#9999ff','red','indianred',
? ? ? ? ?'green','yellow','orange']
plot = squarify.plot(sizes = size, # 指定繪圖數(shù)據(jù)
? ? ? ? ? ? ? ? ? ? label = xingzuo, # 指定標簽
? ? ? ? ? ? ? ? ? ? color = colors, # 指定自定義顏色
? ? ? ? ? ? ? ? ? ? alpha = 0.6, # 指定透明度
? ? ? ? ? ? ? ? ? ? value = rate, # 添加數(shù)值標簽
? ? ? ? ? ? ? ? ? ? edgecolor = 'white', # 設置邊界框為白色
? ? ? ? ? ? ? ? ? ? linewidth =3 # 設置邊框?qū)挾葹?
? ? ? ? ? ? ? ? ? ?)
# 設置標簽大小
plt.rc('font', size=10)
# 設置標題大小
plt.title('菊粉星座分布',fontdict = {'fontsize':12})

# 去除坐標軸
plt.axis('off')
# 去除上邊框和右邊框刻度
plt.tick_params(top = 'off', right = 'off')
菊粉星座分布

自定義詞云圖

上面從各個字段介紹了菊粉的特質(zhì),最后該來個總結(jié)了,總結(jié)的形式很多,還是選擇詞云圖的形式,只不過這里不需要進行分詞,直接手動輸入你要顯示的詞,以及詞的權重(頻次)即可,具體代碼如下:

image = Image.open('C:/Users/zhangjunhong/Desktop/圖片1.png')#作為背景形狀的圖 ?
graph = np.array(image) ?
#參數(shù)分別是指定字體、背景顏色、最大的詞的大小、使用給定圖作為背景形狀 ?
wc = WordCloud(font_path = "C:\\Windows\\Fonts\\simkai.ttf", background_color = 'White', max_words = 150, mask = graph) ?

name = ["女性","摩羯座","20歲","21歲","22歲","23歲","24歲","25歲","廣州","杭州","成都","武漢","長沙","上海","北京","海外","美國","深圳"]
value = [20,20,10,10,10,10,10,10,10,10,10,10,10,10,10,10,10,10]#詞的頻率
dic = dict(zip(name, value))#詞頻以字典形式存儲 ?
wc.generate_from_frequencies(dic)#根據(jù)給定詞頻生成詞云
image_color = ImageColorGenerator(graph) ?
plt.imshow(wc) ?
plt.axis("off")#不顯示坐標軸 ?
plt.show()
wc.to_file('C:/Users/zhangjunhong/Desktop/wordcloud.jpg')
菊粉畫像 可點擊文末「 閱讀原文 」查看GitHub地址

- The End -

「若你有原創(chuàng)文章想與大家分享,歡迎投稿。」

加編輯微信ID,備注#投稿#:

程序 丨 druidlost??

小七 丨 duoshangshuang


總結(jié)

以上是生活随笔為你收集整理的你们要的代码来了!爬了菊姐的两万条评论——详细代码解读篇的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 日韩精品人妻一区二区中文字幕 | 一区二区三区入口 | 黄色国产一区二区 | 日韩亚洲精品在线 | 亚洲综合免费观看高清完整版在线 | 亚洲欧美激情精品一区二区 | 中文字幕精品亚洲 | 日韩特黄一级片 | 国产精品一国产精品 | 国产免费片 | 成人av在线一区二区 | 国产精品100 | 国语对白真实视频播放 | 亚洲永久视频 | 在线观看免费毛片 | 亚洲精品乱码久久久久久蜜桃91 | 欧美精品videos | 免费a大片| 熊出没之冬日乐翻天免费高清观看 | 国产中文一区 | 中国女人黄色大片 | 奇米影视第四色777 波多野结衣一区二区三区免费视频 | 欧美精品a区 | 蜜桃导航-精品导航 | 国内久久久 | 色骚网| 亚洲字幕 | 少妇黄色一级片 | 黄色小视频免费看 | 久久噜噜噜精品国产亚洲综合 | 欲色影音 | 一级做a爱片久久毛片 | 欧美日韩亚洲天堂 | 欧美特级黄色 | 无码人妻一区二区三区免费n鬼沢 | ktv做爰视频一区二区 | 成人爱爱视频 | 强睡邻居人妻中文字幕 | 国产又色又爽又黄又免费 | 玖玖在线免费视频 | 亚洲夜夜操 | 黄色网日本 | 一区二区三区四区免费观看 | 黄色片网站在线 | 精品午夜一区二区三区 | 国产伦精品一区二区三区妓女 | 国产一区,二区 | 大地资源二中文在线影视观看 | 日韩欧美在线中文字幕 | 高h喷汁呻吟3p | 久久亚洲av午夜福利精品一区 | 69**夜色精品国产69乱 | 亚洲av色区一区二区三区 | 中文字幕在线2021 | 国产视频69| 日韩一区二区三区四区五区六区 | 亚洲视频一区在线观看 | 成人av国产| 双性皇帝高h喷汁呻吟 | 一女三黑人理论片在线 | 简单av网 | av成人资源 | 日韩欧美精品一区二区 | 福利一二三区 | www..com黄色| xxxx性视频 | 日韩一区二区三区三四区视频在线观看 | 在线观看入口 | 亚洲精选国产 | 日本一区二区三区久久久久 | 久久久久久久久久久久97 | 少妇一级淫片免费播放 | 天堂在线网 | 久久77777| 男女猛烈无遮挡 | 午夜爽爽视频 | 国产无限制自拍 | www.国产精品| 少女忠诚电影高清免费 | 99福利视频 | 极品美女啪啪 | 成人午夜免费在线观看 | 国产精品中文字幕在线观看 | 国产精品久久久久久久久久久久久久久久久久 | 久久国产精品久久国产精品 | 日韩视频免费播放 | 欧美z○zo重口另类黄 | 欧美偷拍少妇精品一区 | 影音先锋久久久久av综合网成人 | 尤物在线免费视频 | 一区二区三区四区视频 | 制服.丝袜.亚洲.中文.综合 | 五月婷婷丁香花 | 91精品国产综合久久福利 | 精品国产亚洲av麻豆 | 中文婷婷 | 内射后入在线观看一区 | 四虎在线视频 | 国产日本在线 |