日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人工智能 > 目标检测 >内容正文

目标检测

目标检测比赛中的 trick

發(fā)布時(shí)間:2024/9/27 目标检测 76 豆豆
生活随笔 收集整理的這篇文章主要介紹了 目标检测比赛中的 trick 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

1.數(shù)據(jù)增強(qiáng)

可參考:

初識(shí)CV:MMDetection中文文檔—4.技術(shù)細(xì)節(jié)

數(shù)據(jù)增強(qiáng)是增加深度模型魯棒性和泛化性能的常用手段,隨機(jī)翻轉(zhuǎn)、隨機(jī)裁剪、添加噪聲等也被引入到檢測(cè)任務(wù)的訓(xùn)練中來(lái),個(gè)人認(rèn)為數(shù)據(jù)(監(jiān)督信息)的適時(shí)傳入可能是更有潛力的方向。

個(gè)人觀點(diǎn):

問(wèn)題:為什么圖像和Bbox需要進(jìn)行數(shù)據(jù)增強(qiáng)呢?

答:因?yàn)閿?shù)據(jù)多了就可以盡可能多的學(xué)習(xí)到圖像中的不變性,學(xué)習(xí)到的不變性越多那么模型的泛化能力越強(qiáng)。

但是輸入到CNN中的圖像為什么不具有平移不變性?如何去解決?下面鏈接有專(zhuān)門(mén)的解析:

初識(shí)CV:輸入到CNN中的圖像為什么不具有平移不變性?

MMDetection中,數(shù)據(jù)增強(qiáng)包括兩部分:(源碼解析)

  • 圖像增強(qiáng)。
    • 源碼在mmdet/datasets/extra_aug.py里面,包括RandomCrop、brightness、contrast、saturation、ExtraAugmentation等等圖像增強(qiáng)方法。
    • 添加位置是train_pipeline或test_pipeline這個(gè)地方(一般train進(jìn)行增強(qiáng)而test不需要),例如數(shù)據(jù)增強(qiáng)RandomFlip,flip_ratio代表隨機(jī)翻轉(zhuǎn)的概率:

      train_pipeline = [dict(type='LoadImageFromFile'),dict(type='LoadAnnotations', with_bbox=True),dict(type='Resize', img_scale=(1333, 800), keep_ratio=True),dict(type='RandomFlip', flip_ratio=0.5),dict(type='Normalize', **img_norm_cfg),dict(type='Pad', size_divisor=32),dict(type='DefaultFormatBundle'),dict(type='Collect', keys=['img', 'gt_bboxes', 'gt_labels']), ] test_pipeline = [dict(type='LoadImageFromFile'),dict(type='MultiScaleFlipAug',img_scale=(1333, 800),flip=False,transforms=[dict(type='Resize', keep_ratio=True),dict(type='RandomFlip'),dict(type='Normalize', **img_norm_cfg),dict(type='Pad', size_divisor=32),dict(type='ImageToTensor', keys=['img']),dict(type='Collect', keys=['img']),]) ]

      2.?Bbox增強(qiáng)。

    • 源碼在mmdet/datasets/custom.py里面,增強(qiáng)源碼為:

      def pre_pipeline(self, results):results['img_prefix'] = self.img_prefixresults['seg_prefix'] = self.seg_prefixresults['proposal_file'] = self.proposal_fileresults['bbox_fields'] = []results['mask_fields'] = []

    2.Multi-scale Training/Testing 多尺度訓(xùn)練/測(cè)試

    可參考:

    初識(shí)CV:MMDetection中文文檔—4.技術(shù)細(xì)節(jié)

    輸入圖片的尺寸對(duì)檢測(cè)模型的性能影響相當(dāng)明顯,事實(shí)上,多尺度是提升精度最明顯的技巧之一。在基礎(chǔ)網(wǎng)絡(luò)部分常常會(huì)生成比原圖小數(shù)十倍的特征圖,導(dǎo)致小物體的特征描述不容易被檢測(cè)網(wǎng)絡(luò)捕捉。通過(guò)輸入更大、更多尺寸的圖片進(jìn)行訓(xùn)練,能夠在一定程度上提高檢測(cè)模型對(duì)物體大小的魯棒性,僅在測(cè)試階段引入多尺度,也可享受大尺寸和多尺寸帶來(lái)的增益。

    multi-scale training/testing最早見(jiàn)于[1],訓(xùn)練時(shí),預(yù)先定義幾個(gè)固定的尺度,每個(gè)epoch隨機(jī)選擇一個(gè)尺度進(jìn)行訓(xùn)練。測(cè)試時(shí),生成幾個(gè)不同尺度的feature map,對(duì)每個(gè)Region Proposal,在不同的feature map上也有不同的尺度,我們選擇最接近某一固定尺寸(即檢測(cè)頭部的輸入尺寸)的Region Proposal作為后續(xù)的輸入。在[2]中,選擇單一尺度的方式被Maxout(element-wise max,逐元素取最大)取代:隨機(jī)選兩個(gè)相鄰尺度,經(jīng)過(guò)Pooling后使用Maxout進(jìn)行合并,如下圖所示。

    使用Maxout合并feature vector

    近期的工作如FPN等已經(jīng)嘗試在不同尺度的特征圖上進(jìn)行檢測(cè),但多尺度訓(xùn)練/測(cè)試仍作為一種提升性能的有效技巧被應(yīng)用在MS COCO等比賽中。

    MMDetection中,多尺度訓(xùn)練/測(cè)試:(源碼解析)

    只需要修改train_pipeline 和test_pipeline中的img_scale部分即可(換成[(), ()])。帶來(lái)的影響是:train達(dá)到擬合的時(shí)間增加、test的時(shí)間增加,一旦test的時(shí)間增加一定會(huì)影響比賽的分?jǐn)?shù),因?yàn)楸荣惗紩?huì)將測(cè)試的時(shí)間作為評(píng)分標(biāo)準(zhǔn)之一:

    train_pipeline = [dict(type='LoadImageFromFile'),dict(type='LoadAnnotations', with_bbox=True),dict(type='Resize', img_scale=(1333, 800), keep_ratio=True), #這里可以更換多尺度[(),()]dict(type='RandomFlip', flip_ratio=0.5),dict(type='Normalize', **img_norm_cfg),dict(type='Pad', size_divisor=32),dict(type='DefaultFormatBundle'),dict(type='Collect', keys=['img', 'gt_bboxes', 'gt_labels']), ] test_pipeline = [dict(type='LoadImageFromFile'),dict(type='MultiScaleFlipAug',img_scale=(1333, 800),flip=False,transforms=[dict(type='Resize', keep_ratio=True),dict(type='RandomFlip'),dict(type='Normalize', **img_norm_cfg),dict(type='Pad', size_divisor=32),dict(type='ImageToTensor', keys=['img']),dict(type='Collect', keys=['img']),]) ]

    3.Global Context 全局語(yǔ)境

    這一技巧在ResNet的工作[3]中提出,做法是把整張圖片作為一個(gè)RoI,對(duì)其進(jìn)行RoI Pooling并將得到的feature vector拼接于每個(gè)RoI的feature vector上,作為一種輔助信息傳入之后的R-CNN子網(wǎng)絡(luò)。目前,也有把相鄰尺度上的RoI互相作為context共同傳入的做法。

    這一部分暫時(shí)沒(méi)有代碼解析。

    4.Box Refinement/Voting 預(yù)測(cè)框微調(diào)/投票法/模型融合

    微調(diào)法投票法由工作[4]提出,前者也被稱(chēng)為Iterative Localization。

    微調(diào)法最初是在SS算法得到的Region Proposal基礎(chǔ)上用檢測(cè)頭部進(jìn)行多次迭代得到一系列box,在ResNet的工作中,作者將輸入R-CNN子網(wǎng)絡(luò)的Region Proposal和R-CNN子網(wǎng)絡(luò)得到的預(yù)測(cè)框共同進(jìn)行NMS(見(jiàn)下面小節(jié))后處理,最后,把跟NMS篩選所得預(yù)測(cè)框的IoU超過(guò)一定閾值的預(yù)測(cè)框進(jìn)行按其分?jǐn)?shù)加權(quán)的平均,得到最后的預(yù)測(cè)結(jié)果。

    投票法可以理解為以頂尖篩選出一流,再用一流的結(jié)果進(jìn)行加權(quán)投票決策。

    不同的訓(xùn)練策略,不同的 epoch 預(yù)測(cè)的結(jié)果,使用 NMS 來(lái)融合,或者soft_nms

    需要調(diào)整的參數(shù):

    • box voting 的閾值。
    • 不同的輸入中這個(gè)框至少出現(xiàn)了幾次來(lái)允許它輸出。
    • 得分的閾值,一個(gè)目標(biāo)框的得分低于這個(gè)閾值的時(shí)候,就刪掉這個(gè)目標(biāo)框。

    模型融合主要分為兩種情況:

  • 單個(gè)模型的不同epoch進(jìn)行融合
  • 這里主要是在nms之前,對(duì)于不同模型預(yù)測(cè)出來(lái)的結(jié)果,根據(jù)score來(lái)排序再做nms操作。

    2.?多個(gè)模型的融合

    這里是指不同的方法,比如說(shuō)faster rcnn與retinanet的融合,可以有兩種情況:

    a) 取并集,防止漏檢。

    b) 取交集,防止誤檢,提高精度。

    5.隨機(jī)權(quán)值平均(Stochastic Weight Averaging,SWA)

    隨機(jī)權(quán)值平均只需快速集合集成的一小部分算力,就可以接近其表現(xiàn)。SWA 可以用在任意架構(gòu)和數(shù)據(jù)集上,都會(huì)有不錯(cuò)的表現(xiàn)。根據(jù)論文中的實(shí)驗(yàn),SWA 可以得到我之前提到過(guò)的更寬的極小值。在經(jīng)典認(rèn)知下,SWA 不算集成,因?yàn)樵谟?xùn)練的最終階段你只得到一個(gè)模型,但它的表現(xiàn)超過(guò)了快照集成,接近 FGE(多個(gè)模型取平均)。

    左圖:W1、W2、W3分別代表3個(gè)獨(dú)立訓(xùn)練的網(wǎng)絡(luò),Wswa為其平均值。中圖:WSWA 在測(cè)試集上的表現(xiàn)超越了SGD。右圖:WSWA 在訓(xùn)練時(shí)的損失比SGD要高。

    結(jié)合 WSWA 在測(cè)試集上優(yōu)于 SGD 的表現(xiàn),這意味著盡管 WSWA 訓(xùn)練時(shí)的損失較高,它的泛化性更好。

    SWA 的直覺(jué)來(lái)自以下由經(jīng)驗(yàn)得到的觀察:每個(gè)學(xué)習(xí)率周期得到的局部極小值傾向于堆積在損失平面的低損失值區(qū)域的邊緣(上圖左側(cè)的圖形中,褐色區(qū)域誤差較低,點(diǎn)W1、W2、3分別表示3個(gè)獨(dú)立訓(xùn)練的網(wǎng)絡(luò),位于褐色區(qū)域的邊緣)。對(duì)這些點(diǎn)取平均值,可能得到一個(gè)寬闊的泛化解,其損失更低(上圖左側(cè)圖形中的 WSWA)。

    下面是 SWA 的工作原理。它只保存兩個(gè)模型,而不是許多模型的集成:

  • 第一個(gè)模型保存模型權(quán)值的平均值(WSWA)。在訓(xùn)練結(jié)束后,它將是用于預(yù)測(cè)的最終模型。
  • 第二個(gè)模型(W)將穿過(guò)權(quán)值空間,基于周期性學(xué)習(xí)率規(guī)劃探索權(quán)重空間。

  • SWA權(quán)重更新公式

    在每個(gè)學(xué)習(xí)率周期的末尾,第二個(gè)模型的當(dāng)前權(quán)重將用來(lái)更新第一個(gè)模型的權(quán)重(公式如上)。因此,在訓(xùn)練階段,只需訓(xùn)練一個(gè)模型,并在內(nèi)存中儲(chǔ)存兩個(gè)模型。預(yù)測(cè)時(shí)只需要平均模型,基于其進(jìn)行預(yù)測(cè)將比之前描述的集成快很多,因?yàn)樵谀欠N集成中,你需要使用多個(gè)模型進(jìn)行預(yù)測(cè),最后再進(jìn)行平均。

    方法實(shí)現(xiàn):

    論文的作者自己提供了一份 PyTorch 的實(shí)現(xiàn) :

    timgaripov/swa?github.com

    此外,基于 fast.ai 庫(kù)的 SWA 可見(jiàn) :

    Add Stochastic Weight Averaging by wdhorton · Pull Request #276 · fastai/fastai

    6.OHEM 在線難例挖掘

    OHEM(Online Hard negative Example Mining,在線難例挖掘)見(jiàn)于[5]。兩階段檢測(cè)模型中,提出的RoI Proposal在輸入R-CNN子網(wǎng)絡(luò)前,我們有機(jī)會(huì)對(duì)正負(fù)樣本(背景類(lèi)和前景類(lèi))的比例進(jìn)行調(diào)整。通常,背景類(lèi)的RoI Proposal個(gè)數(shù)要遠(yuǎn)遠(yuǎn)多于前景類(lèi),Fast R-CNN的處理方式是隨機(jī)對(duì)兩種樣本進(jìn)行上采樣和下采樣,以使每一batch的正負(fù)樣本比例保持在1:3,這一做法緩解了類(lèi)別比例不均衡的問(wèn)題,是兩階段方法相比單階段方法具有優(yōu)勢(shì)的地方,也被后來(lái)的大多數(shù)工作沿用。

    論文中把OHEM應(yīng)用在Fast R-CNN,是因?yàn)镕ast R-CNN相當(dāng)于目標(biāo)檢測(cè)各大框架的母體,很多框架都是它的變形,所以作者在Fast R-CNN上應(yīng)用很有說(shuō)明性。

    Fast R-CNN框架

    上圖是Fast R-CNN框架,簡(jiǎn)單的說(shuō),Fast R-CNN框架是將224×224的圖片當(dāng)作輸入,經(jīng)過(guò)conv,pooling等操作輸出feature map,通過(guò)selective search 創(chuàng)建2000個(gè)region proposal,將其一起輸入ROI pooling層,接上全連接層與兩個(gè)損失層。

    OHEM圖解,應(yīng)用于Fast R-CNN

    作者將OHEM應(yīng)用在Fast R-CNN的網(wǎng)絡(luò)結(jié)構(gòu),如上圖,這里包含兩個(gè)RoI network,上面一個(gè)RoI network是只讀的,為所有的RoI 在前向傳遞的時(shí)候分配空間,下面一個(gè)RoI network則同時(shí)為前向和后向分配空間。在OHEM的工作中,作者提出用R-CNN子網(wǎng)絡(luò)對(duì)RoI Proposal預(yù)測(cè)的分?jǐn)?shù)來(lái)決定每個(gè)batch選用的樣本。這樣,輸入R-CNN子網(wǎng)絡(luò)的RoI Proposal總為其表現(xiàn)不好的樣本,提高了監(jiān)督學(xué)習(xí)的效率。

    首先,RoI 經(jīng)過(guò)RoI plooling層生成feature map,然后進(jìn)入只讀的RoI network得到所有RoI 的loss;然后是hard RoI sampler結(jié)構(gòu)根據(jù)損失排序選出hard example,并把這些hard example作為下面那個(gè)RoI network的輸入。

    實(shí)際訓(xùn)練的時(shí)候,每個(gè)mini-batch包含N個(gè)圖像,共|R|個(gè)RoI ,也就是每張圖像包含|R|/N個(gè)RoI 。經(jīng)過(guò)hard RoI sampler篩選后得到B個(gè)hard example。作者在文中采用N=2,|R|=4000,B=128。 另外關(guān)于正負(fù)樣本的選擇:當(dāng)一個(gè)RoI 和一個(gè)ground truth的IoU大于0.5,則為正樣本;當(dāng)一個(gè)RoI 和所有g(shù)round truth的IoU的最大值小于0.5時(shí)為負(fù)樣本。

    總結(jié)來(lái)說(shuō),對(duì)于給定圖像,經(jīng)過(guò)selective search RoIs,同樣計(jì)算出卷積特征圖。但是在綠色部分的(a)中,一個(gè)只讀的RoI網(wǎng)絡(luò)對(duì)特征圖和所有RoI進(jìn)行前向傳播,然后Hard RoI module利用這些RoI的loss選擇B個(gè)樣本。在紅色部分(b)中,這些選擇出的樣本(hard examples)進(jìn)入RoI網(wǎng)絡(luò),進(jìn)一步進(jìn)行前向和后向傳播。

    MMDetection中,OHEM(online hard example mining):(源碼解析)

    rcnn=[dict(assigner=dict(type='MaxIoUAssigner',pos_iou_thr=0.4, # 更換neg_iou_thr=0.4,min_pos_iou=0.4,ignore_iof_thr=-1),sampler=dict(type='OHEMSampler',num=512,pos_fraction=0.25,neg_pos_ub=-1,add_gt_as_proposals=True),pos_weight=-1,debug=False),dict(assigner=dict(type='MaxIoUAssigner',pos_iou_thr=0.5,neg_iou_thr=0.5,min_pos_iou=0.5,ignore_iof_thr=-1),sampler=dict(type='OHEMSampler', # 解決難易樣本,也解決了正負(fù)樣本比例問(wèn)題。num=512,pos_fraction=0.25,neg_pos_ub=-1,add_gt_as_proposals=True),pos_weight=-1,debug=False),dict(assigner=dict(type='MaxIoUAssigner',pos_iou_thr=0.6,neg_iou_thr=0.6,min_pos_iou=0.6,ignore_iof_thr=-1),sampler=dict(type='OHEMSampler',num=512,pos_fraction=0.25,neg_pos_ub=-1,add_gt_as_proposals=True),pos_weight=-1,debug=False)],stage_loss_weights=[1, 0.5, 0.25])

    7.Soft NMS 軟化非極大抑制

    NMS后處理圖示

    NMS(Non-Maximum Suppression,非極大抑制)是檢測(cè)模型的標(biāo)準(zhǔn)后處理操作,用于去除重合度(IoU)較高的預(yù)測(cè)框,只保留預(yù)測(cè)分?jǐn)?shù)最高的預(yù)測(cè)框作為檢測(cè)輸出。Soft NMS由[6]提出。在傳統(tǒng)的NMS中,跟最高預(yù)測(cè)分?jǐn)?shù)預(yù)測(cè)框重合度超出一定閾值的預(yù)測(cè)框會(huì)被直接舍棄,作者認(rèn)為這樣不利于相鄰物體的檢測(cè)。提出的改進(jìn)方法是根據(jù)IoU將預(yù)測(cè)框的預(yù)測(cè)分?jǐn)?shù)進(jìn)行懲罰,最后再按分?jǐn)?shù)過(guò)濾。配合Deformable Convnets(將在之后的文章介紹),Soft NMS在MS COCO上取得了當(dāng)時(shí)最佳的表現(xiàn)。算法改進(jìn)如下:

    Soft-NMS算法改進(jìn)

    上圖中的即為軟化函數(shù),通常取線性或高斯函數(shù),后者效果稍好一些。當(dāng)然,在享受這一增益的同時(shí),Soft-NMS也引入了一些超參,對(duì)不同的數(shù)據(jù)集需要試探以確定最佳配置。

    解析Soft NMS論文的一個(gè)小知識(shí)點(diǎn):Improving Object Detection With One Line of Code

    可以根據(jù)論文Table3中對(duì)應(yīng)AP@(置信度閾值)的值設(shè)置iou_thr(nms的值:

    左邊一半(紅色框)是NMS,右邊一半(綠色框)是Soft NMS。在NMS部分,相同(置信度閾值)條件下(較小的情況下),基本上值越大,其AP值越小。這主要是因?yàn)橹翟酱?#xff0c;有越多的重復(fù)框沒(méi)有過(guò)濾掉。

    左邊一半(紅色框)是NMS,右邊一半(綠色框)是Soft NMS。

    MMDetection中,Soft NMS 軟化非極大抑制:(源碼解析)

    test_cfg = dict(rpn=dict(nms_across_levels=False,nms_pre=1000,nms_post=1000,max_num=1000,nms_thr=0.7,min_bbox_size=0),rcnn=dict(score_thr=0.05, nms=dict(type='nms', iou_thr=0.5), max_per_img=20)) # 這里可以換為soft_nms

    8.RoIAlign RoI對(duì)齊

    RoIAlign是Mask R-CNN([7])的工作中提出的,針對(duì)的問(wèn)題是RoI在進(jìn)行Pooling時(shí)有不同程度的取整,這影響了實(shí)例分割中mask損失的計(jì)算。文章采用雙線性插值的方法將RoI的表示精細(xì)化,并帶來(lái)了較為明顯的性能提升。這一技巧也被后來(lái)的一些工作(如light-head R-CNN)沿用。

    這一部分暫時(shí)沒(méi)有代碼解析。

    9.其他方法

    除去上面所列的技巧外,還有一些做法也值得注意:

    • 更好的先驗(yàn)(YOLOv2):使用聚類(lèi)方法統(tǒng)計(jì)數(shù)據(jù)中box標(biāo)注的大小和長(zhǎng)寬比,以更好的設(shè)置anchor box的生成配置
    • 更好的pre-train模型:檢測(cè)模型的基礎(chǔ)網(wǎng)絡(luò)通常使用ImageNet(通常是ImageNet-1k)上訓(xùn)練好的模型進(jìn)行初始化,使用更大的數(shù)據(jù)集(ImageNet-5k)預(yù)訓(xùn)練基礎(chǔ)網(wǎng)絡(luò)對(duì)精度的提升亦有幫助
    • 超參數(shù)的調(diào)整:部分工作也發(fā)現(xiàn)如NMS中IoU閾值的調(diào)整(從0.3到0.5)也有利于精度的提升,但這一方面尚無(wú)最佳配置參照

    最后,集成(Ensemble)作為通用的手段也被應(yīng)用在比賽中。

    代碼部分

    1.各部分代碼解析

    1.1 faster_rcnn_r50_fpn_1x.py:

    首先介紹一下這個(gè)配置文件所描述的框架,它是基于resnet50的backbone,有著5個(gè)fpn特征層的faster-RCNN目標(biāo)檢測(cè)網(wǎng)絡(luò),訓(xùn)練迭代次數(shù)為標(biāo)準(zhǔn)的12次epoch。

    # model settings model = dict(type='FasterRCNN', # model類(lèi)型pretrained='modelzoo://resnet50', # 預(yù)訓(xùn)練模型:imagenet-resnet50backbone=dict(type='ResNet', # backbone類(lèi)型depth=50, # 網(wǎng)絡(luò)層數(shù)num_stages=4, # resnet的stage數(shù)量out_indices=(0, 1, 2, 3), # 輸出的stage的序號(hào)frozen_stages=1, # 凍結(jié)的stage數(shù)量,即該stage不更新參數(shù),-1表示所有的stage都更新參數(shù)style='pytorch'), # 網(wǎng)絡(luò)風(fēng)格:如果設(shè)置pytorch,則stride為2的層是conv3x3的卷積層;如果設(shè)置caffe,則stride為2的層是第一個(gè)conv1x1的卷積層neck=dict(type='FPN', # neck類(lèi)型in_channels=[256, 512, 1024, 2048], # 輸入的各個(gè)stage的通道數(shù)out_channels=256, # 輸出的特征層的通道數(shù)num_outs=5), # 輸出的特征層的數(shù)量rpn_head=dict(type='RPNHead', # RPN網(wǎng)絡(luò)類(lèi)型in_channels=256, # RPN網(wǎng)絡(luò)的輸入通道數(shù)feat_channels=256, # 特征層的通道數(shù)anchor_scales=[8], # 生成的anchor的baselen,baselen = sqrt(w*h),w和h為anchor的寬和高anchor_ratios=[0.5, 1.0, 2.0], # anchor的寬高比anchor_strides=[4, 8, 16, 32, 64], # 在每個(gè)特征層上的anchor的步長(zhǎng)(對(duì)應(yīng)于原圖)target_means=[.0, .0, .0, .0], # 均值target_stds=[1.0, 1.0, 1.0, 1.0], # 方差use_sigmoid_cls=True), # 是否使用sigmoid來(lái)進(jìn)行分類(lèi),如果False則使用softmax來(lái)分類(lèi)bbox_roi_extractor=dict(type='SingleRoIExtractor', # RoIExtractor類(lèi)型roi_layer=dict(type='RoIAlign', out_size=7, sample_num=2), # ROI具體參數(shù):ROI類(lèi)型為ROIalign,輸出尺寸為7,sample數(shù)為2out_channels=256, # 輸出通道數(shù)featmap_strides=[4, 8, 16, 32]), # 特征圖的步長(zhǎng)bbox_head=dict(type='SharedFCBBoxHead', # 全連接層類(lèi)型num_fcs=2, # 全連接層數(shù)量in_channels=256, # 輸入通道數(shù)fc_out_channels=1024, # 輸出通道數(shù)roi_feat_size=7, # ROI特征層尺寸num_classes=81, # 分類(lèi)器的類(lèi)別數(shù)量+1,+1是因?yàn)槎嗔艘粋€(gè)背景的類(lèi)別target_means=[0., 0., 0., 0.], # 均值target_stds=[0.1, 0.1, 0.2, 0.2], # 方差reg_class_agnostic=False)) # 是否采用class_agnostic的方式來(lái)預(yù)測(cè),class_agnostic表示輸出bbox時(shí)只考慮其是否為前景,后續(xù)分類(lèi)的時(shí)候再根據(jù)該bbox在網(wǎng)絡(luò)中的類(lèi)別得分來(lái)分類(lèi),也就是說(shuō)一個(gè)框可以對(duì)應(yīng)多個(gè)類(lèi)別 # model training and testing settings train_cfg = dict(rpn=dict(assigner=dict(type='MaxIoUAssigner', # RPN網(wǎng)絡(luò)的正負(fù)樣本劃分pos_iou_thr=0.7, # 正樣本的iou閾值neg_iou_thr=0.3, # 負(fù)樣本的iou閾值min_pos_iou=0.3, # 正樣本的iou最小值。如果assign給ground truth的anchors中最大的IOU低于0.3,則忽略所有的anchors,否則保留最大IOU的anchorignore_iof_thr=-1), # 忽略bbox的閾值,當(dāng)ground truth中包含需要忽略的bbox時(shí)使用,-1表示不忽略sampler=dict(type='RandomSampler', # 正負(fù)樣本提取器類(lèi)型num=256, # 需提取的正負(fù)樣本數(shù)量pos_fraction=0.5, # 正樣本比例neg_pos_ub=-1, # 最大負(fù)樣本比例,大于該比例的負(fù)樣本忽略,-1表示不忽略add_gt_as_proposals=False), # 把ground truth加入proposal作為正樣本allowed_border=0, # 允許在bbox周?chē)鈹U(kuò)一定的像素pos_weight=-1, # 正樣本權(quán)重,-1表示不改變?cè)嫉臋?quán)重smoothl1_beta=1 / 9.0, # 平滑L1系數(shù)debug=False), # debug模式rcnn=dict(assigner=dict(type='MaxIoUAssigner', # RCNN網(wǎng)絡(luò)正負(fù)樣本劃分pos_iou_thr=0.5, # 正樣本的iou閾值neg_iou_thr=0.5, # 負(fù)樣本的iou閾值min_pos_iou=0.5, # 正樣本的iou最小值。如果assign給ground truth的anchors中最大的IOU低于0.3,則忽略所有的anchors,否則保留最大IOU的anchorignore_iof_thr=-1), # 忽略bbox的閾值,當(dāng)ground truth中包含需要忽略的bbox時(shí)使用,-1表示不忽略sampler=dict(type='RandomSampler', # 正負(fù)樣本提取器類(lèi)型num=512, # 需提取的正負(fù)樣本數(shù)量pos_fraction=0.25, # 正樣本比例neg_pos_ub=-1, # 最大負(fù)樣本比例,大于該比例的負(fù)樣本忽略,-1表示不忽略add_gt_as_proposals=True), # 把ground truth加入proposal作為正樣本pos_weight=-1, # 正樣本權(quán)重,-1表示不改變?cè)嫉臋?quán)重debug=False)) # debug模式 test_cfg = dict(rpn=dict( # 推斷時(shí)的RPN參數(shù)nms_across_levels=False, # 在所有的fpn層內(nèi)做nmsnms_pre=2000, # 在nms之前保留的的得分最高的proposal數(shù)量nms_post=2000, # 在nms之后保留的的得分最高的proposal數(shù)量max_num=2000, # 在后處理完成之后保留的proposal數(shù)量nms_thr=0.7, # nms閾值min_bbox_size=0), # 最小bbox尺寸rcnn=dict(score_thr=0.05, nms=dict(type='nms', iou_thr=0.5), max_per_img=100) # max_per_img表示最終輸出的det bbox數(shù)量# soft-nms is also supported for rcnn testing# e.g., nms=dict(type='soft_nms', iou_thr=0.5, min_score=0.05) # soft_nms參數(shù) ) # dataset settings dataset_type = 'CocoDataset' # 數(shù)據(jù)集類(lèi)型 data_root = 'data/coco/' # 數(shù)據(jù)集根目錄 img_norm_cfg = dict(mean=[123.675, 116.28, 103.53], std=[58.395, 57.12, 57.375], to_rgb=True) # 輸入圖像初始化,減去均值mean并處以方差std,to_rgb表示將bgr轉(zhuǎn)為rgb data = dict(imgs_per_gpu=2, # 每個(gè)gpu計(jì)算的圖像數(shù)量workers_per_gpu=2, # 每個(gè)gpu分配的線程數(shù)train=dict(type=dataset_type, # 數(shù)據(jù)集類(lèi)型ann_file=data_root + 'annotations/instances_train2017.json', # 數(shù)據(jù)集annotation路徑img_prefix=data_root + 'train2017/', # 數(shù)據(jù)集的圖片路徑img_scale=(1333, 800), # 輸入圖像尺寸,最大邊1333,最小邊800img_norm_cfg=img_norm_cfg, # 圖像初始化參數(shù)size_divisor=32, # 對(duì)圖像進(jìn)行resize時(shí)的最小單位,32表示所有的圖像都會(huì)被resize成32的倍數(shù)flip_ratio=0.5, # 圖像的隨機(jī)左右翻轉(zhuǎn)的概率with_mask=False, # 訓(xùn)練時(shí)附帶maskwith_crowd=True, # 訓(xùn)練時(shí)附帶difficult的樣本with_label=True), # 訓(xùn)練時(shí)附帶labelval=dict(type=dataset_type, # 同上ann_file=data_root + 'annotations/instances_val2017.json', # 同上img_prefix=data_root + 'val2017/', # 同上img_scale=(1333, 800), # 同上img_norm_cfg=img_norm_cfg, # 同上size_divisor=32, # 同上flip_ratio=0, # 同上with_mask=False, # 同上with_crowd=True, # 同上with_label=True), # 同上test=dict(type=dataset_type, # 同上ann_file=data_root + 'annotations/instances_val2017.json', # 同上img_prefix=data_root + 'val2017/', # 同上img_scale=(1333, 800), # 同上img_norm_cfg=img_norm_cfg, # 同上size_divisor=32, # 同上flip_ratio=0, # 同上with_mask=False, # 同上with_label=False, # 同上test_mode=True)) # 同上 # optimizer optimizer = dict(type='SGD', lr=0.02, momentum=0.9, weight_decay=0.0001) # 優(yōu)化參數(shù),lr為學(xué)習(xí)率,momentum為動(dòng)量因子,weight_decay為權(quán)重衰減因子 optimizer_config = dict(grad_clip=dict(max_norm=35, norm_type=2)) # 梯度均衡參數(shù) # learning policy lr_config = dict(policy='step', # 優(yōu)化策略warmup='linear', # 初始的學(xué)習(xí)率增加的策略,linear為線性增加warmup_iters=500, # 在初始的500次迭代中學(xué)習(xí)率逐漸增加warmup_ratio=1.0 / 3, # 起始的學(xué)習(xí)率step=[8, 11]) # 在第8和11個(gè)epoch時(shí)降低學(xué)習(xí)率 checkpoint_config = dict(interval=1) # 每1個(gè)epoch存儲(chǔ)一次模型 # yapf:disable log_config = dict(interval=50, # 每50個(gè)batch輸出一次信息hooks=[dict(type='TextLoggerHook'), # 控制臺(tái)輸出信息的風(fēng)格# dict(type='TensorboardLoggerHook')]) # yapf:enable # runtime settings total_epochs = 12 # 最大epoch數(shù) dist_params = dict(backend='nccl') # 分布式參數(shù) log_level = 'INFO' # 輸出信息的完整度級(jí)別 work_dir = './work_dirs/faster_rcnn_r50_fpn_1x' # log文件和模型文件存儲(chǔ)路徑 load_from = None # 加載模型的路徑,None表示從預(yù)訓(xùn)練模型加載 resume_from = None # 恢復(fù)訓(xùn)練模型的路徑 workflow = [('train', 1)] # 當(dāng)前工作區(qū)名稱(chēng)

    1.2 cascade_rcnn_r50_fpn_1x.py

    cascade-RCNN是cvpr2018的文章,相比于faster-RCNN的改進(jìn)主要在于其RCNN有三個(gè)stage,這三個(gè)stage逐級(jí)refine檢測(cè)的結(jié)果,使得結(jié)果達(dá)到更高的精度。下面逐條解釋其config的含義,與faster-RCNN相同的部分就不再贅述

    # model settings model = dict(type='CascadeRCNN',num_stages=3, # RCNN網(wǎng)絡(luò)的stage數(shù)量,在faster-RCNN中為1pretrained='modelzoo://resnet50',backbone=dict(type='ResNet',depth=50,num_stages=4,out_indices=(0, 1, 2, 3),frozen_stages=1,style='pytorch'),neck=dict(type='FPN',in_channels=[256, 512, 1024, 2048],out_channels=256,num_outs=5),rpn_head=dict(type='RPNHead',in_channels=256,feat_channels=256,anchor_scales=[8],anchor_ratios=[0.5, 1.0, 2.0],anchor_strides=[4, 8, 16, 32, 64],target_means=[.0, .0, .0, .0],target_stds=[1.0, 1.0, 1.0, 1.0],use_sigmoid_cls=True),bbox_roi_extractor=dict(type='SingleRoIExtractor',roi_layer=dict(type='RoIAlign', out_size=7, sample_num=2),out_channels=256,featmap_strides=[4, 8, 16, 32]),bbox_head=[dict(type='SharedFCBBoxHead',num_fcs=2,in_channels=256,fc_out_channels=1024,roi_feat_size=7,num_classes=81,target_means=[0., 0., 0., 0.],target_stds=[0.1, 0.1, 0.2, 0.2],reg_class_agnostic=True),dict(type='SharedFCBBoxHead',num_fcs=2,in_channels=256,fc_out_channels=1024,roi_feat_size=7,num_classes=81,target_means=[0., 0., 0., 0.],target_stds=[0.05, 0.05, 0.1, 0.1],reg_class_agnostic=True),dict(type='SharedFCBBoxHead',num_fcs=2,in_channels=256,fc_out_channels=1024,roi_feat_size=7,num_classes=81,target_means=[0., 0., 0., 0.],target_stds=[0.033, 0.033, 0.067, 0.067],reg_class_agnostic=True)]) # model training and testing settings train_cfg = dict(rpn=dict(assigner=dict(type='MaxIoUAssigner',pos_iou_thr=0.7,neg_iou_thr=0.3,min_pos_iou=0.3,ignore_iof_thr=-1),sampler=dict(type='RandomSampler',num=256,pos_fraction=0.5,neg_pos_ub=-1,add_gt_as_proposals=False),allowed_border=0,pos_weight=-1,smoothl1_beta=1 / 9.0,debug=False),rcnn=[ # 注意,這里有3個(gè)RCNN的模塊,對(duì)應(yīng)開(kāi)頭的那個(gè)RCNN的stage數(shù)量dict(assigner=dict(type='MaxIoUAssigner',pos_iou_thr=0.5,neg_iou_thr=0.5,min_pos_iou=0.5,ignore_iof_thr=-1),sampler=dict(type='RandomSampler',num=512,pos_fraction=0.25,neg_pos_ub=-1,add_gt_as_proposals=True),pos_weight=-1,debug=False),dict(assigner=dict(type='MaxIoUAssigner',pos_iou_thr=0.6,neg_iou_thr=0.6,min_pos_iou=0.6,ignore_iof_thr=-1),sampler=dict(type='RandomSampler',num=512,pos_fraction=0.25,neg_pos_ub=-1,add_gt_as_proposals=True),pos_weight=-1,debug=False),dict(assigner=dict(type='MaxIoUAssigner',pos_iou_thr=0.7,neg_iou_thr=0.7,min_pos_iou=0.7,ignore_iof_thr=-1),sampler=dict(type='RandomSampler',num=512,pos_fraction=0.25,neg_pos_ub=-1,add_gt_as_proposals=True),pos_weight=-1,debug=False)],stage_loss_weights=[1, 0.5, 0.25]) # 3個(gè)RCNN的stage的loss權(quán)重 test_cfg = dict(rpn=dict(nms_across_levels=False,nms_pre=2000,nms_post=2000,max_num=2000,nms_thr=0.7,min_bbox_size=0),rcnn=dict(score_thr=0.05, nms=dict(type='nms', iou_thr=0.5), max_per_img=100),keep_all_stages=False) # 是否保留所有stage的結(jié)果 # dataset settings dataset_type = 'CocoDataset' data_root = 'data/coco/' img_norm_cfg = dict(mean=[123.675, 116.28, 103.53], std=[58.395, 57.12, 57.375], to_rgb=True) data = dict(imgs_per_gpu=2,workers_per_gpu=2,train=dict(type=dataset_type,ann_file=data_root + 'annotations/instances_train2017.json',img_prefix=data_root + 'train2017/',img_scale=(1333, 800),img_norm_cfg=img_norm_cfg,size_divisor=32,flip_ratio=0.5,with_mask=False,with_crowd=True,with_label=True),val=dict(type=dataset_type,ann_file=data_root + 'annotations/instances_val2017.json',img_prefix=data_root + 'val2017/',img_scale=(1333, 800),img_norm_cfg=img_norm_cfg,size_divisor=32,flip_ratio=0,with_mask=False,with_crowd=True,with_label=True),test=dict(type=dataset_type,ann_file=data_root + 'annotations/instances_val2017.json',img_prefix=data_root + 'val2017/',img_scale=(1333, 800),img_norm_cfg=img_norm_cfg,size_divisor=32,flip_ratio=0,with_mask=False,with_label=False,test_mode=True)) # optimizer optimizer = dict(type='SGD', lr=0.02, momentum=0.9, weight_decay=0.0001) optimizer_config = dict(grad_clip=dict(max_norm=35, norm_type=2)) # learning policy lr_config = dict(policy='step',warmup='linear',warmup_iters=500,warmup_ratio=1.0 / 3,step=[8, 11]) checkpoint_config = dict(interval=1) # yapf:disable log_config = dict(interval=50,hooks=[dict(type='TextLoggerHook'),# dict(type='TensorboardLoggerHook')]) # yapf:enable # runtime settings total_epochs = 12 dist_params = dict(backend='nccl') log_level = 'INFO' work_dir = './work_dirs/cascade_rcnn_r50_fpn_1x' load_from = None resume_from = None workflow = [('train', 1)]

    2.trick部分代碼,cascade_rcnn_r50_fpn_1x.py:

    # fp16 settings fp16 = dict(loss_scale=512.) # model settings model = dict(type='CascadeRCNN',num_stages=3,pretrained='torchvision://resnet50',backbone=dict(type='ResNet',depth=50,num_stages=4,out_indices=(0, 1, 2, 3),frozen_stages=1,style='pytorch',#dcn=dict( #在最后三個(gè)block加入可變形卷積 # modulated=False, deformable_groups=1, fallback_on_stride=False),# stage_with_dcn=(False, True, True, True)),neck=dict(type='FPN',in_channels=[256, 512, 1024, 2048],out_channels=256,num_outs=5),rpn_head=dict(type='RPNHead',in_channels=256,feat_channels=256,anchor_scales=[8],anchor_ratios=[0.2, 0.5, 1.0, 2.0, 5.0], # 添加了0.2,5,過(guò)兩天發(fā)圖anchor_strides=[4, 8, 16, 32, 64],target_means=[.0, .0, .0, .0],target_stds=[1.0, 1.0, 1.0, 1.0],loss_cls=dict(type='FocalLoss', use_sigmoid=True, loss_weight=1.0), # 修改了loss,為了調(diào)控難易樣本與正負(fù)樣本比例loss_bbox=dict(type='SmoothL1Loss', beta=1.0 / 9.0, loss_weight=1.0)),bbox_roi_extractor=dict(type='SingleRoIExtractor',roi_layer=dict(type='RoIAlign', out_size=7, sample_num=2),out_channels=256,featmap_strides=[4, 8, 16, 32]),bbox_head=[dict(type='SharedFCBBoxHead',num_fcs=2,in_channels=256,fc_out_channels=1024,roi_feat_size=7,num_classes=11,target_means=[0., 0., 0., 0.],target_stds=[0.1, 0.1, 0.2, 0.2],reg_class_agnostic=True,loss_cls=dict(type='CrossEntropyLoss', use_sigmoid=False, loss_weight=1.0),loss_bbox=dict(type='SmoothL1Loss', beta=1.0, loss_weight=1.0)),dict(type='SharedFCBBoxHead',num_fcs=2,in_channels=256,fc_out_channels=1024,roi_feat_size=7,num_classes=11,target_means=[0., 0., 0., 0.],target_stds=[0.05, 0.05, 0.1, 0.1],reg_class_agnostic=True,loss_cls=dict(type='CrossEntropyLoss', use_sigmoid=False, loss_weight=1.0),loss_bbox=dict(type='SmoothL1Loss', beta=1.0, loss_weight=1.0)),dict(type='SharedFCBBoxHead',num_fcs=2,in_channels=256,fc_out_channels=1024,roi_feat_size=7,num_classes=11,target_means=[0., 0., 0., 0.],target_stds=[0.033, 0.033, 0.067, 0.067],reg_class_agnostic=True,loss_cls=dict(type='CrossEntropyLoss', use_sigmoid=False, loss_weight=1.0),loss_bbox=dict(type='SmoothL1Loss', beta=1.0, loss_weight=1.0))]) # model training and testing settings train_cfg = dict(rpn=dict(assigner=dict(type='MaxIoUAssigner',pos_iou_thr=0.7,neg_iou_thr=0.3,min_pos_iou=0.3,ignore_iof_thr=-1),sampler=dict(type='RandomSampler', num=256,pos_fraction=0.5,neg_pos_ub=-1,add_gt_as_proposals=False),allowed_border=0,pos_weight=-1,debug=False),rpn_proposal=dict(nms_across_levels=False,nms_pre=2000,nms_post=2000,max_num=2000,nms_thr=0.7,min_bbox_size=0),rcnn=[dict(assigner=dict(type='MaxIoUAssigner',pos_iou_thr=0.4, # 更換neg_iou_thr=0.4,min_pos_iou=0.4,ignore_iof_thr=-1),sampler=dict(type='OHEMSampler',num=512,pos_fraction=0.25,neg_pos_ub=-1,add_gt_as_proposals=True),pos_weight=-1,debug=False),dict(assigner=dict(type='MaxIoUAssigner',pos_iou_thr=0.5,neg_iou_thr=0.5,min_pos_iou=0.5,ignore_iof_thr=-1),sampler=dict(type='OHEMSampler', # 解決難易樣本,也解決了正負(fù)樣本比例問(wèn)題。num=512,pos_fraction=0.25,neg_pos_ub=-1,add_gt_as_proposals=True),pos_weight=-1,debug=False),dict(assigner=dict(type='MaxIoUAssigner',pos_iou_thr=0.6,neg_iou_thr=0.6,min_pos_iou=0.6,ignore_iof_thr=-1),sampler=dict(type='OHEMSampler',num=512,pos_fraction=0.25,neg_pos_ub=-1,add_gt_as_proposals=True),pos_weight=-1,debug=False)],stage_loss_weights=[1, 0.5, 0.25]) test_cfg = dict(rpn=dict(nms_across_levels=False,nms_pre=1000,nms_post=1000,max_num=1000,nms_thr=0.7,min_bbox_size=0),rcnn=dict(score_thr=0.05, nms=dict(type='nms', iou_thr=0.5), max_per_img=20)) # 這里可以換為soft_nms # dataset settings dataset_type = 'CocoDataset' data_root = '../../data/chongqing1_round1_train1_20191223/' img_norm_cfg = dict(mean=[123.675, 116.28, 103.53], std=[58.395, 57.12, 57.375], to_rgb=True) train_pipeline = [dict(type='LoadImageFromFile'),dict(type='LoadAnnotations', with_bbox=True),dict(type='Resize', img_scale=(492,658), keep_ratio=True), #這里可以更換多尺度[(),()]dict(type='RandomFlip', flip_ratio=0.5),dict(type='Normalize', **img_norm_cfg),dict(type='Pad', size_divisor=32),dict(type='DefaultFormatBundle'),dict(type='Collect', keys=['img', 'gt_bboxes', 'gt_labels']), ] test_pipeline = [dict(type='LoadImageFromFile'),dict(type='MultiScaleFlipAug',img_scale=(492,658),flip=False,transforms=[dict(type='Resize', keep_ratio=True),dict(type='RandomFlip'),dict(type='Normalize', **img_norm_cfg),dict(type='Pad', size_divisor=32),dict(type='ImageToTensor', keys=['img']),dict(type='Collect', keys=['img']),]) ] data = dict(imgs_per_gpu=8, # 有的同學(xué)不知道batchsize在哪修改,其實(shí)就是修改這里,每個(gè)gpu同時(shí)處理的images數(shù)目。workers_per_gpu=2,train=dict(type=dataset_type,ann_file=data_root + 'fixed_annotations.json', # 更換自己的json文件img_prefix=data_root + 'images/', # images目錄pipeline=train_pipeline),val=dict(type=dataset_type,ann_file=data_root + 'fixed_annotations.json',img_prefix=data_root + 'images/',pipeline=test_pipeline),test=dict(type=dataset_type,ann_file=data_root + 'fixed_annotations.json',img_prefix=data_root + 'images/',pipeline=test_pipeline)) # optimizer optimizer = dict(type='SGD', lr=0.001, momentum=0.9, weight_decay=0.0001) # lr = 0.00125*batch_size,不能過(guò)大,否則梯度爆炸。 optimizer_config = dict(grad_clip=dict(max_norm=35, norm_type=2)) # learning policy lr_config = dict(policy='step',warmup='linear',warmup_iters=500,warmup_ratio=1.0 / 3,step=[6, 12, 19]) checkpoint_config = dict(interval=1) # yapf:disable log_config = dict(interval=64,hooks=[dict(type='TextLoggerHook'), # 控制臺(tái)輸出信息的風(fēng)格# dict(type='TensorboardLoggerHook') # 需要安裝tensorflow and tensorboard才可以使用]) # yapf:enable # runtime settings total_epochs = 20 dist_params = dict(backend='nccl') log_level = 'INFO' work_dir = '../work_dirs/cascade_rcnn_r50_fpn_1x' # 日志目錄 load_from = '../work_dirs/cascade_rcnn_r50_fpn_1x/latest.pth' # 模型加載目錄文件 #load_from = '../work_dirs/cascade_rcnn_r50_fpn_1x/cascade_rcnn_r50_coco_pretrained_weights_classes_11.pth' resume_from = None workflow = [('train', 1)]

    Reference

    • [1]:

    Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition

    • [2]:

    Object Detection Networks on Convolutional Feature Maps

    • [3]:

    Deep Residual Learning for Image Classification

    • [4]:

    Object Detection via a Multi-region & Semantic Segmentatio-aware CNN Model

    • [5]:

    Training Region-based Object Detectors with Online Hard Example Mining

    • [6]:

    Improving Object Detection With One Line of Code

    • [7]:

    Mask R-CNN


    作者:初識(shí)CV@知乎


    推薦閱讀:
    PyTorch trick 集錦
    目標(biāo)檢測(cè) | 讓 YOLOv2 告訴你 Trick 的力量
    有關(guān)語(yǔ)義分割的奇技淫巧有哪些:分享一些實(shí)用的純工程 tricks

    總結(jié)

    以上是生活随笔為你收集整理的目标检测比赛中的 trick的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

    如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

    黄色视屏在线免费观看 | 国产在线观看午夜 | 国产精品永久免费观看 | 亚洲在线视频免费 | 日本久久久久 | 免费涩涩网站 | 色中色亚洲 | 91在线观 | 中文字幕观看视频 | 日韩精品五月天 | 欧美a级成人淫片免费看 | 欧美综合干 | 国产在线视频一区二区三区 | 国产高h视频 | 日韩欧美高清视频在线观看 | 99久久精品国产网站 | 日韩欧美精品一区 | 91精品久久久久久综合乱菊 | 久热色超碰| 成人va天堂 | 免费看一级黄色 | 久久精品国产一区二区电影 | 亚洲禁18久人片 | 日韩久久精品一区二区三区 | 国产精品毛片久久 | 99久久这里有精品 | 亚洲视频分类 | 男女精品久久 | 久久国产美女视频 | 久久精品99视频 | 蜜臀av夜夜澡人人爽人人桃色 | 97视频入口免费观看 | 天天夜夜狠狠操 | 免费av在线网站 | 日日爽夜夜操 | 五月天六月丁香 | 婷婷丁香视频 | 欧美另类老妇 | 中文在线8资源库 | 天天操天天射天天爽 | 特级西西444www高清大视频 | av中文字幕在线看 | 日韩av高潮 | 国产成人精品一区二区三区网站观看 | 日韩有码专区 | 国产裸体视频bbbbb | 免费在线成人 | 亚洲专区视频在线观看 | 丁香五月缴情综合网 | 五月开心激情网 | 日韩在线在线 | 色婷婷播放 | av网址aaa | 91天天视频| 精品一二三区视频 | 天天综合日日夜夜 | 18做爰免费视频网站 | 777久久久 | 一区二区精品在线 | 少妇bbbb搡bbbb桶 | 麻豆av电影 | 91视频免费视频 | 亚洲精品午夜久久久久久久久久久 | 成年人在线观看网站 | 永久免费的av电影 | 丁香婷婷久久 | 九九九热 | 成人啊 v | 亚洲综合色视频 | 午夜视频在线观看一区二区三区 | 一区二区视频在线免费观看 | 久久色网站 | 国产黄色看片 | 麻豆视频免费入口 | 国产福利资源 | 肉色欧美久久久久久久免费看 | 欧美精品一区二区三区四区在线 | 亚洲毛片在线观看. | 六月丁香婷婷久久 | 精品一区二区在线免费观看 | 婷婷婷国产在线视频 | 国产尤物视频在线 | 日韩成人不卡 | 日本91在线 | 日韩sese| 亚洲电影一区二区 | av在线播放快速免费阴 | 国产一区二区午夜 | 亚洲激情中文 | 人人爱人人做人人爽 | 久久夜靖品 | 激情综合一区 | 成片人卡1卡2卡3手机免费看 | 久久精品欧美一区二区三区麻豆 | 精品久久综合 | 亚洲精品玖玖玖av在线看 | 天天看天天干天天操 | 国产视频69 | 亚洲欧美国产精品18p | av在线电影网站 | 亚洲国产精品电影 | 日韩欧美视频免费看 | 欧美一区二区三区不卡 | 久草精品视频 | 亚洲精品成人 | 日日操天天爽 | 97自拍超碰 | 国产亚洲欧美在线视频 | 狠狠干网 | 69国产精品成人在线播放 | 日韩在线观看第一页 | 精品国产伦一区二区三区 | 最新动作电影 | 久久午夜电影 | 欧美最猛性xxxxx亚洲精品 | 国产高清在线视频 | 日韩高清精品免费观看 | 精品福利在线 | 午夜影院一级 | 欧美专区日韩专区 | 日本韩国精品在线 | 在线观看一区 | av大片网址 | 久久婷婷精品 | 波多野结衣视频一区 | 久久99亚洲网美利坚合众国 | 国产在线精品区 | 中文字幕在线看视频 | 中国一级特黄毛片大片久久 | 国产丝袜美腿在线 | 免费福利片2019潦草影视午夜 | 国产精品久久久久久电影 | 99爱视频| 黄色国产在线观看 | 人人看黄色 | 狠狠躁夜夜av | 国产午夜免费视频 | 亚洲一区二区精品视频 | 欧美精品中文字幕亚洲专区 | 五月天婷婷在线播放 | 免费a级黄色毛片 | 91最新中文字幕 | 欧美久久久一区二区三区 | 又湿又紧又大又爽a视频国产 | 麻豆国产网站 | www.天天色.com | 国产精品影音先锋 | 韩日在线一区 | 精品一区免费 | 久久99免费 | 一区二区三区免费在线播放 | 国产精品久久久久一区二区三区 | 国产又粗又猛又爽又黄的视频先 | 91精品久久久久久综合乱菊 | 黄色a在线 | 久久男人视频 | 亚洲视频电影在线 | 91激情视频在线 | 国产成人久 | 免费看国产曰批40分钟 | 香蕉视频在线免费 | 手机av永久免费 | 91视频在线看 | 久久视频在线免费观看 | 中文字幕在线观看视频一区二区三区 | 亚洲永久精品视频 | 国产破处在线播放 | 国产在线不卡 | a视频在线| 国产一区二区在线播放 | 国产精国产精品 | 91精品在线播放 | 日韩在线精品 | 中文字幕视频三区 | 亚洲欧美国产精品18p | 精品免费99久久 | 久久成人在线 | 国产精品日韩在线 | 日韩三级视频在线观看 | 精品欧美一区二区三区久久久 | 91成人午夜 | 91在线免费看片 | 中文字幕在线有码 | 不卡av电影在线观看 | 99热.com| 网站在线观看日韩 | 亚洲精品国产精品国自 | 国产精品久久99精品毛片三a | 日韩久久久久久久久久 | 精品久久久久久久久久岛国gif | 中文字幕视频网站 | www..com毛片| 久久成人黄色 | 国产裸体视频网站 | 一区二区电影在线观看 | 三级小视频在线观看 | 精品a在线 | 日韩视频免费播放 | 国产精品一区在线 | 九九久久影院 | 视频 天天草 | 高清av中文字幕 | 亚洲国产精品电影在线观看 | 在线亚洲小视频 | 91在线中文 | 超碰99在线| 黄色特级一级片 | 在线视频第一页 | 三上悠亚一区二区在线观看 | av免费片 | 最新日韩中文字幕 | 亚洲精品www久久久久久 | 在线免费观看黄色 | 国产高清视频免费 | 成人免费在线网 | 免费网站黄 | av资源免费看 | 91九色视频在线观看 | 日本99精品 | 2019精品手机国产品在线 | 亚洲国产中文在线 | 成年一级片 | 超碰av在线 | 成人国产精品 | 日韩二区在线 | 久久精品999 | 欧美极度另类性三渗透 | 久久色在线观看 | 欧美午夜视频在线 | 天天曰视频 | 日韩av资源在线观看 | 色综合久久99 | 免费视频久久久久 | 色婷婷久久久综合中文字幕 | 一级c片 | 久久综合在线 | 激情久久综合 | 久久久久久久久久久久久久电影 | 91久久精品一区二区三区 | 高清一区二区三区 | 久久这里只有精品首页 | 国产 日韩 欧美 在线 | 中日韩三级视频 | 人人爱爱人人 | 欧美日韩后 | 日韩伦理片一区二区三区 | 久久久久免费电影 | 国产福利免费在线观看 | 国产成人精品日本亚洲999 | 国产精品福利久久久 | 欧美性一级观看 | 一级一片免费看 | 91自拍视频在线观看 | 亚洲视频,欧洲视频 | 在线观看亚洲免费视频 | 国产福利一区二区三区在线观看 | 亚洲精品中文在线观看 | 午夜av激情 | 久久久久久久久精 | 91x色 | 免费看污的网站 | 国产探花 | 久久精品99国产精品酒店日本 | av成人在线看| 中文字幕在线播放视频 | 国产高清在线a视频大全 | 国产精品网址在线观看 | 久久天天躁狠狠躁夜夜不卡公司 | 久久免费公开视频 | 91久久精品一区二区三区 | 精品999 | 中文在线最新版天堂 | 国产69精品久久久久99尤 | 天天草天天干 | 精品免费视频123区 午夜久久成人 | 韩日电影在线免费看 | 中文免费在线观看 | 亚洲视频中文 | 日韩av在线免费看 | 国产日韩中文字幕 | 国产精品国产三级国产不产一地 | 久久在现视频 | 国产成人免费 | 国产精品久久一卡二卡 | 五月婷av | 国产一级久久 | 激情www | 999ZYZ玖玖资源站永久 | 99视| www好男人 | 成人久久精品视频 | 五月婷婷国产 | 在线激情网 | 中文字幕观看视频 | www国产亚洲精品久久网站 | 国产精品久久久久三级 | 免费视频三区 | 丁香五月网久久综合 | 精品视频在线看 | 午夜av一区二区三区 | 日韩精品在线一区 | 天天综合亚洲 | 国产精品 中文在线 | 国产国语在线 | 欧产日产国产69 | 99在线观看免费视频精品观看 | 2020天天干夜夜爽 | 91精品国自产在线偷拍蜜桃 | 中文字幕在线免费看线人 | 91完整版在线观看 | 欧美a级一区二区 | 夜夜高潮夜夜爽国产伦精品 | 国产色区| 91精品在线免费观看 | 国产一区二区在线视频观看 | 久久99精品久久久久久秒播蜜臀 | 96精品高清视频在线观看软件特色 | 久久久久北条麻妃免费看 | 国产精品美女久久久久久久 | 久久国产精品精品国产色婷婷 | 国产精品黄色影片导航在线观看 | 亚洲精品字幕在线观看 | 国产精品福利无圣光在线一区 | 国产精品久久久久三级 | 免费观看视频黄 | 久草视频在线免费 | 国产精品18久久久久久久久久久久 | 91在线日韩 | 免费观看91视频大全 | 麻豆视频在线观看免费 | av千婊在线免费观看 | 亚洲一区视频在线播放 | 日日夜夜添 | 狠狠精品 | 久久免费视频99 | av看片网 | 亚洲精品国产精品国自产在线 | www.狠狠操.com | 99在线看 | 久草在线综合 | 精品国产自在精品国产精野外直播 | 国产精品露脸在线 | 九九爱免费视频在线观看 | 国产成人久久av | 久久se视频 | 色视频在线免费观看 | 99热在线国产 | 日韩久久在线 | 免费看的av片 | 国产精品一区二区三区在线播放 | 亚洲精品久久久久久中文传媒 | 综合久久影院 | 久久免费99精品久久久久久 | 夜夜躁狠狠躁日日躁 | 免费在线播放av电影 | 日韩在线观看第一页 | 免费看特级毛片 | 久久一视频 | 黄色电影网站在线观看 | 欧美日韩国产综合一区二区 | 久久电影网站中文字幕 | 国产视频亚洲 | 国产91精品看黄网站 | 视色网站| 国产香蕉视频在线观看 | 天天做日日爱夜夜爽 | 在线观看国产www | 人人干狠狠操 | 国产白浆视频 | 丁香六月婷婷综合 | 久久69精品久久久久久久电影好 | 国内精品视频一区二区三区八戒 | 国产 日韩 欧美 中文 在线播放 | 在线观看麻豆av | 国产网红在线 | 91精品视频免费在线观看 | 久久久久久久久免费 | 国产精品美女视频网站 | 久久九精品| 国产剧情一区在线 | 91在线免费播放 | 91激情视频在线播放 | 丁香导航 | 国产精品综合在线观看 | 久久精品日产第一区二区三区乱码 | 成人a在线观看 | 日韩a级黄色 | 国产精品午夜8888 | wwwwww黄 | 久久艹人人| 亚洲精品在线观看视频 | 国产97免费 | 亚洲精品免费在线视频 | 国产黄色免费观看 | 国产视频二区三区 | 99久高清在线观看视频99精品热在线观看视频 | 一级免费av | 深夜免费网站 | 激情丁香婷婷 | 久草视频免费看 | 国产91精品高清一区二区三区 | 色小说在线| 亚洲精品久久久久中文字幕m男 | 久久久精品国产免费观看同学 | 超碰免费久久 | 国产日韩精品一区二区三区 | 操操操日日 | 三级黄色a | 国产高清专区 | 网站在线观看日韩 | 在线观看韩日电影免费 | 99精品国产一区二区三区不卡 | 亚洲影院国产 | 久久免费片| 91视频啊啊啊 | 欧美日韩视频在线观看一区二区 | 91九色蝌蚪视频网站 | 国产成人久久77777精品 | 亚洲精品视频www | 在线亚洲天堂网 | 国产精品久久久久久吹潮天美传媒 | 亚洲成a人片77777kkkk1在线观看 | 国产精品入口66mio女同 | 精品久久五月天 | 亚洲电影第一页av | 最新av网址在线 | 99久久精品国产免费看不卡 | 丁香网五月天 | 国产在线播放一区二区三区 | 久久伦理影院 | 国产人成一区二区三区影院 | 精品国产乱码一区二区三区在线 | 91视视频在线直接观看在线看网页在线看 | 亚洲精色 | 天天色.com| 久久成人国产精品一区二区 | 人人揉人人揉人人揉人人揉97 | 欧美一级黄色视屏 | 91九色在线播放 | 99电影456麻豆 | 国产精品免费观看国产网曝瓜 | av在线h| 中文在线免费看视频 | 国产高清在线看 | 国产99久久九九精品免费 | 99精品国产一区二区三区不卡 | 热久久免费国产视频 | 亚洲精品乱码白浆高清久久久久久 | 日韩黄视频 | 成人在线免费观看视视频 | 久久精品com| 日韩免费av在线 | 很污的网站 | 91探花视频 | 日日夜夜干 | 九九热久久免费视频 | 欧美精品在线观看免费 | 日本爱爱免费视频 | 国产视频在线免费观看 | 色综合久久精品 | mm1313亚洲精品国产 | 国产成人一区二区三区影院在线 | 久久精品a | 97超碰免费 | 成人网页在线免费观看 | 91亚洲精品久久久蜜桃网站 | 97精品视频在线播放 | 日韩高清久久 | 精品国产综合区久久久久久 | 午夜精品久久久99热福利 | 精品在线一区二区三区 | 91福利小视频 | 久久久96| 911国产在线观看 | 国产福利精品视频 | 国产不卡免费av | 国产成人久久精品77777 | 97国产大学生情侣白嫩酒店 | 欧美一级日韩免费不卡 | 久久手机看片 | 久久艹艹| 91精品久久久久久 | 美女免费视频一区二区 | 亚洲精品99久久久久中文字幕 | 96av视频 | 九九色在线观看 | 日韩有码欧美 | 中文字幕在线观看视频一区二区三区 | 丁香激情婷婷 | 国产一区二区不卡视频 | 99久久精品午夜一区二区小说 | 在线视频日韩一区 | 欧美激情片在线观看 | 丁香婷婷激情国产高清秒播 | 精品999在线观看 | 欧美一区二区三区在线看 | 免费看黄色大全 | 色综合久久88色综合天天人守婷 | 超碰人人射 | 日本巨乳在线 | 国产视频导航 | 欧美精品一区在线发布 | 青青草华人在线视频 | 国产精品久久久久久一区二区 | 精品一区免费 | 成人黄色小视频 | 久久精品亚洲国产 | 精品亚洲在线 | 五月宗合网 | 精品一区二区亚洲 | 国产视频精品免费播放 | 综合五月 | 久久国产精品一区二区三区 | 99爱精品在线 | 国产精品久99 | 丁香伊人网 | 久久精品亚洲一区二区三区观看模式 | 欧美热久久 | 在线亚洲小视频 | 在线a亚洲视频播放在线观看 | 日韩免费不卡视频 | 九九精品久久久 | 久久爱资源网 | 天天操狠狠操夜夜操 | 中文字幕影视 | 亚洲色图 校园春色 | 一区二区影院 | 久久久免费视频播放 | 日韩理论 | 91在线看视频免费 | 麻豆成人精品 | 最近中文字幕免费大全 | 日韩v欧美v日本v亚洲v国产v | 激情综合网五月 | 精品自拍av | 日韩在线播放av | 日韩在线视频线视频免费网站 | 懂色av一区二区在线播放 | 久久a v电影 | 999久久国产 | 亚洲少妇天堂 | 色综合夜色一区 | 成人av一区二区兰花在线播放 | 九色91av| 国产精品网站 | 久久五月婷婷丁香社区 | 色偷偷网站视频 | 亚洲成a人片在线观看网站口工 | www.少妇| 亚洲精品日韩av | 亚洲精品乱码久久久久久蜜桃欧美 | 成人黄色av免费在线观看 | 国产精品久久久久久超碰 | 久久久黄色av | 久草在线这里只有精品 | 免费观看久久久 | 中文字幕一区二区在线播放 | 国产亚洲精品无 | 911国产在线观看 | 天天干天天在线 | 国产麻豆成人传媒免费观看 | 欧美日韩二三区 | 亚洲精品ww | 久久夜色网 | 91资源在线观看 | 欧美日韩一区二区在线观看 | 国产原创中文在线 | 免费观看一区 | 韩日精品中文字幕 | 久精品一区 | 91自拍视频在线 | 97超碰人人澡人人 | 国产 中文 日韩 欧美 | 黄免费网站| 亚洲va韩国va欧美va精四季 | 久久久免费观看完整版 | 亚洲精品美女久久久久网站 | 欧洲精品久久久久毛片完整版 | 日韩欧美一区二区三区视频 | 色精品视频 | 国产又粗又猛又爽 | av电影免费 | 国产在线观看你懂得 | 亚洲人视频在线 | 国产精品久久久久久久久费观看 | 亚洲va欧美va人人爽春色影视 | 91中文字幕| 人人射人人澡 | 国产91成人在在线播放 | 久久精品久久99 | 久久国精品| 在线观看免费福利 | 91人人爽久久涩噜噜噜 | 在线播放第一页 | 免费观看的av网站 | 久久久精品视频成人 | 国产精品99久久久久久久久 | 欧美午夜理伦三级在线观看 | 99免费在线观看 | 国产区在线看 | 色网站在线免费观看 | 久久综合九色欧美综合狠狠 | 日韩久久精品一区二区 | 亚洲成人av电影在线 | 国产无套精品久久久久久 | 91精品国产福利在线观看 | 亚洲美女精品 | 97夜夜澡人人双人人人喊 | 国产精品国产三级国产专区53 | 激情视频免费观看 | 免费观看一级特黄欧美大片 | 色a在线观看 | 日韩视频一区二区三区在线播放免费观看 | 中文字幕在线播放一区 | 免费福利片2019潦草影视午夜 | 国产成人一区二区三区免费看 | 亚洲免费在线观看视频 | 国产亚洲高清视频 | 国产69久久| 国产一区二区免费在线观看 | 色婷婷狠狠五月综合天色拍 | 婷婷色网视频在线播放 | 日韩 | 欧美a级一区二区 | 国产高清av在线播放 | 在线黄色国产 | 国产精品免费小视频 | 欧美日韩在线观看不卡 | 国产精品久久久久毛片大屁完整版 | 免费精品国产va自在自线 | 久久免费在线观看 | 91成人在线视频观看 | 韩国三级在线一区 | 三级大片网站 | 国产高清在线精品 | 久久久久免费精品 | 97超碰中文 | 深夜免费网站 | 婷婷色在线资源 | 日韩免费av网址 | 欧美xxxx性xxxxx高清 | 国产中文字幕在线播放 | 日韩欧美在线一区二区 | 99 久久久久 | 婷婷色中文 | 天天射网站 | 麻豆传媒视频在线 | 美女视频黄免费的久久 | 一级a毛片高清视频 | aⅴ视频在线 | 九九99| 色亚洲激情 | av中文字幕网 | 精品久久久久国产 | 欧美另类交人妖 | 国产在线成人 | 久草在线91 | 久久久国产99久久国产一 | 深夜国产福利 | 成人av资源网站 | 综合天堂av久久久久久久 | 天天射,天天干 | av888.com| 天天操天天射天天爱 | 99久久久国产精品免费观看 | 国产美女视频免费观看的网站 | 国产精品videoxxxx | 国产亚洲va综合人人澡精品 | 99久久视频| 亚州国产视频 | 人人看人人做人人澡 | 日本久久片| 亚洲黄色免费网站 | 久久精品一区二区国产 | 久久久久久久久久久网站 | 国产精品久久久久久久99 | 亚洲专区中文字幕 | 高清av免费一区中文字幕 | 免费看黄电影 | 国产午夜一级毛片 | 欧美日韩一级在线 | 国产精品久久久久久电影 | 天天射天天操天天色 | 国产 日韩 在线 亚洲 字幕 中文 | 国偷自产中文字幕亚洲手机在线 | 天天天干夜夜夜操 | 免费在线激情电影 | 丝袜少妇在线 | 久久99最新地址 | 黄影院| 五月婷婷视频在线 | 天天综合精品 | 97色狠狠 | 日韩在线国产精品 | 国产亚洲情侣一区二区无 | 国产最新在线观看 | 亚洲在线视频网站 | 夜夜夜夜夜夜操 | 国产九九精品 | 91av在线视频免费观看 | 免费看的国产视频网站 | 久久久久亚洲精品 | 丁香婷婷综合激情 | 久久人人爽人人人人片 | 国产成人久久精品亚洲 | 91在线播放视频 | 午夜视频99 | 久久国内精品 | 精品久久国产精品 | 欧美性性网 | 99精品视频免费看 | 丁香伊人网 | 亚洲激情六月 | 国产欧美日韩精品一区二区免费 | 欧美91片| 欧美一级片在线 | 亚洲国产精品日韩 | www.午夜 | 又黄又爽又刺激 | 97电影院在线观看 | 九九久久影院 | 天天躁日日躁狠狠躁av麻豆 | 中文字幕乱码亚洲精品一区 | 99久在线精品99re8热视频 | 欧美一进一出抽搐大尺度视频 | 精品久久久久久久久久 | 亚洲电影一级黄 | 欧美激情片在线观看 | 成人国产电影在线观看 | 99久久久国产精品免费观看 | 性色av一区二区三区在线观看 | 国产a网站 | 天天草天天干天天射 | 欧美激情精品久久久久久 | 99亚洲国产| 一区二区三区精品在线 | 亚洲高清免费在线 | 91亚州 | 日韩18p| 免费福利在线视频 | 九草视频在线 | 欧美日韩三区二区 | 免费av网址大全 | 天天色天天骑天天射 | 精品久久久久亚洲 | 国产aa免费视频 | 欧美另类网站 | 伊人中文字幕在线 | 欧美va在线观看 | 国产中文字幕免费 | 亚洲国产三级在线观看 | 国产精品嫩草在线 | www.夜夜干.com| 国产精品美女久久久久久 | 新版资源中文在线观看 | 欧美日在线观看 | 五月综合色 | 又色又爽的网站 | 97在线观| 久草视频播放 | 国产免费xvideos视频入口 | 久久99热精品 | 午夜 久久 tv | 国产精品99久久久久的智能播放 | 在线日本v二区不卡 | 日韩高清av| 国产精品免费久久久久久久久久中文 | av资源免费在线观看 | 久久久久激情视频 | 国产精品永久在线 | 91大神电影 | 九九在线国产视频 | 中文在线免费看视频 | 99一级片 | 国产精成人品免费观看 | 国产精品一区二区av | 99久久日韩精品视频免费在线观看 | 在线观看av片 | 91精品啪在线观看国产81旧版 | 五月婷婷六月丁香 | 亚洲免费婷婷 | 国产精品一区久久久久 | 国产 日韩 在线 亚洲 字幕 中文 | 日韩综合一区二区三区 | 久热电影 | 国产a级片免费观看 | 超碰在线日本 | 伊人色综合久久天天 | 日韩精品免费一线在线观看 | 92国产精品久久久久首页 | 亚洲精品tv久久久久久久久久 | 色婷婷国产精品一区在线观看 | 国产一级免费播放 | 亚洲精品成人av在线 | 一级片视频免费观看 | 蜜臀av网址 | 超碰97在线资源 | 久久成人欧美 | 亚洲国产三级 | 国产精品色| 久久96国产精品久久99漫画 | 色国产精品一区在线观看 | 91人人爱 | 少妇视频在线播放 | 99视频国产精品免费观看 | 91精品专区 | 国产色视频 | www视频在线观看 | 国产精品69av | 日韩高清黄色 | 激情视频91 | 亚洲一级特黄 | 婷婷激情综合网 | 久久免费视频一区 | 欧美激情va永久在线播放 | 综合网欧美 | 夜夜视频资源 | 国产毛片久久 | 91黄色影视 | 国产精品久久久久久久久久久久午夜片 | 黄色一级免费 | 91精品视屏 | 亚洲精品在线观看中文字幕 | 99在线高清视频在线播放 | 日韩精品一区二区三区在线视频 | 日本精品一二区 | 在线免费观看成人 | 久久综合色播五月 | 欧美男同视频网站 | 在线看国产一区 | 国产精品久久久久毛片大屁完整版 | 中文字幕免费高 | 国产又粗又猛又黄 | 成人一区二区在线观看 | 麻豆免费观看视频 | 欧美 日韩 国产 中文字幕 | 在线网址你懂得 | 婷婷中文字幕在线观看 | 亚洲黄色小说网 | 精品一区91 | 五月天综合色激情 | 亚洲动漫在线观看 | 久久99久国产精品黄毛片入口 | 日韩系列在线观看 | 中文字幕二区 | 日韩视频免费看 | 九九免费在线看完整版 | 日韩xxxxxxxxx | 日韩免 | 精品国产一区二区三区久久 | 99精品免费网 | 精品9999 | 亚洲精品中文在线资源 | 精品国产一区二区三区四区vr | 高清久久久久久 | 亚洲一区二区三区四区在线视频 | 亚洲电影一级黄 | 午夜久久| 丁香六月婷婷开心 | 亚洲一本视频 | 99热这里只有精品8 久久综合毛片 | 国产精品99久久久精品 | 亚洲国产欧美在线看片xxoo | 狠狠干狠狠插 | 麻花豆传媒mv在线观看网站 | 九色视频自拍 | 亚洲精品成人av在线 | 色就色,综合激情 | 99免费在线视频 | 中文字幕在线观看av | 午夜精品久久久久久久久久 | 亚州国产精品视频 | 亚洲我射av | 亚洲劲爆av| 嫩草av影院| 99精品视频在线免费观看 | 日韩激情视频在线观看 | 天天色天天上天天操 | 伊人婷婷色 | 夜色资源站国产www在线视频 | 天天碰天天操视频 | 美女啪啪图片 | 国内外成人免费在线视频 | 免费久久网站 | 亚洲国产午夜 | 黄色日本免费 | 1024手机看片国产 | av免费成人 | 亚洲欧美日本一区二区三区 | 在线播放第一页 | 狠狠干天天色 | 久久香蕉国产精品麻豆粉嫩av | 亚洲国产综合在线 | 久久网站最新地址 | 五月天综合网站 | 国产亚洲精品综合一区91 | www麻豆视频| 成人看片 | 国产一级在线视频 | 久久久久中文 | 日韩欧美视频 | 麻豆精品传媒视频 | 国产九九精品 | 亚洲精品国产日韩 | 亚洲婷婷伊人 | 成年人免费在线观看 | 成年人免费看片 | 麻豆视频免费在线 | 99久久婷婷国产精品综合 | 精品视频中文字幕 | 国产字幕在线观看 | 欧美激情精品久久久久久免费印度 | 久草在线观看资源 | 亚洲传媒在线 | 成人h动漫精品一区二 | 国产日产欧美在线观看 | 91av免费观看 | av中文字幕免费在线观看 | 亚洲国产成人精品在线 | 射射色| 久草精品资源 | 91理论电影 | av不卡在线看 | 午夜黄色一级片 | 成人黄色在线 | 91精品久久久久久久久久入口 | 深夜免费福利在线 | 免费精品在线视频 | 久久国产一区二区三区 | 96国产精品视频 | 亚洲精品五月 | 二区在线播放 | 麻豆精品在线视频 | 天天射天天射天天射 | 97视频在线免费观看 | 黄色大片中国 | 亚洲精品毛片一级91精品 | 国产精品麻豆三级一区视频 | 夜夜操天天 | 久久成人午夜 | 成人四虎影院 | 国产精品久久在线观看 | 在线观看中文字幕2021 | 综合精品久久 | 久草影视在线观看 | 国产手机在线观看 | aaa毛片视频 | 免费亚洲片| 日韩在线高清 | 国产精品久久毛片 | 亚洲婷婷免费 | 天天操天天射天天舔 | 久久精品日韩 | 国产午夜精品一区二区三区在线观看 | 青青河边草观看完整版高清 | 久久免费看a级毛毛片 | 97精品伊人 | 亚洲网站在线 | 天天人人 | 久久久精品国产一区二区三区 | 蜜桃视频日韩 | 国产精品国内免费一区二区三区 | 手机在线永久免费观看av片 | 国产成人一区二区三区电影 | 女人18毛片a级毛片一区二区 | 久久国内精品99久久6app | 国产第一页精品 | www.夜夜骑.com | 日本中文乱码卡一卡二新区 | 久热免费在线观看 | а天堂中文最新一区二区三区 | 精品99视频 | 超碰在线98 | 黄色一级在线视频 | 看v片 | 人人爽人人射 | 麻豆视频大全 | 亚洲综合成人av | 97中文字幕 | 在线免费视频一区 | 久久国产免费视频 | 不卡的av电影 | 人人爽人人舔 | 99国产精品久久久久老师 | 久久久久久久久久久网站 | 97色在线观看 | 99久久9 | 久久国产手机看片 | 日韩欧美在线视频一区二区 | 黄网站色成年免费观看 | 一级黄色在线视频 | 国产69精品久久99的直播节目 | 日韩久久久 | 中文字幕乱码在线播放 | 最新日韩在线 | 在线午夜 | 国产精品第一页在线观看 | 在线观看精品视频 |