日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

配置HRFormer:High-Resolution Transformer for Dense Prediction条件

發布時間:2023/12/18 编程问答 52 豆豆
生活随笔 收集整理的這篇文章主要介紹了 配置HRFormer:High-Resolution Transformer for Dense Prediction条件 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

首先出現KEYERROR:"TopDown:HRT is not in the models registry"

之后開啟了我的找錯誤之旅

1、重新建立環境

pytorch==1.7.1??? cuda=10.1

1)mmpose的建立

??????? pip install mmpose==0.25.1

2)mmcv-full

pip install openmim mim install mmcv-full==1.3.8

3)出現KEYERROR:"TopDown:HRT is not in the models registry"錯誤

報錯原因

某些當前代碼使用的方法沒有注冊到現有的包中, 導致在import的時候無法導入該方法。

解決方法

在該工程的根目錄下:

  • 找到requirements.txt或者相關安裝依賴環境的txt文件,重復安裝一邊;
  • 將該包中的所有方法重新安裝即可.

首先創建環境

pip install -r requirements.txt

其次

pip install -v -e .

如果移植自己的環境,仍然需要重新安裝一遍以上環境。可以不安裝requirements.txt這個環境。

關鍵代碼解析:

# -------------------------------------------------------- # High Resolution Transformer # Copyright (c) 2021 Microsoft # Licensed under The MIT License [see LICENSE for details] # Written by Rao Fu, RainbowSecret # --------------------------------------------------------import os import math import logging import torch import torch.nn as nn from functools import partialfrom mmcv.cnn import build_conv_layer, build_norm_layerBN_MOMENTUM = 0.1# -------------------------------------------------------- # Copyright (c) 2021 Microsoft # Licensed under The MIT License [see LICENSE for details] # Modified by Lang Huang, RainbowSecret from: # https://github.com/openseg-group/openseg.pytorch/blob/master/lib/models/modules/isa_block.py # --------------------------------------------------------import os import pdb import math import torch import torch.nn as nn# -------------------------------------------------------- # Copyright (c) 2021 Microsoft # Licensed under The MIT License [see LICENSE for details] # Modified by Lang Huang, RainbowSecret from: # https://github.com/openseg-group/openseg.pytorch/blob/master/lib/models/modules/isa_block.py # --------------------------------------------------------import copy import math import warnings import torch from torch import nn, Tensor from torch.nn import functional as F from torch._jit_internal import Optional, Tuple from torch.overrides import has_torch_function, handle_torch_function from torch.nn.functional import linear, pad, softmax, dropoutfrom einops import rearrange from timm.models.layers import to_2tuple, trunc_normal_# -------------------------------------------------------- # Copyright (c) 2021 Microsoft # Licensed under The MIT License [see LICENSE for details] # Modified by RainbowSecret from: # https://github.com/pytorch/pytorch/blob/master/torch/nn/modules/activation.py#L852 # --------------------------------------------------------import copy import math import warnings import torch import torch.nn.functional as F from torch import nn, Tensor from torch.nn.modules.module import Module from torch._jit_internal import Optional, Tuple from torch.overrides import has_torch_function, handle_torch_function from torch.nn.functional import linear, pad, softmax, dropoutclass MultiheadAttention(Module):bias_k: Optional[torch.Tensor]bias_v: Optional[torch.Tensor]def __init__(self,embed_dim,num_heads,dropout=0.0,bias=True,add_bias_kv=False,add_zero_attn=False,kdim=None,vdim=None,):super(MultiheadAttention, self).__init__()self.embed_dim = embed_dimself.kdim = kdim if kdim is not None else embed_dimself.vdim = vdim if vdim is not None else embed_dimself._qkv_same_embed_dim = self.kdim == embed_dim and self.vdim == embed_dimself.num_heads = num_headsself.dropout = dropoutself.head_dim = embed_dim // num_headsassert (self.head_dim * num_heads == self.embed_dim), "embed_dim must be divisible by num_heads"self.k_proj = nn.Linear(self.kdim, embed_dim, bias=bias)self.v_proj = nn.Linear(self.vdim, embed_dim, bias=bias)self.q_proj = nn.Linear(embed_dim, embed_dim, bias=bias)self.out_proj = nn.Linear(embed_dim, embed_dim)self.in_proj_bias = Noneself.in_proj_weight = Noneself.bias_k = self.bias_v = Noneself.q_proj_weight = Noneself.k_proj_weight = Noneself.v_proj_weight = Noneself.add_zero_attn = add_zero_attndef __setstate__(self, state):# Support loading old MultiheadAttention checkpoints generated by v1.1.0if "_qkv_same_embed_dim" not in state:state["_qkv_same_embed_dim"] = Truesuper(MultiheadAttention, self).__setstate__(state)def forward(self,query,key,value,key_padding_mask=None,need_weights=False,attn_mask=None,residual_attn=None,):if not self._qkv_same_embed_dim:return self.multi_head_attention_forward(query,key,value,self.embed_dim,self.num_heads,self.in_proj_weight,self.in_proj_bias,self.bias_k,self.bias_v,self.add_zero_attn,self.dropout,self.out_proj.weight,self.out_proj.bias,training=self.training,key_padding_mask=key_padding_mask,need_weights=need_weights,attn_mask=attn_mask,use_separate_proj_weight=True,q_proj_weight=self.q_proj_weight,k_proj_weight=self.k_proj_weight,v_proj_weight=self.v_proj_weight,out_dim=self.vdim,residual_attn=residual_attn,)else:return self.multi_head_attention_forward(query,key,value,self.embed_dim,self.num_heads,self.in_proj_weight,self.in_proj_bias,self.bias_k,self.bias_v,self.add_zero_attn,self.dropout,self.out_proj.weight,self.out_proj.bias,training=self.training,key_padding_mask=key_padding_mask,need_weights=need_weights,attn_mask=attn_mask,out_dim=self.vdim,residual_attn=residual_attn,)def multi_head_attention_forward(self,query: Tensor,key: Tensor,value: Tensor,embed_dim_to_check: int,num_heads: int,in_proj_weight: Tensor,in_proj_bias: Tensor,bias_k: Optional[Tensor],bias_v: Optional[Tensor],add_zero_attn: bool,dropout_p: float,out_proj_weight: Tensor,out_proj_bias: Tensor,training: bool = True,key_padding_mask: Optional[Tensor] = None,need_weights: bool = False,attn_mask: Optional[Tensor] = None,use_separate_proj_weight: bool = False,q_proj_weight: Optional[Tensor] = None,k_proj_weight: Optional[Tensor] = None,v_proj_weight: Optional[Tensor] = None,static_k: Optional[Tensor] = None,static_v: Optional[Tensor] = None,out_dim: Optional[Tensor] = None,residual_attn: Optional[Tensor] = None,) -> Tuple[Tensor, Optional[Tensor]]:if not torch.jit.is_scripting():tens_ops = (query,key,value,in_proj_weight,in_proj_bias,bias_k,bias_v,out_proj_weight,out_proj_bias,)if any([type(t) is not Tensor for t in tens_ops]) and has_torch_function(tens_ops):return handle_torch_function(multi_head_attention_forward,tens_ops,query,key,value,embed_dim_to_check,num_heads,in_proj_weight,in_proj_bias,bias_k,bias_v,add_zero_attn,dropout_p,out_proj_weight,out_proj_bias,training=training,key_padding_mask=key_padding_mask,need_weights=need_weights,attn_mask=attn_mask,use_separate_proj_weight=use_separate_proj_weight,q_proj_weight=q_proj_weight,k_proj_weight=k_proj_weight,v_proj_weight=v_proj_weight,static_k=static_k,static_v=static_v,)tgt_len, bsz, embed_dim = query.size()key = query if key is None else keyvalue = query if value is None else valueassert embed_dim == embed_dim_to_check# allow MHA to have different sizes for the feature dimensionassert key.size(0) == value.size(0) and key.size(1) == value.size(1)head_dim = embed_dim // num_headsv_head_dim = out_dim // num_headsassert (head_dim * num_heads == embed_dim), "embed_dim must be divisible by num_heads"scaling = float(head_dim) ** -0.5q = self.q_proj(query) * scalingk = self.k_proj(key)v = self.v_proj(value)if attn_mask is not None:assert (attn_mask.dtype == torch.float32or attn_mask.dtype == torch.float64or attn_mask.dtype == torch.float16or attn_mask.dtype == torch.uint8or attn_mask.dtype == torch.bool), "Only float, byte, and bool types are supported for attn_mask, not {}".format(attn_mask.dtype)if attn_mask.dtype == torch.uint8:warnings.warn("Byte tensor for attn_mask in nn.MultiheadAttention is deprecated. Use bool tensor instead.")attn_mask = attn_mask.to(torch.bool)if attn_mask.dim() == 2:attn_mask = attn_mask.unsqueeze(0)if list(attn_mask.size()) != [1, query.size(0), key.size(0)]:raise RuntimeError("The size of the 2D attn_mask is not correct.")elif attn_mask.dim() == 3:if list(attn_mask.size()) != [bsz * num_heads,query.size(0),key.size(0),]:raise RuntimeError("The size of the 3D attn_mask is not correct.")else:raise RuntimeError("attn_mask's dimension {} is not supported".format(attn_mask.dim()))# convert ByteTensor key_padding_mask to boolif key_padding_mask is not None and key_padding_mask.dtype == torch.uint8:warnings.warn("Byte tensor for key_padding_mask in nn.MultiheadAttention is deprecated. Use bool tensor instead.")key_padding_mask = key_padding_mask.to(torch.bool)q = q.contiguous().view(tgt_len, bsz * num_heads, head_dim).transpose(0, 1)if k is not None:k = k.contiguous().view(-1, bsz * num_heads, head_dim).transpose(0, 1)if v is not None:v = v.contiguous().view(-1, bsz * num_heads, v_head_dim).transpose(0, 1)src_len = k.size(1)if key_padding_mask is not None:assert key_padding_mask.size(0) == bszassert key_padding_mask.size(1) == src_lenif add_zero_attn:src_len += 1k = torch.cat([k,torch.zeros((k.size(0), 1) + k.size()[2:], dtype=k.dtype, device=k.device),],dim=1,)v = torch.cat([v,torch.zeros((v.size(0), 1) + v.size()[2:], dtype=v.dtype, device=v.device),],dim=1,)if attn_mask is not None:attn_mask = pad(attn_mask, (0, 1))if key_padding_mask is not None:key_padding_mask = pad(key_padding_mask, (0, 1))attn_output_weights = torch.bmm(q, k.transpose(1, 2))assert list(attn_output_weights.size()) == [bsz * num_heads, tgt_len, src_len]"""Attention weight for the invalid region is -inf"""if attn_mask is not None:if attn_mask.dtype == torch.bool:attn_output_weights.masked_fill_(attn_mask, float("-inf"))else:attn_output_weights += attn_maskif key_padding_mask is not None:attn_output_weights = attn_output_weights.view(bsz, num_heads, tgt_len, src_len)attn_output_weights = attn_output_weights.masked_fill(key_padding_mask.unsqueeze(1).unsqueeze(2),float("-inf"),)attn_output_weights = attn_output_weights.view(bsz * num_heads, tgt_len, src_len)if residual_attn is not None:attn_output_weights = attn_output_weights.view(bsz, num_heads, tgt_len, src_len)attn_output_weights += residual_attn.unsqueeze(0)attn_output_weights = attn_output_weights.view(bsz * num_heads, tgt_len, src_len)"""Reweight the attention map before softmax().attn_output_weights: (b*n_head, n, hw)"""attn_output_weights = softmax(attn_output_weights, dim=-1)attn_output_weights = dropout(attn_output_weights, p=dropout_p, training=training)attn_output = torch.bmm(attn_output_weights, v)assert list(attn_output.size()) == [bsz * num_heads, tgt_len, v_head_dim]attn_output = (attn_output.transpose(0, 1).contiguous().view(tgt_len, bsz, out_dim))attn_output = linear(attn_output, out_proj_weight, out_proj_bias)if need_weights:# average attention weights over headsattn_output_weights = attn_output_weights.view(bsz, num_heads, tgt_len, src_len)return attn_output, attn_output_weights.sum(dim=1) / num_headselse:return attn_outputclass MHA_(MultiheadAttention):""" "Multihead Attention with extra flags on the q/k/v and out projections."""bias_k: Optional[torch.Tensor]bias_v: Optional[torch.Tensor]def __init__(self, *args, rpe=False, window_size=7, **kwargs):super(MHA_, self).__init__(*args, **kwargs)self.rpe = rpeif rpe:self.window_size = [window_size] * 2# define a parameter table of relative position biasself.relative_position_bias_table = nn.Parameter(torch.zeros((2 * self.window_size[0] - 1) * (2 * self.window_size[1] - 1),self.num_heads,)) # 2*Wh-1 * 2*Ww-1, nH# get pair-wise relative position index for each token inside the windowcoords_h = torch.arange(self.window_size[0])coords_w = torch.arange(self.window_size[1])coords = torch.stack(torch.meshgrid([coords_h, coords_w])) # 2, Wh, Wwcoords_flatten = torch.flatten(coords, 1) # 2, Wh*Wwrelative_coords = (coords_flatten[:, :, None] - coords_flatten[:, None, :]) # 2, Wh*Ww, Wh*Wwrelative_coords = relative_coords.permute(1, 2, 0).contiguous() # Wh*Ww, Wh*Ww, 2relative_coords[:, :, 0] += self.window_size[0] - 1 # shift to start from 0relative_coords[:, :, 1] += self.window_size[1] - 1relative_coords[:, :, 0] *= 2 * self.window_size[1] - 1relative_position_index = relative_coords.sum(-1) # Wh*Ww, Wh*Wwself.register_buffer("relative_position_index", relative_position_index)trunc_normal_(self.relative_position_bias_table, std=0.02)def forward(self,query,key,value,key_padding_mask=None,need_weights=False,attn_mask=None,do_qkv_proj=True,do_out_proj=True,rpe=True,):if not self._qkv_same_embed_dim:return self.multi_head_attention_forward(query,key,value,self.embed_dim,self.num_heads,self.in_proj_weight,self.in_proj_bias,self.bias_k,self.bias_v,self.add_zero_attn,self.dropout,self.out_proj.weight,self.out_proj.bias,training=self.training,key_padding_mask=key_padding_mask,need_weights=need_weights,attn_mask=attn_mask,use_separate_proj_weight=True,q_proj_weight=self.q_proj_weight,k_proj_weight=self.k_proj_weight,v_proj_weight=self.v_proj_weight,out_dim=self.vdim,do_qkv_proj=do_qkv_proj,do_out_proj=do_out_proj,rpe=rpe,)else:return self.multi_head_attention_forward(query,key,value,self.embed_dim,self.num_heads,self.in_proj_weight,self.in_proj_bias,self.bias_k,self.bias_v,self.add_zero_attn,self.dropout,self.out_proj.weight,self.out_proj.bias,training=self.training,key_padding_mask=key_padding_mask,need_weights=need_weights,attn_mask=attn_mask,out_dim=self.vdim,do_qkv_proj=do_qkv_proj,do_out_proj=do_out_proj,rpe=rpe,)def multi_head_attention_forward(self,query: Tensor,key: Tensor,value: Tensor,embed_dim_to_check: int,num_heads: int,in_proj_weight: Tensor,in_proj_bias: Tensor,bias_k: Optional[Tensor],bias_v: Optional[Tensor],add_zero_attn: bool,dropout_p: float,out_proj_weight: Tensor,out_proj_bias: Tensor,training: bool = True,key_padding_mask: Optional[Tensor] = None,need_weights: bool = False,attn_mask: Optional[Tensor] = None,use_separate_proj_weight: bool = False,q_proj_weight: Optional[Tensor] = None,k_proj_weight: Optional[Tensor] = None,v_proj_weight: Optional[Tensor] = None,static_k: Optional[Tensor] = None,static_v: Optional[Tensor] = None,out_dim: Optional[Tensor] = None,do_qkv_proj: bool = True,do_out_proj: bool = True,rpe=True,) -> Tuple[Tensor, Optional[Tensor]]:if not torch.jit.is_scripting():tens_ops = (query,key,value,in_proj_weight,in_proj_bias,bias_k,bias_v,out_proj_weight,out_proj_bias,)if any([type(t) is not Tensor for t in tens_ops]) and has_torch_function(tens_ops):return handle_torch_function(multi_head_attention_forward,tens_ops,query,key,value,embed_dim_to_check,num_heads,in_proj_weight,in_proj_bias,bias_k,bias_v,add_zero_attn,dropout_p,out_proj_weight,out_proj_bias,training=training,key_padding_mask=key_padding_mask,need_weights=need_weights,attn_mask=attn_mask,use_separate_proj_weight=use_separate_proj_weight,q_proj_weight=q_proj_weight,k_proj_weight=k_proj_weight,v_proj_weight=v_proj_weight,static_k=static_k,static_v=static_v,)tgt_len, bsz, embed_dim = query.size()key = query if key is None else keyvalue = query if value is None else valueassert embed_dim == embed_dim_to_check# allow MHA to have different sizes for the feature dimensionassert key.size(0) == value.size(0) and key.size(1) == value.size(1)head_dim = embed_dim // num_headsv_head_dim = out_dim // num_headsassert (head_dim * num_heads == embed_dim), "embed_dim must be divisible by num_heads"scaling = float(head_dim) ** -0.5# whether or not use the original query/key/valueq = self.q_proj(query) * scaling if do_qkv_proj else queryk = self.k_proj(key) if do_qkv_proj else keyv = self.v_proj(value) if do_qkv_proj else valueif attn_mask is not None:assert (attn_mask.dtype == torch.float32or attn_mask.dtype == torch.float64or attn_mask.dtype == torch.float16or attn_mask.dtype == torch.uint8or attn_mask.dtype == torch.bool), "Only float, byte, and bool types are supported for attn_mask, not {}".format(attn_mask.dtype)if attn_mask.dtype == torch.uint8:warnings.warn("Byte tensor for attn_mask in nn.MultiheadAttention is deprecated. Use bool tensor instead.")attn_mask = attn_mask.to(torch.bool)if attn_mask.dim() == 2:attn_mask = attn_mask.unsqueeze(0)if list(attn_mask.size()) != [1, query.size(0), key.size(0)]:raise RuntimeError("The size of the 2D attn_mask is not correct.")elif attn_mask.dim() == 3:if list(attn_mask.size()) != [bsz * num_heads,query.size(0),key.size(0),]:raise RuntimeError("The size of the 3D attn_mask is not correct.")else:raise RuntimeError("attn_mask's dimension {} is not supported".format(attn_mask.dim()))# convert ByteTensor key_padding_mask to boolif key_padding_mask is not None and key_padding_mask.dtype == torch.uint8:warnings.warn("Byte tensor for key_padding_mask in nn.MultiheadAttention is deprecated. Use bool tensor instead.")key_padding_mask = key_padding_mask.to(torch.bool)q = q.contiguous().view(tgt_len, bsz * num_heads, head_dim).transpose(0, 1)if k is not None:k = k.contiguous().view(-1, bsz * num_heads, head_dim).transpose(0, 1)if v is not None:v = v.contiguous().view(-1, bsz * num_heads, v_head_dim).transpose(0, 1)src_len = k.size(1)if key_padding_mask is not None:assert key_padding_mask.size(0) == bszassert key_padding_mask.size(1) == src_lenif add_zero_attn:src_len += 1k = torch.cat([k,torch.zeros((k.size(0), 1) + k.size()[2:], dtype=k.dtype, device=k.device),],dim=1,)v = torch.cat([v,torch.zeros((v.size(0), 1) + v.size()[2:], dtype=v.dtype, device=v.device),],dim=1,)if attn_mask is not None:attn_mask = pad(attn_mask, (0, 1))if key_padding_mask is not None:key_padding_mask = pad(key_padding_mask, (0, 1))attn_output_weights = torch.bmm(q, k.transpose(1, 2))assert list(attn_output_weights.size()) == [bsz * num_heads, tgt_len, src_len]"""Add relative position embedding"""if self.rpe and rpe:# NOTE: for simplicity, we assume the src_len == tgt_len == window_size**2 here# print('src, tar, window', src_len, tgt_len, self.window_size[0], self.window_size[1])# assert src_len == self.window_size[0] * self.window_size[1] \# and tgt_len == self.window_size[0] * self.window_size[1], \# f"src{src_len}, tgt{tgt_len}, window{self.window_size[0]}"relative_position_bias = self.relative_position_bias_table[self.relative_position_index.view(-1)].view(self.window_size[0] * self.window_size[1],self.window_size[0] * self.window_size[1],-1,) # Wh*Ww,Wh*Ww,nHrelative_position_bias = relative_position_bias.permute(2, 0, 1).contiguous() # nH, Wh*Ww, Wh*Ww# HELLO!!!!!attn_output_weights = attn_output_weights.view(bsz, num_heads, tgt_len, src_len) # + relative_position_bias.unsqueeze(0)attn_output_weights = attn_output_weights.view(bsz * num_heads, tgt_len, src_len)"""Attention weight for the invalid region is -inf"""if attn_mask is not None:if attn_mask.dtype == torch.bool:attn_output_weights.masked_fill_(attn_mask, float("-inf"))else:attn_output_weights += attn_maskif key_padding_mask is not None:attn_output_weights = attn_output_weights.view(bsz, num_heads, tgt_len, src_len)attn_output_weights = attn_output_weights.masked_fill(key_padding_mask.unsqueeze(1).unsqueeze(2),float("-inf"),)attn_output_weights = attn_output_weights.view(bsz * num_heads, tgt_len, src_len)"""Reweight the attention map before softmax().attn_output_weights: (b*n_head, n, hw)"""attn_output_weights = softmax(attn_output_weights, dim=-1)attn_output_weights = dropout(attn_output_weights, p=dropout_p, training=training)attn_output = torch.bmm(attn_output_weights, v)assert list(attn_output.size()) == [bsz * num_heads, tgt_len, v_head_dim]attn_output = (attn_output.transpose(0, 1).contiguous().view(tgt_len, bsz, out_dim))if do_out_proj:attn_output = linear(attn_output, out_proj_weight, out_proj_bias)if need_weights:# average attention weights over headsattn_output_weights = attn_output_weights.view(bsz, num_heads, tgt_len, src_len)return attn_output, q, k, attn_output_weights.sum(dim=1) / num_headselse:return attn_output, q, k # additionaly return the query and key#這里完成的是當featuremap尺寸不夠除,需要在featuremap加入padding class PadBlock(object):""" "Make the size of feature map divisible by local group size."""def __init__(self, local_group_size=7):self.lgs = local_group_size#7if not isinstance(self.lgs, (tuple, list)):self.lgs = to_2tuple(self.lgs)#元組(7,7)assert len(self.lgs) == 2def pad_if_needed(self, x, size):n, h, w, c = sizepad_h = math.ceil(h / self.lgs[0]) * self.lgs[0] - hpad_w = math.ceil(w / self.lgs[1]) * self.lgs[1] - wif pad_h > 0 or pad_w > 0: # center-pad the feature on H and W axesreturn F.pad(x,(0, 0, pad_w // 2, pad_w - pad_w // 2, pad_h // 2, pad_h - pad_h // 2),)#填充順序在x的c,w,h維度進行填充return xdef depad_if_needed(self, x, size):n, h, w, c = sizepad_h = math.ceil(h / self.lgs[0]) * self.lgs[0] - h #按照我們假設的輸入,pad_h=1pad_w = math.ceil(w / self.lgs[1]) * self.lgs[1] - w #pad_w=6if pad_h > 0 or pad_w > 0: # remove the center-padding on featurereturn x[:, pad_h // 2 : pad_h // 2 + h, pad_w // 2 : pad_w // 2 + w, :]#x在h,w維度包含padding的值,為此需要刪除掉沒有paddingreturn xclass LocalPermuteModule(object):""" "Permute the feature map to gather pixels in local groups, and the reverse permutation"""def __init__(self, local_group_size=7):self.lgs = local_group_sizeif not isinstance(self.lgs, (tuple, list)):self.lgs = to_2tuple(self.lgs)assert len(self.lgs) == 2 #完成進入atten時候的輸入形式(B,N,C)def permute(self, x, size):n, h, w, c = sizereturn rearrange(x,"n (qh ph) (qw pw) c -> (ph pw) (n qh qw) c",n=n,qh=h // self.lgs[0],ph=self.lgs[0],qw=w // self.lgs[0],pw=self.lgs[0],c=c,) #將atten時候的輸入形式(B,N,C)變成卷積的特征圖譜維度def rev_permute(self, x, size):n, h, w, c = sizereturn rearrange(x,"(ph pw) (n qh qw) c -> n (qh ph) (qw pw) c",n=n,qh=h // self.lgs[0],ph=self.lgs[0],qw=w // self.lgs[0],pw=self.lgs[0],c=c,)class InterlacedPoolAttention(nn.Module):r"""interlaced sparse multi-head self attention (ISA) module with relative position bias.Args:dim (int): Number of input channels.window_size (tuple[int]): Window size.num_heads (int): Number of attention heads.qkv_bias (bool, optional): If True, add a learnable bias to query, key, value. Default: Trueqk_scale (float | None, optional): Override default qk scale of head_dim ** -0.5 if setattn_drop (float, optional): Dropout ratio of attention weight. Default: 0.0proj_drop (float, optional): Dropout ratio of output. Default: 0.0"""def __init__(self, embed_dim, num_heads, window_size=7, rpe=True, **kwargs):super(InterlacedPoolAttention, self).__init__()self.dim = embed_dimself.num_heads = num_headsself.window_size = window_sizeself.with_rpe = rpeself.attn = MHA_(embed_dim, num_heads, rpe=rpe, window_size=window_size, **kwargs)self.pad_helper = PadBlock(window_size)self.permute_helper = LocalPermuteModule(window_size)def forward(self, x, H, W, **kwargs):B, N, C = x.shapex = x.view(B, H, W, C)print('x', x.shape)#x torch.Size([78, 48, 64, 78])# attention# padx_pad = self.pad_helper.pad_if_needed(x, x.size())print('x_pad', x_pad.shape)#x_pad torch.Size([78, 49, 70, 78])# permutex_permute = self.permute_helper.permute(x_pad, x_pad.size())print('x_permute', x_permute.shape) # x_permute torch.Size([49, 5460, 78])# attentionout, _, _ = self.attn(x_permute, x_permute, x_permute, rpe=self.with_rpe, **kwargs)print('out', out.shape)#out torch.Size([49, 5460, 78])# reverse permutationout = self.permute_helper.rev_permute(out, x_pad.size())print('out1', out.shape)#out1 torch.Size([78, 49, 70, 78])# de-pad, pooling with `ceil_mode=True` will do implicit padding, so we need to remove it, tooout = self.pad_helper.depad_if_needed(out, x.size())# print('out.reshape(B, N, C)',out.reshape(B, N, C).shape)#out.reshape(B, N, C) torch.Size([78, 3072, 78])return out.reshape(B, N, C)def drop_path(x, drop_prob: float = 0.0, training: bool = False):"""Drop paths (Stochastic Depth) per sample (when applied in main path of residual blocks).This is the same as the DropConnect impl I created for EfficientNet, etc networks, however,the original name is misleading as 'Drop Connect' is a different form of dropout in a separate paper...See discussion: https://github.com/tensorflow/tpu/issues/494#issuecomment-532968956 ... I've opted forchanging the layer and argument names to 'drop path' rather than mix DropConnect as a layer name and use'survival rate' as the argument."""if drop_prob == 0.0 or not training:return xkeep_prob = 1 - drop_probshape = (x.shape[0],) + (1,) * (x.ndim - 1) # work with diff dim tensors, not just 2D ConvNetsrandom_tensor = keep_prob + torch.rand(shape, dtype=x.dtype, device=x.device)random_tensor.floor_() # binarizeoutput = x.div(keep_prob) * random_tensorreturn outputclass DropPath(nn.Module):"""Drop paths (Stochastic Depth) per sample (when applied in main path of residual blocks)."""def __init__(self, drop_prob=None):super(DropPath, self).__init__()self.drop_prob = drop_probdef forward(self, x):return drop_path(x, self.drop_prob, self.training)def extra_repr(self):# (Optional)Set the extra information about this module. You can test# it by printing an object of this class.return "drop_prob={}".format(self.drop_prob)class MlpDWBN(nn.Module):def __init__(self,in_features,hidden_features=None,out_features=None,act_layer=nn.GELU,dw_act_layer=nn.GELU,drop=0.0,conv_cfg=None,norm_cfg=dict(type="BN", requires_grad=True),):super().__init__()out_features = out_features or in_featureshidden_features = hidden_features or in_featuresself.fc1 = build_conv_layer(conv_cfg,in_features,hidden_features,kernel_size=1,stride=1,padding=0,bias=True,)self.act1 = act_layer()self.norm1 = build_norm_layer(norm_cfg, hidden_features)[1]self.dw3x3 = build_conv_layer(conv_cfg,hidden_features,hidden_features,kernel_size=3,stride=1,padding=1,groups=hidden_features,)self.act2 = dw_act_layer()self.norm2 = build_norm_layer(norm_cfg, hidden_features)[1]self.fc2 = build_conv_layer(conv_cfg,hidden_features,out_features,kernel_size=1,stride=1,padding=0,bias=True,)self.act3 = act_layer()self.norm3 = build_norm_layer(norm_cfg, out_features)[1]# self.drop = nn.Dropout(drop, inplace=True)def forward(self, x, H, W):if len(x.shape) == 3:B, N, C = x.shapeif N == (H * W + 1):cls_tokens = x[:, 0, :]x_ = x[:, 1:, :].permute(0, 2, 1).contiguous().reshape(B, C, H, W)else:x_ = x.permute(0, 2, 1).contiguous().reshape(B, C, H, W)x_ = self.fc1(x_)x_ = self.norm1(x_)x_ = self.act1(x_)x_ = self.dw3x3(x_)x_ = self.norm2(x_)x_ = self.act2(x_)# x_ = self.drop(x_)x_ = self.fc2(x_)x_ = self.norm3(x_)x_ = self.act3(x_)# x_ = self.drop(x_)x_ = x_.reshape(B, C, -1).permute(0, 2, 1).contiguous()if N == (H * W + 1):x = torch.cat((cls_tokens.unsqueeze(1), x_), dim=1)else:x = x_return xelif len(x.shape) == 4:x = self.fc1(x)x = self.norm1(x)x = self.act1(x)x = self.dw3x3(x)x = self.norm2(x)x = self.act2(x)x = self.drop(x)x = self.fc2(x)x = self.norm3(x)x = self.act3(x)x = self.drop(x)return xelse:raise RuntimeError("Unsupported input shape: {}".format(x.shape))class GeneralTransformerBlock(nn.Module):expansion = 1def __init__(self,inplanes,planes,num_heads,window_size=7,mlp_ratio=4.0,qkv_bias=True,qk_scale=None,drop=0.0,attn_drop=0.0,drop_path=0.0,act_layer=nn.GELU,norm_layer=partial(nn.LayerNorm, eps=1e-6),conv_cfg=None,norm_cfg=dict(type="BN", requires_grad=True),):super().__init__()self.dim = inplanesself.out_dim = planesself.num_heads = num_headsself.window_size = window_sizeself.mlp_ratio = mlp_ratioself.conv_cfg = conv_cfgself.norm_cfg = norm_cfgself.attn = InterlacedPoolAttention(self.dim, num_heads=num_heads, window_size=window_size, dropout=attn_drop)self.norm1 = norm_layer(self.dim)self.norm2 = norm_layer(self.out_dim)self.drop_path = DropPath(drop_path) if drop_path > 0.0 else nn.Identity()mlp_hidden_dim = int(self.dim * mlp_ratio)self.mlp = MlpDWBN(in_features=self.dim,hidden_features=mlp_hidden_dim,out_features=self.out_dim,act_layer=act_layer,dw_act_layer=act_layer,drop=drop,conv_cfg=conv_cfg,norm_cfg=norm_cfg,)def forward(self, x):B, C, H, W = x.size()# reshapex = x.view(B, C, -1).permute(0, 2, 1).contiguous()# Attentionx = x + self.drop_path(self.attn(self.norm1(x), H, W))# FFNx = x + self.drop_path(self.mlp(self.norm2(x), H, W))# reshapex = x.permute(0, 2, 1).contiguous().view(B, C, H, W)return xa = torch.randn(78,78,48, 64) b = GeneralTransformerBlock(78,78,3) c = b(a) print('c',c.shape)

總結

以上是生活随笔為你收集整理的配置HRFormer:High-Resolution Transformer for Dense Prediction条件的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

男女男视频 | 国产女教师精品久久av | 91手机视频 | 亚洲成a人片77777kkkk1在线观看 | 美女黄久久 | 国产婷婷vvvv激情久 | 69av在线视频| 玖玖色在线观看 | 国产精品综合久久久 | 欧美 高跟鞋交 xxxxhd | 西西大胆啪啪 | 91精品视频一区 | 婷婷开心久久网 | 五月婷婷操 | 国产国语在线 | 日韩视频中文字幕 | 这里只有精彩视频 | 国产91大片 | 日韩欧美一区二区三区免费观看 | 在线之家免费在线观看电影 | 欧美成人精品欧美一级乱 | 国产精品18久久久久久vr | 国产精品入口麻豆 | 99精品视频在线看 | 欧美色噜噜 | 国产尤物一区二区三区 | 欧美色伊人 | 精品极品在线 | 人人爽人人av | 在线视频99 | www最近高清中文国语在线观看 | 中文字幕在线免费看 | 一区二区在线影院 | 超碰97国产精品人人cao | 久草在线免费看视频 | 久久久久观看 | 国产精品手机播放 | 欧美另类人妖 | 亚洲国产经典视频 | 最近中文字幕免费 | 久久在线电影 | 伊人资源视频在线 | 欧美成人中文字幕 | 久草在线免费资源站 | 久久综合九色综合欧美就去吻 | 91片黄在线观看动漫 | 国产玖玖在线 | 亚洲日本色 | 久久免费在线观看视频 | 丁香六月久久综合狠狠色 | 色综合久久88色综合天天免费 | 人人爽人人爽人人爽人人爽 | 久av在线 | 国产成人精品亚洲精品 | 亚洲第一中文字幕 | 日日夜夜噜噜噜 | 国产精品自产拍在线观看 | 久久精品人人做人人综合老师 | 久久亚洲影院 | 成年人免费在线 | 欧美一区二区三区免费看 | 亚洲精品a区 | 最近日本mv字幕免费观看 | 国产 日韩 中文字幕 | 免费色黄 | 麻豆94tv免费版 | 五月开心婷婷网 | 最近最新中文字幕视频 | 日韩区欠美精品av视频 | 国产精品地址 | 国内精品亚洲 | 亚洲免费小视频 | 91一区啪爱嗯打偷拍欧美 | 国产精品久久久亚洲 | 九九久久久久99精品 | 337p日本欧洲亚洲大胆裸体艺术 | 欧美久久久久久久久中文字幕 | 五月天激情综合 | 亚洲精品玖玖玖av在线看 | 亚洲精品tv久久久久久久久久 | 精品在线视频观看 | 激情av资源网 | 国产精品久久久久aaaa九色 | 久久久一本精品99久久精品66 | 99视频精品全国免费 | 最近更新好看的中文字幕 | 永久免费的啪啪网站免费观看浪潮 | 久久大片 | 九九欧美视频 | 久久综合视频网 | 91av网址| 精品亚洲在线 | 欧美91精品国产自产 | 久久精品综合视频 | 国产精品久久久久久久久毛片 | 久久久午夜精品福利内容 | 欧美a级在线免费观看 | 日韩乱色精品一区二区 | 毛片基地黄久久久久久天堂 | 91免费观看视频网站 | 97天天干 | 亚洲精品久久久久久中文传媒 | 欧洲在线免费视频 | av片在线看 | 福利一区二区三区四区 | 国产亚洲欧美日韩高清 | 精品一二三区视频 | 91在线视频播放 | 久久久久久久久久久久亚洲 | 成人亚洲精品国产www | 国产一级二级在线 | 欧美日本在线观看视频 | 日韩视频一区二区三区在线播放免费观看 | 国产69精品久久99不卡的观看体验 | 久草电影免费在线观看 | 欧美国产精品久久久久久免费 | 日本黄网站 | 国产97在线视频 | 99色在线播放 | 一级成人免费 | 九九热精品视频在线观看 | 亚洲第一成网站 | 亚洲欧美在线综合 | 99久久er热在这里只有精品15 | 国产91免费在线观看 | 欧美日韩伦理一区 | 91在线超碰 | 国产伦理久久精品久久久久_ | 五月婷婷综| 综合网久久| 久久五月天婷婷 | 久久久精品国产一区二区 | 精品久久久一区二区 | 丁香电影小说免费视频观看 | 亚洲精品国精品久久99热一 | 国产人在线成免费视频 | 久久久精品国产一区二区电影四季 | 中国黄色一级大片 | 亚洲国产免费网站 | 在线观看一区视频 | 伊人狠狠色 | 天堂av免费观看 | 丝袜精品视频 | 九九综合久久 | 曰韩在线 | 成人动漫精品一区二区 | 91欧美日韩国产 | 国产日韩中文字幕 | 成人精品一区二区三区中文字幕 | 51久久成人国产精品麻豆 | 国产在线精品二区 | 亚洲情婷婷 | 国产99一区视频免费 | 成人亚洲精品国产www | 97超碰在线久草超碰在线观看 | 欧美一级特黄高清视频 | 国产精品久久精品 | 亚洲视频 视频在线 | 国产精品久久久久久欧美 | 91精品1区 | 91精品1区2区 | 成人av一二三区 | 国内一区二区视频 | 在线观看日本高清mv视频 | 91丝袜美腿| 久热爱| 国产一级在线 | 91精品国产乱码久久桃 | 午夜精品一二三区 | 成人av影视在线 | 在线观看视频一区二区三区 | 色网站免费在线观看 | 在线观看av黄色 | 九九九热视频 | 91精品国产高清自在线观看 | 国产精品久久久久国产精品日日 | 亚洲黄色片一级 | 日韩午夜小视频 | 日韩在线短视频 | 91私密保健| 亚洲精品美女久久 | 狠狠色噜噜狠狠 | 国产精品久久久久一区二区 | 人人爽人人澡人人添人人人人 | 亚洲电影毛片 | 日本乱码在线 | 国产青春久久久国产毛片 | 天天操天天干天天摸 | 婷婷精品国产一区二区三区日韩 | 日韩视频免费在线 | 久久婷婷丁香 | 久久综合欧美精品亚洲一区 | 国产精品乱码一区二三区 | 免费h视频 | 精品专区| 黄色大片入口 | 国内外激情视频 | 精品毛片久久久久久 | 97国产 | 一级黄色片在线播放 | av色一区| 久久香蕉国产精品麻豆粉嫩av | 91成人免费看| 91亚洲精品久久久蜜桃网站 | 日韩精品一区二区三区免费观看 | 激情综合色播五月 | 免费高清在线观看电视网站 | 97超级碰碰碰碰久久久久 | 蜜臀久久99精品久久久酒店新书 | 黄色精品久久 | 99久久夜色精品国产亚洲96 | 国产精品久久久久久a | 成人国产一区 | 久久经典国产视频 | 国产精品日韩在线 | 国产又粗又猛又爽又黄的视频先 | www色片| 中文在线字幕免费观看 | 在线天堂中文在线资源网 | 免费精品人在线二线三线 | 亚洲国产欧美在线看片xxoo | 亚洲精品在线免费看 | 国内精品视频在线 | 国产一区二区在线播放视频 | 正在播放 久久 | 69国产精品视频 | 开心激情婷婷 | 日韩av一区二区三区在线观看 | 国产亚洲资源 | 国产成人精品综合久久久 | 久久综合色天天久久综合图片 | 国产精品久久久99 | 中文字幕国产视频 | 国产97视频在线 | 成人看片| 天天干.com | 黄色三级视频片 | 免费久久久久久 | 日日夜色| 久久亚洲在线 | 欧美xxxxx在线视频 | 国产精品二区三区 | aⅴ视频在线 | 999久久国产精品免费观看网站 | 免费高清av在线看 | a视频在线 | 特黄特色特刺激视频免费播放 | 午夜久久福利 | 成人日韩av | 久久99网 | 黄色在线观看免费网站 | 在线 精品 国产 | 在线看片一区 | 欧美视频日韩视频 | 国产日韩欧美视频 | 一区二区三区日韩精品 | 激情av资源 | 91污视频在线观看 | 麻豆一区在线观看 | 精品视频久久久 | 91在线精品秘密一区二区 | 日本丰满少妇免费一区 | 一本一本久久a久久精品牛牛影视 | 天堂av网站 | av黄色一级片 | 国产精品手机视频 | 在线观看免费视频 | 最近中文字幕在线 | 亚洲精选视频在线 | 精品黄色在线观看 | 九九热免费视频在线观看 | 91九色蝌蚪| 亚洲精品456在线播放乱码 | 四虎国产免费 | 国产一区二区电影在线观看 | 午夜视频免费播放 | 91精品啪啪 | 在线视频一二三 | 婷婷丁香在线观看 | 欧美日韩在线免费观看视频 | 黄视频色网站 | 亚洲黄色三级 | 91看成人| 亚洲精品乱码久久久久久蜜桃动漫 | 午夜91视频 | 色姑娘综合天天 | 麻豆视频在线观看免费 | 免费的黄色av | 91精品系列 | 国产麻豆精品在线观看 | h视频在线看 | 日韩精品专区在线影院重磅 | 欧美久久久久久 | 欧美日韩国产二区三区 | 亚洲九九 | 国产精久久久久久久 | 久久这里只有精品久久 | 在线高清av | 精品国产1区2区 | 韩日精品中文字幕 | 中国黄色一级大片 | 日韩精品一区二区在线观看视频 | 亚洲精品18日本一区app | 欧美午夜久久 | 日一日操一操 | 五月天综合激情网 | 久草精品网 | 午夜影院一级片 | 免费在线观看av网址 | 色婷婷88av视频一二三区 | 99久久精品午夜一区二区小说 | 欧美二区三区91 | 国产精品久久久久免费观看 | 亚洲涩涩网 | 成人欧美一区二区三区在线观看 | 最近高清中文字幕在线国语5 | 亚洲成人黄色 | 亚洲最快最全在线视频 | 免费三级网 | jizz欧美性9 国产一区高清在线观看 | 日韩网站视频 | av电影在线不卡 | 成人av动漫在线 | 99热精品久久 | 天天射天天搞 | 亚洲精品乱码久久久久 | 黄色视屏av | 久久毛片网站 | 中文字幕在线免费97 | 国产黄a三级 | 五月婷婷综合网 | 在线视频91| 99re久久资源最新地址 | 黄色亚洲片 | 中日韩男男gay无套 日韩精品一区二区三区高清免费 | 一区二区视频网站 | 欧洲成人免费 | 久久九九免费 | 99精品热视频只有精品10 | 中文av网 | 成人免费视频观看 | 亚洲成av人片一区二区梦乃 | 亚洲女欲精品久久久久久久18 | 国产午夜小视频 | 亚洲91视频 | 美女网站视频一区 | 国产精品一区二区在线播放 | 91看片网址 | 91超碰免费在线 | 超碰人人在线观看 | 91av在线播放视频 | 在线 欧美 日韩 | 日韩精品视频免费 | 亚洲精品视频久久 | 日韩欧美国产精品 | 天天干,天天干 | 天天射天天搞 | 免费av在线网站 | 综合久久2023 | 午夜狠狠干 | 日韩午夜视频在线观看 | 激情图片qvod | 美女福利视频在线 | 99久久精品免费看国产一区二区三区 | 久久国产精品免费一区 | 免费一级特黄毛大片 | 久草99 | 欧美日韩激情视频8区 | 色综久久| 中文字幕日韩一区二区三区不卡 | 美女网站色免费 | 日韩av高清| 日韩精品不卡 | 亚洲欧美怡红院 | 国产精品中文久久久久久久 | 天天插天天操天天干 | 日韩精品视频在线观看免费 | 狠狠狠干 | 国产91勾搭技师精品 | 欧美激情精品久久久 | www久久99| 国产a级免费 | 久久精品免费播放 | 亚洲欧美少妇 | 91九色porny蝌蚪主页 | 最近中文字幕大全中文字幕免费 | 伊人五月 | 韩国精品视频在线观看 | 免费能看的av | 免费观看9x视频网站在线观看 | 日韩激情小视频 | 免费av在线播放 | 日韩免费一二三区 | 少妇bbbb搡bbbb搡bbbb | 久久综合综合久久综合 | 又爽又黄又无遮挡网站动态图 | 超碰在线国产 | 久久 精品一区 | 97视频免费在线观看 | 人人草在线观看 | 91桃色免费观看 | 一本到视频在线观看 | 久久艹99 | 性色在线视频 | 狠狠做六月爱婷婷综合aⅴ 日本高清免费中文字幕 | 久久99精品国产99久久6尤 | av中文字幕在线观看网站 | 国产精品一区二区av麻豆 | 成人免费看片98欧美 | 美女av免费看 | 黄色免费大全 | 色吊丝av中文字幕 | 成人av影视 | 久久久免费精品视频 | 久久免视频| 西西444www高清大胆 | www.狠狠操.com | 丁香婷婷激情啪啪 | 国产精品成人自产拍在线观看 | 成人在线观看资源 | 丁香花中文在线免费观看 | 国产精品一区二区三区久久 | 色综合激情久久 | 五月天伊人 | 91插插插网站| 中文字幕色综合网 | 97色涩| 一级做a爱片性色毛片www | 日韩经典一区二区三区 | 超碰97人人在线 | 国产爽妇网 | 日本三级中文字幕在线观看 | 中文字幕精品一区 | 日日干日日 | 国产福利资源 | 日本久久视频 | 综合网伊人 | 天天插天天干天天操 | 日韩理论片在线 | 人人揉人人揉人人揉人人揉97 | 成人午夜黄色 | 成人av手机在线 | 亚洲精品久久久久中文字幕m男 | 国产精品一级在线 | 国产精品久久久久aaaa九色 | 欧美一级欧美一级 | 久久国产成人午夜av影院潦草 | 美女福利视频一区二区 | 99精品视频在线观看播放 | 国产午夜三级 | 久久久久国产精品视频 | 激情网站| 亚洲97在线| 夜夜骑天天操 | 999视频精品 | 婷婷亚洲综合五月天小说 | 国产乱码精品一区二区蜜臀 | 久久久av电影 | 国产一区在线观看免费 | 成年人免费看av | 久久国产精品99久久人人澡 | 在线观影网站 | 美女黄久久 | 精品婷婷 | 国产精品自在线 | www.天天成人国产电影 | 久久五月婷婷丁香社区 | avav99| 日韩精品极品视频 | 最近中文字幕mv免费高清在线 | 97网站| 五月激情五月激情 | 婷婷国产v亚洲v欧美久久 | 亚洲日韩欧美视频 | 欧美精品免费在线观看 | 97视频一区 | 97视频人人免费看 | 日韩中文在线播放 | 成人久久久久久久久久 | 九九精品视频在线看 | av免费线看 | 一区二区三区精品在线视频 | 激情欧美一区二区三区 | 中文字幕在线视频免费播放 | 亚洲色图美腿丝袜 | 97超碰在线免费观看 | 日韩久久精品一区二区三区 | 91精品视频一区二区三区 | 国产精品入口传媒 | 国产一二三在线视频 | 国产成人精品一区二区三区福利 | 婷婷日韩 | 国产亚洲精品久久久久久无几年桃 | 国产成人黄色av | 中文字幕国产一区二区 | 精品字幕 | 久av在线 | 嫩嫩影院理论片 | 欧美影片 | sm免费xx网站 | 日韩伦理一区二区三区av在线 | 最新日韩在线 | 欧美巨乳波霸 | 欧美乱淫视频 | 亚洲韩国一区二区三区 | 91人网站 | 成年免费在线视频 | 成人av久久| 超碰97人人干 | 国产三级视频 | 久久综合九色九九 | 国产第一页精品 | 91麻豆精品国产91久久久无需广告 | 狠狠干天天 | 亚洲国产成人精品电影在线观看 | 欧美一区二区在线刺激视频 | 波多野结衣久久资源 | 九九九毛片 | 久草在线这里只有精品 | 亚洲国产欧美一区二区三区丁香婷 | 日韩精品久久久久久久电影99爱 | 久久综合亚洲鲁鲁五月久久 | 久草国产在线 | 日韩免费久久 | 欧美日韩精品在线一区二区 | 视频在线91 | 国产最新网站 | 久久久久久久久久国产精品 | 亚洲国产欧洲综合997久久, | 97视频在线 | 在线观看电影av | 视频一区二区视频 | 91丝袜美腿 | 午夜少妇一区二区三区 | 亚洲网站在线看 | 91网址在线观看 | 99精品视频在线看 | 人人干人人草 | 久久久久久高潮国产精品视 | 91久久久久久久一区二区 | 在线一级片 | 亚洲精品在线观看的 | 久久人人看 | 亚洲精品在线视频 | 国产精品福利小视频 | 国产黄色精品在线观看 | 91视频在线免费看 | 91精品视频免费观看 | 免费a v观看 | 天天舔天天射天天操 | 97视频免费播放 | 亚洲激情综合 | 啪啪免费观看网站 | 992tv成人免费看片 | av日韩中文 | 久久久久久久久久久久久久电影 | 天天射狠狠干 | 中文区中文字幕免费看 | 尤物一区二区三区 | 97色噜噜| 国产特黄色片 | 国产久视频| 国产视频第二页 | 久久在线精品视频 | 精品中文字幕在线 | 香蕉视频亚洲 | 免费观看一级一片 | 国产精品第54页 | 精品国产免费人成在线观看 | 日韩最新中文字幕 | 国产成人1区 | 日日躁夜夜躁aaaaxxxx | 久久艹艹| 欧美一区二区三区特黄 | 九九热视频在线播放 | 狠狠色香婷婷久久亚洲精品 | 中文字幕一二三区 | 欧美激情视频一区二区三区免费 | 久久视频免费在线观看 | 亚洲精品午夜久久久久久久 | 国内精品视频久久 | 精品夜夜嗨av一区二区三区 | 日日夜夜草 | 91激情视频在线观看 | 国产成人精品久 | 国产一级在线免费观看 | 在线观看视频在线观看 | 成人福利在线播放 | 久久久国产精品视频 | 国产精品理论片在线播放 | 婷婷av色综合 | 日韩一二三在线 | 青青河边草观看完整版高清 | 亚洲精品小区久久久久久 | 国产视频高清 | 中文字幕亚洲欧美日韩 | 欧洲高潮三级做爰 | 久久精品观看 | 国产成人一区二区三区电影 | 国产黄在线 | 久久高清国产视频 | 91一区二区三区久久久久国产乱 | 日韩视频1区 | 二区视频在线观看 | 美女网站黄免费 | 中文字幕一区二区三区四区视频 | 色偷偷av男人天堂 | 99久久这里有精品 | 色99导航 | 成人黄色电影在线播放 | 亚洲区色 | 午夜av色| 欧美特一级 | 欧美精品久久久久久久久久丰满 | 成人在线视频网 | 综合久久网站 | 日韩免费电影在线观看 | av三级在线免费观看 | 一级片视频免费观看 | 亚洲成a人片综合在线 | 亚洲黄色av网址 | 午夜精品久久久久久久99婷婷 | 最新日韩在线观看视频 | a爱爱视频 | 亚洲情婷婷 | 欧美男男tv网站 | 99久久久久久久久久 | 国产一区91| 久久免费视频网站 | 永久免费毛片在线观看 | 狠狠撸电影 | 最新中文字幕在线观看视频 | 91在线www | 18做爰免费视频网站 | 久久狠狠亚洲综合 | 国产精品黄色av | 欧美精品色 | 夜夜视频| 国产中文字幕免费 | 免费激情在线电影 | 手机看片国产日韩 | 日韩精品黄| 激情五月婷婷丁香 | 免费观看一级视频 | 91大神电影| 日韩精品五月天 | 在线观看久 | 黄色一级免费网站 | 国产精品爽爽久久久久久蜜臀 | 狠狠色狠狠色综合系列 | 最近免费中文字幕 | 黄色亚洲 | 首页av在线 | 日韩一区二区三区免费电影 | 午夜精品久久久久久久99水蜜桃 | 狠狠狠色丁香婷婷综合久久88 | 国产精品一区二区果冻传媒 | 色婷婷综合久色 | 国产999精品久久久久久 | 国产成人中文字幕 | 九九涩涩av台湾日本热热 | 天天操天天操一操 | 欧美一性一交一乱 | 久久国产精品第一页 | 天天射天天干 | 久久精品久久久久电影 | 91九色精品国产 | 欧美一级久久久久 | 国产精品夜夜夜一区二区三区尤 | 天天操天天操天天 | 丁香花在线观看免费完整版视频 | 国产一级久久 | 久久久黄色免费网站 | 中文十次啦 | 亚洲国产97在线精品一区 | 国产二区精品 | 天天操天天添天天吹 | 亚洲精品videossex少妇 | 天天操天天吃 | 久久婷婷一区二区三区 | 国产免费黄视频在线观看 | 色妞色视频一区二区三区四区 | 444av| 最新国产精品亚洲 | 久久久久国产精品午夜一区 | 99亚洲国产精品 | 日韩精品高清视频 | 日操干| 免费久久精品视频 | 精品久久91 | www.99热精品 | 国产青青青| 最新极品jizzhd欧美 | 亚洲理论在线观看电影 | 亚洲精品国产第一综合99久久 | 日韩美女免费线视频 | 18久久久久久 | 国产高清第一页 | 99热这里有 | 成人97人人超碰人人99 | 99日韩精品 | 999ZYZ玖玖资源站永久 | 国产在线欧美在线 | 国产精品网在线观看 | 中文字幕在线色 | 免费视频在线观看网站 | 狠狠婷婷 | 国产小视频免费在线网址 | 国产精品久久久久久久久久久久午夜 | 日韩电影中文,亚洲精品乱码 | 麻豆视频国产精品 | 亚洲成a人片在线观看中文 中文字幕在线视频第一页 狠狠色丁香婷婷综合 | 日韩精品一区在线播放 | 日韩av成人免费看 | 91热视频在线观看 | 激情五月婷婷激情 | 在线看黄网站 | 日韩欧美在线观看一区二区三区 | 999在线视频| 欧美一级片在线观看视频 | 最新av观看| 久久综合精品一区 | 日本黄色a级大片 | 欧美精品久久久久久久免费 | 99久久婷婷国产一区二区三区 | 九九在线免费视频 | 久精品视频在线观看 | 日韩毛片在线一区二区毛片 | 在线日韩一区 | 精品久久福利 | 在线精品在线 | 日日婷婷夜日日天干 | 日韩精品专区在线影院重磅 | www.com.黄 | 国产麻豆视频网站 | 最新真实国产在线视频 | 国产精品一区二区在线播放 | 久久精品亚洲综合专区 | 亚洲一区二区精品3399 | 亚洲精品日韩av | 手机色站 | 中日韩免费视频 | 亚洲精品视频网站在线观看 | 国产黄色精品在线观看 | 最新日本中文字幕 | 美女搞黄国产视频网站 | 日韩色视频在线观看 | 成人一级片在线观看 | 91免费国产在线观看 | 国产成人无码AⅤ片在线观 日韩av不卡在线 | 国产综合在线视频 | 蜜臀久久99静品久久久久久 | 在线高清 | 国产精品美女久久久 | 97在线观 | 免费观看xxxx9999片 | 91.麻豆视频 | 狠狠躁日日躁狂躁夜夜躁 | 国产激情小视频在线观看 | 免费观看性生活大片 | 日韩免费视频在线观看 | 精品国产伦一区二区三区观看方式 | 成人av资源站 | 天天射综合| 国产久草在线观看 | 午夜精品久久久久久久爽 | 日韩免费电影 | 天天干天天操天天搞 | 精品一区电影 | 欧美日韩中文在线视频 | 视频一区二区在线观看 | 久久激情五月婷婷 | 国产精品一区二区三区在线免费观看 | 97视频资源 | 欧美a视频| 麻豆观看 | 六月色播| 免费在线观看av的网站 | 玖玖玖在线观看 | 日日操日日干 | 久草在线高清视频 | 久久精品www人人爽人人 | 最近最新中文字幕视频 | 免费在线a | 色悠悠久久综合 | 欧美视频日韩视频 | 97超碰在线视 | 久插视频| 特级西西444www高清大视频 | 日韩av中文字幕在线免费观看 | 色综合咪咪久久网 | 久草精品视频在线观看 | 欧美日韩高清不卡 | 99爱国产精品 | 欧美日韩不卡一区二区 | 特级毛片在线 | 成人中文字幕+乱码+中文字幕 | 亚洲精品视频中文字幕 | 一区二区视频在线观看免费 | 欧美日韩亚洲国产一区 | 国产黄a三级三级三级三级三级 | www.com在线观看 | 久久久精品网站 | 欧美性天天| 五月激情六月丁香 | 999男人的天堂 | 成人免费影院 | 天天做天天爱天天爽综合网 | 97av.com| 久久精品国产精品亚洲精品 | 久久久www成人免费毛片 | 久久久久久网址 | 久久艹在线 | 色婷婷亚洲 | 日本一区二区高清不卡 | 国产精品白浆 | 亚洲精品免费在线观看视频 | 久久99国产精品免费网站 | 久久久久久久久福利 | 女人18片毛片90分钟 | 在线看毛片网站 | 69精品视频| 日韩精品最新在线观看 | 天天干天天操天天 | 色国产精品一区在线观看 | 欧美性色黄 | 视频精品一区二区三区 | 玖玖在线观看视频 | 成 人 黄 色视频免费播放 | 日韩一区二区三 | 国产91精品看黄网站 | 天天撸夜夜操 | 免费三级大片 | 日韩欧美高清在线观看 | 狠狠色丁香久久婷婷综合丁香 | 成人黄色片在线播放 | 亚洲精品一区二区三区新线路 | 国产第页 | 午夜视频色 | 久草精品视频 | 成人a视频片观看免费 | 成人97人人超碰人人99 | 丁香综合五月 | 成人久久18免费网站图片 | 免费在线一区二区 | 综合激情伊人 | 国产精品一区二区三区免费看 | 亚洲国产精品999 | 人人爱人人舔 | 天天干天天操天天爱 | 五月婷婷在线综合 | 欧美在线观看视频一区二区三区 | 久草免费在线观看 | 91精品免费 | 深爱婷婷激情 | 国产又粗又猛又色又黄网站 | 久久国产精品99精国产 | 综合久久网站 | 久久久国产精品久久久 | 国产午夜麻豆影院在线观看 | 国产精品欧美一区二区 | 国产精品久久久久久久免费大片 | 亚洲免费观看视频 | 插婷婷| 日韩大陆欧美高清视频区 | 中文字幕 国产视频 | 中文字幕在线观看一区二区三区 | 六月丁香在线观看 | 婷婷天天色 | 成人一级片在线观看 | 狠狠色噜噜狠狠狠合久 | 久久人人97超碰精品888 | 中文电影网 | 国产亚洲精品中文字幕 | 欧美极品裸体 | 999一区二区三区 | 在线观看黄色免费视频 | 国产免费激情久久 | 偷拍精偷拍精品欧洲亚洲网站 | 九色精品免费永久在线 | 麻豆精品传媒视频 | 中文字幕影视 | 国产精品三级视频 | 97av视频 | 亚洲精品国产综合久久 | 日日夜夜天天射 | 亚洲精品大片www | 在线日韩| 天天操夜夜拍 | 成人在线观看av | 在线观看www视频 | 不卡av在线免费观看 | 久久久久久久久久久网站 | 98超碰人人 | 亚洲1区 在线 | 日韩欧美一区视频 | 99久高清在线观看视频99精品热在线观看视频 | av天天干 | 国产91精品看黄网站 | 国产三级香港三韩国三级 | 国产麻豆精品在线观看 | 日韩精品五月天 | 国产精品9区 | 在线亚洲精品 | 国产精品九九九 | 97精品在线视频 | 五月婷婷导航 | 在线 欧美 日韩 | 99九九免费视频 | 日本不卡一区二区三区在线观看 | 日韩欧美视频一区 | 免费精品视频在线观看 | 91九色porny蝌蚪视频 | 麻花传媒mv免费观看 | av一区二区在线观看中文字幕 | 黄色毛片在线 | 国产 色| 91系列在线 | 久久久一本精品99久久精品66 | 99夜色| 亚洲a色 | 最近2019中文免费高清视频观看www99 | 亚洲国产剧情 | 国产免费观看av | 天天干天天干天天色 | 亚洲a成人v | 成人午夜影院 | 免费在线观看av电影 | 亚洲免费精彩视频 | 成年人电影免费看 | 久久精品视频3 | 91在线操 | 五月天激情视频 | 国产精品你懂的在线观看 | www.888.av | 女女av在线 | 中文字幕在线播出 | 久久精品99国产精品亚洲最刺激 | 456免费视频 | 在线观看免费高清视频大全追剧 | 91av资源在线 | 中文字幕在线观 | 久久久久久久久久免费 | 91在线视频免费观看 | 免费在线色视频 | 久草在线免 | 成人黄色在线观看视频 | 中文字幕区 | 婷婷丁香激情综合 | 亚洲天堂网站视频 | 在线看国产视频 | 成人av观看| 99热最新网址 | 久久永久免费视频 | 91麻豆视频 | 操操爽| 精品一区精品二区高清 | av中文字幕日韩 | 国内精品久久久久 | 亚洲天堂精品 | 日韩中文字幕a | 国产精品爽爽爽 | 国产白浆在线观看 | 一区二区三区高清 | 四虎国产精品永久在线国在线 | 五月婷婷在线观看视频 | 国产一级大片免费看 | 在线不卡中文字幕播放 | 日韩电影在线一区 | 久久色网站| 中文字幕人成不卡一区 | 九九热免费观看 | 91香蕉久久 | 国产专区一 | 天天爱综合 | 成人a视频片观看免费 | 在线观看免费黄视频 | 六月丁香在线观看 | 亚洲网久久 | 九九九在线观看视频 | 精品国产片 | 搡bbbb搡bbb视频 | 日韩一级黄色大片 | 综合网五月天 | 麻豆久久一区 | 欧美日韩精品网站 | av大全在线 | 亚洲理论在线观看 | 激情五月婷婷综合网 | 最近日本字幕mv免费观看在线 | 国产精品国产亚洲精品看不卡15 | 激情久久一区二区三区 | 国产午夜麻豆影院在线观看 | 最新免费中文字幕 | 国产手机在线精品 | 国产高清在线观看 | 最近中文字幕在线播放 | 亚洲精品视 |