日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Res2Net 算法的介绍

發布時間:2023/12/14 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Res2Net 算法的介绍 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

博客:使用pytorch搭建自己的網絡之Res2Net_綠柳山莊趙公子的博客-CSDN博客

官方:Res2Net — PaddleEdu documentation

1. 模型介紹?

2020年,南開大學程明明組提出了一種面向目標檢測任務的新模塊Res2Net。并且其論文已被TPAMI2020錄用。Res2Net和ResNeXt一樣,是ResNet的變體形式,只不過Res2Net不止提高了分類任務的準確率,還提高了檢測任務的精度。Res2Net的新模塊可以和現有其他優秀模塊輕松整合,在不增加計算負載量的情況下,在ImageNet、CIFAR-100等數據集上的測試性能超過了ResNet。因為模型的殘差塊里又有殘差連接,所以取名為Res2Net。

2. 模型結構?

模型結構看起來很簡單,將輸入的特征x,split為k個特征,第i+1(i = 0, 1, 2,…,k-1) 個特征經過3×3卷積后以殘差連接的方式融合到第 i+2 個特征中。這就是Res2Net的主要結構。那么這樣做的目的是為什么呢?能夠有什么好處呢? 答案就是多尺度卷積。多尺度特征在檢測任務中一直是很重要的,自從空洞卷積提出以來,基于空洞卷積搭建的多尺度金字塔模型在檢測任務上取得里程碑式的效果。不同感受野下獲取的物體的信息是不同的,小的感受野可能會看到更多的物體細節,對于檢測小目標也有很大的好處,而大的感受野可以感受物體的整體結構,方便網絡定位物體的位置,細節與位置的結合可以更好地得到具有清晰邊界的物體信息,因此,結合了多尺度金字塔的模型往往能獲得很好地效果。在Res2Net中,特征k2經過3×3卷積后被送入x3所在的處理流中,k2再次被3×3的卷積優化信息,兩個3×3的卷積相當于一個5×5的卷積。那么,k3就想當然與融合了3×3的感受野和5×5的感受野處理后的特征。以此類推,7×7的感受野被應用在k4中。就這樣,Res2Net提取多尺度特征用于檢測任務,以提高模型的準確率。在這篇論文中,s是比例尺寸的控制參數,也就是可以將輸入通道數平均等分為多個特征通道。s越大表明多尺度能力越強,此外一些額外的計算開銷也可以忽略。

3. 模型實現?

Res2Net與ResNet的模型結構一致,主要差別在于block的搭建,因此這里用paddle框架來實現block的代碼

class ConvBNLayer(nn.Layer):def __init__(self,num_channels,num_filters,filter_size,stride=1,groups=1,is_vd_mode=False,act=None,name=None, ):super(ConvBNLayer, self).__init__()self.is_vd_mode = is_vd_modeself._pool2d_avg = AvgPool2D(kernel_size=2, stride=2, padding=0, ceil_mode=True)self._conv = Conv2D(in_channels=num_channels,out_channels=num_filters,kernel_size=filter_size,stride=stride,padding=(filter_size - 1) // 2,groups=groups,weight_attr=ParamAttr(name=name + "_weights"),bias_attr=False)if name == "conv1":bn_name = "bn_" + nameelse:bn_name = "bn" + name[3:]self._batch_norm = BatchNorm(num_filters,act=act,param_attr=ParamAttr(name=bn_name + '_scale'),bias_attr=ParamAttr(bn_name + '_offset'),moving_mean_name=bn_name + '_mean',moving_variance_name=bn_name + '_variance')def forward(self, inputs):if self.is_vd_mode:inputs = self._pool2d_avg(inputs)y = self._conv(inputs)y = self._batch_norm(y)return yclass BottleneckBlock(nn.Layer):def __init__(self,num_channels1,num_channels2,num_filters,stride,scales,shortcut=True,if_first=False,name=None):super(BottleneckBlock, self).__init__()self.stride = strideself.scales = scalesself.conv0 = ConvBNLayer(num_channels=num_channels1,num_filters=num_filters,filter_size=1,act='relu',name=name + "_branch2a")self.conv1_list = []for s in range(scales - 1):conv1 = self.add_sublayer(name + '_branch2b_' + str(s + 1),ConvBNLayer(num_channels=num_filters // scales,num_filters=num_filters // scales,filter_size=3,stride=stride,act='relu',name=name + '_branch2b_' + str(s + 1)))self.conv1_list.append(conv1)self.pool2d_avg = AvgPool2D(kernel_size=3, stride=stride, padding=1)self.conv2 = ConvBNLayer(num_channels=num_filters,num_filters=num_channels2,filter_size=1,act=None,name=name + "_branch2c")if not shortcut:self.short = ConvBNLayer(num_channels=num_channels1,num_filters=num_channels2,filter_size=1,stride=1,is_vd_mode=False if if_first else True,name=name + "_branch1")self.shortcut = shortcutdef forward(self, inputs):y = self.conv0(inputs)xs = paddle.split(y, self.scales, 1)ys = []for s, conv1 in enumerate(self.conv1_list):if s == 0 or self.stride == 2:ys.append(conv1(xs[s]))else:ys.append(conv1(xs[s] + ys[-1]))if self.stride == 1:ys.append(xs[-1])else:ys.append(self.pool2d_avg(xs[-1]))conv1 = paddle.concat(ys, axis=1)conv2 = self.conv2(conv1)if self.shortcut:short = inputselse:short = self.short(inputs)y = paddle.add(x=short, y=conv2)y = F.relu(y)return y

4. 模型特點?

  • 可與其他結構整合,如SENEt, ResNeXt, DLA等,從而增加準確率。

  • 計算負載不增加,特征提取能力更強大。

  • 5. 模型指標?

    ImageNet分類效果如下圖

    Res2Net-50就是對標ResNet50的版本。

    Res2Net-50-299指的是將輸入圖片裁剪到299×299進行預測的Res2Net-50,因為一般都是裁剪或者resize到224×224。

    Res2NeXt-50為融合了ResNeXt的Res2Net-50。

    Res2Net-DLA-60指的是融合了DLA-60的Res2Net-50。

    Res2NeXt-DLA-60為融合了ResNeXt和DLA-60的Res2Net-50。

    SE-Res2Net-50 為融合了SENet的Res2Net-50。

    blRes2Net-50為融合了Big-Little Net的Res2Net-50。

    Res2Net-v1b-50為采取和ResNet-vd-50一樣的處理方法的Res2Net-50。

    Res2Net-200-SSLD為Paddle使用簡單的半監督標簽知識蒸餾(SSLD,Simple Semi-supervised Label Distillation)的方法來提升模型效果得到的。具體詳情可以見半監督知識蒸餾

    可見,Res2Net都取得了十分不錯的成績。

    COCO數據集效果如下圖

    Res2Net-50的各種配置都比ResNet-50高。

    顯著目標檢測數據集指標效果如下圖

    ECSSD、PASCAL-S、DUT-OMRON、HKU-IS都是顯著目標檢測任務中現在最為常用的測試集,顯著目標檢測任務的目的就是分割出圖片中的顯著物體,并用白色像素點表示,其他背景用黑色像素點表示。從圖中可以看出來,使用Res2Net作為骨干網絡,效果比ResNet有了很大的提升

    總結

    以上是生活随笔為你收集整理的Res2Net 算法的介绍的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 久草视频这里只有精品 | 日本一二三不卡 | 影音先锋成人 | 少妇看片 | 91视色 | 日本aa视频 | 性猛交富婆╳xxx乱大交麻豆 | 91精品国产aⅴ一区二区 | 久久久久视| 深爱激情丁香 | 蜜桃香蕉视频 | 正在播放av | 西西久久 | 日韩素人| 久操视频免费看 | 欧美激情国产一区 | 亚洲av毛片成人精品 | 又大又粗又爽18禁免费看 | 国产999视频| 欧美不卡二区 | 三上悠亚人妻中文字幕在线 | 欧美在线视频免费播放 | 久色网站| 国产不卡在线视频 | 成人免费无码大片a毛片 | 美女啪啪动态图 | 久久激情片 | 国产高清精品软件丝瓜软件 | 国产精品欧美在线 | 黄色小说在线视频 | 亚洲自拍偷拍精品视频 | 偷拍夫妻性生活 | 亚洲一区h | 婷婷综合在线视频 | 超91在线| 国产又大又粗又硬 | 按摩害羞主妇中文字幕 | 黑人精品一区二区三区不 | av图片在线 | 日日射日日操 | 欧美大片免费播放器 | 国产夫妻自拍av | 久久精品视频播放 | 污片免费在线观看 | 精品伦一区二区三区 | 自拍偷拍亚洲综合 | 成片免费观看 | 97精品一区 | aaa国产 | 国产偷人妻精品一区二区在线 | 国模精品一区 | 国产精品久久午夜夜伦鲁鲁 | av观看网址 | 羞辱极度绿帽vk | 国产精品久久久免费观看 | 特级西西人体444www高清大胆 | 日韩有码av | 麻豆av在线免费观看 | 中国丰满人妻videoshd | 蜜桃臀aⅴ精品一区二区三区 | 日本少妇吞精囗交视频 | 绿帽av| 成人欧美精品一区二区 | 日韩欧美三区 | 最新啪啪网站 | 女人脱下裤子让男人桶 | 免费看女生裸体视频 | 国产后入又长又硬 | 中文字幕一区二区在线观看视频 | 黄网站免费在线观看 | 久久久久亚洲av无码专区体验 | 老司机免费在线视频 | 亚洲欧美日韩国产成人精品影院 | 内射一区二区三区 | 国产精品乱码 | 免费的毛片 | 伊人9999| 少妇欧美激情一区二区三区 | 日韩在线一卡二卡 | 男女互操| 魔性诱惑 | 男女性网站 | 国产精品主播视频 | 国产精品久久久免费视频 | 亚洲专区av | 少妇久久久久久被弄高潮 | 大陆熟妇丰满多毛xxxⅹ | 亚洲第一色在线 | 欧美无吗 | 久久曹| 国产xxxxxxxxx | 欧美视频一区二区三区四区 | 国产真人无码作爱视频免费 | 日本福利社 | 欧美精品久久久久久久久 | 无码人妻久久一区二区三区不卡 | 69视频在线观看免费 | 免费av中文字幕 | 小萝莉末成年一区二区 |