ms查约束具体代码_ECCV 2020附代码论文合集(CNN,图像分割)
ECCV 2020 共接受 1361 篇論文,涵蓋了包括目標(biāo)檢測(cè),語(yǔ)義分割,圖像分類,點(diǎn)云,圖像重建,神經(jīng)網(wǎng)絡(luò)模型等熱門(mén)主題。對(duì)計(jì)算機(jī)視覺(jué)感興趣的小伙伴們也許你們已經(jīng)閱讀完論文并對(duì)論文的內(nèi)容躍躍欲試了吧!畢竟紙上得來(lái)終覺(jué)淺!這里 AMnier 整理了計(jì)算機(jī)視覺(jué)相關(guān)熱門(mén)主題下的附帶代碼的精選論文,快來(lái)尋找自己感興趣的論文并親自在自己的機(jī)器上實(shí)現(xiàn)吧!
CNN
1 WeightNet: Revisiting the Design Space of Weight Networks作者:Ningning Ma,Xiangyu Zhang,Jiawei Huang,Jian Sun機(jī)構(gòu):香港科技大學(xué),MEGVI研究簡(jiǎn)介:本文提出了一個(gè)概念上簡(jiǎn)單、靈活和有效的權(quán)值生成網(wǎng)絡(luò)框架。文中的方法是通用的,它將當(dāng)前兩個(gè)不同且非常有效的SENet和CondConv統(tǒng)一到一個(gè)權(quán)重空間的框架中。這個(gè)稱為WeightNet的方法通過(guò)簡(jiǎn)單地在注意力激活層上添加一個(gè)分組的完全連接層來(lái)推廣這兩個(gè)方法。作者使用完全由(分組)完全連接層組成的WeightNet直接輸出卷積權(quán)重。WeightNet在內(nèi)核空間而不是特征空間上訓(xùn)練起來(lái)很容易,而且節(jié)省內(nèi)存。由于靈活性,他們的方法在ImageNet和COCO檢測(cè)任務(wù)上都優(yōu)于現(xiàn)有的方法,實(shí)現(xiàn)了更好的精度浮點(diǎn)和精度參數(shù)權(quán)衡。該框架在柔性權(quán)重空間上具有進(jìn)一步提高性能的潛力。
論文鏈接:https://www.aminer.cn/pub/5f1ab5ba91e011c09af1b58b/代碼地址:https://github.com/megvii-model/WeightNet
2 Feature Pyramid Transformer作者:Dong Zhang,Hanwang Zhang,Jinhui Tang,Meng Wang,Xiansheng Hua,Qianru Sun機(jī)構(gòu):南京科技大學(xué),南洋理工大學(xué)簡(jiǎn)介:跨空間和尺度的特征交互是現(xiàn)代視覺(jué)識(shí)別系統(tǒng)的基礎(chǔ),因?yàn)樗鼈円肓擞幸娴囊曈X(jué)環(huán)境。傳統(tǒng)上,空間上下文被被動(dòng)地隱藏在CNN不斷增加的接受域中,或者被非局部卷積主動(dòng)編碼。然而,非局部空間相互作用并不是跨尺度的,因此它們無(wú)法捕捉到不同尺度上物體(或部件)的非局部上下文。為此,作者提出了一種跨空間和尺度的全主動(dòng)特征交互,稱為特征金字塔變換器(FPT)。它通過(guò)使用三個(gè)特殊設(shè)計(jì)的自層、自上而下和自下而上的交互方式,將任何一個(gè)特征金字塔轉(zhuǎn)換成另一個(gè)大小相同但上下文更豐富的特征金字塔。FPT作為一種通用的可視化主干,具有合理的計(jì)算開(kāi)銷。在實(shí)例級(jí)(即對(duì)象檢測(cè)和實(shí)例分割)和像素級(jí)分割任務(wù)中進(jìn)行了大量的實(shí)驗(yàn),使用各種主干網(wǎng)和頭部網(wǎng)絡(luò),觀察到在所有基線和最新方法上的一致性改進(jìn)。
論文鏈接:https://www.aminer.cn/pub/5f16b98491e011b48ae94181/代碼鏈接:https://github.com/ZHANGDONG-NJUST/FPT
3 Dynamic Group Convolution for Accelerating Convolutional Neural Networks作者:Zhuo Su,Linpu Fang,Wenxiong Kang,Dewen Hu,Matti Pietik?inen,Li Liu機(jī)構(gòu):奧盧大學(xué),華南理工大學(xué)簡(jiǎn)介:用群卷積代替常規(guī)卷積可以顯著提高現(xiàn)代深卷積網(wǎng)絡(luò)的計(jì)算效率,在緊湊型網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)中得到了廣泛的應(yīng)用。然而,現(xiàn)有的群卷積會(huì)永久性地切斷某些連接,從而破壞原有的網(wǎng)絡(luò)結(jié)構(gòu),導(dǎo)致顯著的精度下降。在這篇論文中,作者提出動(dòng)態(tài)群組卷積(DGC),它可以在每個(gè)群組內(nèi),針對(duì)個(gè)別樣本,自適應(yīng)地選取輸入通道的哪一部分連接。具體來(lái)說(shuō),為每組配備一個(gè)小的特征選擇器,以根據(jù)輸入圖像自動(dòng)選擇最重要的輸入通道。多個(gè)組可以自適應(yīng)地為每個(gè)輸入圖像捕獲豐富且互補(bǔ)的視覺(jué)/語(yǔ)義特征。DGC保留了原有的網(wǎng)絡(luò)結(jié)構(gòu),同時(shí)具有與傳統(tǒng)群卷積相似的計(jì)算效率。在CIFAR-10、CIFAR-100和ImageNet等多個(gè)圖像分類基準(zhǔn)上進(jìn)行了大量的實(shí)驗(yàn),結(jié)果表明該算法優(yōu)于現(xiàn)有的群卷積技術(shù)和動(dòng)態(tài)執(zhí)行方法。
論文鏈接:https://www.aminer.cn/pub/5f06f19391e0117f54657d71/代碼地址:https://github.com/zhuogege1943/dgc
4 Learning to Learn Parameterized Classification Networks for Scalable Input Images作者:Duo Li,Anbang Yao,Qifeng Chen機(jī)構(gòu):香港科技大學(xué),Intel實(shí)驗(yàn)室簡(jiǎn)介:卷積神經(jīng)網(wǎng)絡(luò)對(duì)輸入分辨率的變化不具有可預(yù)測(cè)的識(shí)別行為。這就阻止了在特定模型的不同輸入圖像分辨率上進(jìn)行部署的可行性。為了在運(yùn)行時(shí)實(shí)現(xiàn)高效、靈活的圖像分類,作者使用元學(xué)習(xí)器為不同的輸入尺度生成主網(wǎng)絡(luò)的卷積權(quán)值,并在每個(gè)尺度上維護(hù)私有化的批量規(guī)范化層。為了提高訓(xùn)練性能,他們進(jìn)一步利用基于不同輸入分辨率的飛越模型預(yù)測(cè)的知識(shí)蒸餾。與單獨(dú)訓(xùn)練的模型相比,學(xué)習(xí)后的元網(wǎng)絡(luò)能夠動(dòng)態(tài)地參數(shù)化主網(wǎng)絡(luò)以作用于任意大小的輸入圖像,具有一致的更好的精度。在ImageNet上的大量實(shí)驗(yàn)表明,在自適應(yīng)推理過(guò)程中,本文的方法實(shí)現(xiàn)了更高的精度和效率的折衷。通過(guò)切換可執(zhí)行輸入分辨率,該方法可以滿足不同資源受限環(huán)境下的快速自適應(yīng)要求。
論文鏈接:https://www.aminer.cn/pub/5f0d8a3191e011047aff990f/代碼地址:https://github.com/d-li14/SAN
5 Rethinking Bottleneck Structure for Efficient Mobile Network Design作者:Zhou Daquan,Qibin Hou,Yunpeng Chen,Jiashi Feng,Shuicheng Yan機(jī)構(gòu):新加坡國(guó)立大學(xué),依圖科技簡(jiǎn)介:反向剩余塊是近年來(lái)移動(dòng)網(wǎng)絡(luò)體系結(jié)構(gòu)設(shè)計(jì)的主流。它通過(guò)引入反向殘差學(xué)習(xí)和使用線性瓶頸兩種設(shè)計(jì)規(guī)則來(lái)改變傳統(tǒng)的剩余瓶頸。本文對(duì)這種設(shè)計(jì)變更的必要性進(jìn)行了反思,發(fā)現(xiàn)這種變更可能帶來(lái)信息丟失和梯度混淆的風(fēng)險(xiǎn)。因此,我們建議翻轉(zhuǎn)結(jié)構(gòu)并提出一種新的瓶頸設(shè)計(jì),稱為沙漏塊,在更高的維度上執(zhí)行身份映射和空間變換,從而有效地減少信息丟失和梯度混淆。大量的實(shí)驗(yàn)表明,與一般的觀點(diǎn)不同,這種瓶頸結(jié)構(gòu)比倒置的瓶頸結(jié)構(gòu)對(duì)移動(dòng)網(wǎng)絡(luò)更為有利。在ImageNet分類中,通過(guò)簡(jiǎn)單地用我們的沙漏塊代替倒立的殘差塊而不增加參數(shù)和計(jì)算量,分類精度比MobileNetV2提高1.7%以上。在pascalvoc2007測(cè)試集上,觀察到在目標(biāo)檢測(cè)方面也有0.9%的mAP改進(jìn)。通過(guò)將其加入神經(jīng)結(jié)構(gòu)搜索方法DARTS的搜索空間,進(jìn)一步驗(yàn)證了沙漏塊的有效性。經(jīng)過(guò)25%的參數(shù)簡(jiǎn)化,分類精度比以前的DARTS模型提高了0.13%。
論文鏈接:https://www.aminer.cn/pub/5f04499291e0114d4aaa4986/代碼地址:https://github.com/zhoudaquan/rethinking_bottleneck_design
6 MutualNet: Adaptive ConvNet via Mutual Learning from Network Width and Resolution作者:Taojiannan Yang,Sijie Zhu,Chen Chen,Shen Yan,Mi Zhang,Andrew Willis機(jī)構(gòu):北加利福利亞大學(xué),密歇根州立大學(xué)簡(jiǎn)介:本文提出了寬度-分辨率相互學(xué)習(xí)的方法(MutualNet),根據(jù)動(dòng)態(tài)的資源約束來(lái)訓(xùn)練網(wǎng)絡(luò),實(shí)現(xiàn)運(yùn)行時(shí)自適應(yīng)的準(zhǔn)確率-效率的平衡。該方法利用不同的寬度和輸入分辨率,訓(xùn)練了多個(gè)子網(wǎng)絡(luò),每個(gè)網(wǎng)絡(luò)都互相學(xué)習(xí)多尺度的特征表示。相對(duì)于目前SOTA的自適應(yīng)網(wǎng)絡(luò) US-Net,本文方法在ImageNet上取得了更高的top-1準(zhǔn)確率,要比最優(yōu)的復(fù)合尺度的MobileNet和EfficientNet 高1.5%1.5%1.5%。在COCO目標(biāo)檢測(cè)、實(shí)例分割和遷移學(xué)習(xí)任務(wù)上,該方法也進(jìn)行了驗(yàn)證。MutualNet的訓(xùn)練策略可以提升單個(gè)網(wǎng)絡(luò)的性能,在效率(GPU搜索時(shí)間:1500 vs. 0)和準(zhǔn)確率方面都顯著超過(guò)了AutoAugmentation。
論文鏈接:https://aminer.cn/pub/5d9323ea3a55ac8695a91349代碼地址:https://github.com/taoyang1122/MutualNet
7 PSConv: Squeezing Feature Pyramid into One Compact Poly-Scale Convolutional Layer作者:Duo Li,Anbang Yao,Qifeng Chen機(jī)構(gòu):香港科技大學(xué),intel實(shí)驗(yàn)室簡(jiǎn)介:盡管卷積神經(jīng)網(wǎng)絡(luò)(CNNs)具有強(qiáng)大的建模能力,但它往往具有尺度敏感性。為了提高cnn對(duì)尺度方差的魯棒性,在現(xiàn)有的解決方案中,基于不同層次或?yàn)V波器的多尺度特征融合受到了廣泛的關(guān)注,而忽略了更細(xì)粒度的核空間。我們通過(guò)在更細(xì)的粒度中利用多尺度特性來(lái)彌補(bǔ)這一遺憾。所提出的卷積運(yùn)算稱為多尺度卷積(PSConv),它混合了膨脹率的頻譜,并巧妙地將其分配到每個(gè)濾波器關(guān)于單個(gè)卷積層的各個(gè)卷積核中。具體地說(shuō),膨脹率沿著濾波器的輸入和輸出通道的軸周期性地變化,以一種簡(jiǎn)潔的方式將各種尺度上的特征聚集起來(lái)。PSConv可能是許多主流CNN主干網(wǎng)中香草卷積的一個(gè)替代品,允許在不引入額外參數(shù)和計(jì)算復(fù)雜性的情況下進(jìn)行更好的表示學(xué)習(xí)。在ImageNet和MS-COCO基準(zhǔn)測(cè)試上的綜合實(shí)驗(yàn)驗(yàn)證了PSConv的優(yōu)越性能。
論文鏈接:https://www.aminer.cn/pub/5f0d8a7491e011047aff9919/代碼地址:https://github.com/d-li14/PSConv
圖像分類
1 Learning To Classify Images Without Labels作者:Van Gansbeke Wouter,Vandenhende Simon,Georgoulis Stamatios,Proesmans Marc,Van Gool Luc機(jī)構(gòu):KU Leuven/ESAT-PSI,蘇黎世聯(lián)邦理工學(xué)院簡(jiǎn)介:有沒(méi)有可能在不使用地面真相注釋的情況下自動(dòng)分類圖像?或者,即使是類本身,也不是先驗(yàn)知識(shí)嗎?這些仍然是計(jì)算機(jī)視覺(jué)中的重要問(wèn)題。有幾種方法試圖以端到端的方式解決這個(gè)問(wèn)題。在本文中,作者偏離了最近的工作,提出了一種將特征學(xué)習(xí)和聚類分離的兩步方法。首先,利用表征學(xué)習(xí)中的自監(jiān)督任務(wù)來(lái)獲得語(yǔ)義上有意義的特征。第二,在可學(xué)習(xí)的聚類方法中,使用所獲得的特征作為先驗(yàn)。在這樣做的時(shí)候,去除了集群學(xué)習(xí)依賴于低級(jí)特征的能力,這是當(dāng)前端到端學(xué)習(xí)方法中存在的。實(shí)驗(yàn)結(jié)果表明,本文的分類準(zhǔn)確率大大超過(guò)了現(xiàn)有的分類方法,特別是CIFAR10為+26.9%,CIFAR100-20為+21.5%,STL10為+11.7%。此外,在ImageNet上的結(jié)果表明,本文的方法是第一個(gè)能夠很好地?cái)U(kuò)展到200個(gè)隨機(jī)選擇的類,獲得69.3%的top-1和85.5%的top-5準(zhǔn)確率,并且在完全監(jiān)督的方法下,差異小于7.5%。
論文鏈接:https://www.aminer.cn/pub/5ece3bcb91e011dc23c22359/
代碼地址:https://github.com/wvangansbeke/Unsupervised-Classification
AMiner 會(huì)議智圖開(kāi)放平臺(tái) ECCV 2020 專題了解會(huì)議的精彩內(nèi)容,其內(nèi)容包括論文、作者、華人學(xué)者、一作華人學(xué)生、論文 PPT 和視頻等多維分析服務(wù),是參會(huì)學(xué)者的會(huì)議智能助理。
頂會(huì)專題鏈接:https://www.aminer.cn/conf/eccv2020
總結(jié)
以上是生活随笔為你收集整理的ms查约束具体代码_ECCV 2020附代码论文合集(CNN,图像分割)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Git 实用技巧记录,看这篇你就明白了!
- 下一篇: mos 控制交流_电机控制器母线电容的设