华人问鼎 CVPR!近四成作者来自中国,清华最高产
史上最難的的CVPR2020終于來(lái)了!
由于疫情影響,今年原定于6.14開(kāi)始的線下討論會(huì)改成位于西雅圖的線上會(huì)議。
在剛剛結(jié)束的CVPR 2020 開(kāi)幕式上,悉數(shù)公布了本屆CVPR最佳論文、最佳學(xué)生論文等獎(jiǎng)項(xiàng)。值得一提的是,兩個(gè)獎(jiǎng)項(xiàng)的論文一作均為華人。
CVPR(Conference on Computer Vision and Pattern Recognition)作為全球頂級(jí)計(jì)算機(jī)會(huì)議之一,會(huì)議形式分為論文討論會(huì)和短期課程,其目的是憑借極具性?xún)r(jià)比的研究,大力推動(dòng)全球的計(jì)算機(jī)視覺(jué)行業(yè)的發(fā)展與進(jìn)步。
根據(jù)本次Accept list接收情況來(lái)看,本次共接收文章1470篇(有效提交總數(shù)為5865篇),接受率為22%,比2018年的29.6%和2019年的25%都有下降,堪稱(chēng)CVPR史上最嚴(yán)的收稿會(huì)。
由于疫情,本次會(huì)議需要線上舉行,項(xiàng)目主席Ce Liu很期待參會(huì)注冊(cè)人數(shù)能有較大增長(zhǎng),今年的注冊(cè)者,已經(jīng)超過(guò)2018年參會(huì)注冊(cè)人數(shù)。
華人作者比例高達(dá)39.2%,清華大學(xué)為最高產(chǎn)機(jī)構(gòu)
由于疫情原因,轉(zhuǎn)戰(zhàn)線上的CVPR參會(huì)注冊(cè)人數(shù)與前幾年相比有一定程度的上升,但即使如此,與去年的9200人相比仍有小幅下降。
大會(huì)開(kāi)場(chǎng)公布的數(shù)據(jù),今年參與CVPR論文的作者數(shù)量高達(dá)16955位,其中中國(guó)作者比例達(dá) 39.2%,位居第一。
在中國(guó)作者的所屬機(jī)構(gòu)排名中,清華以340名位列第一,前10個(gè)機(jī)構(gòu)中國(guó)高校占據(jù)了7席,包括上海交通大學(xué)、北京大學(xué)、浙江大學(xué)、中科大、北航、西安電子科技大學(xué)。
在接收主題方面,根據(jù)大會(huì)統(tǒng)計(jì),視覺(jué)領(lǐng)域依然是當(dāng)前最熱門(mén)的主題,遷移/low-shot/半監(jiān)督/無(wú)監(jiān)督學(xué)習(xí)緊隨其后,圖像與視頻合成、3D等也持續(xù)火熱。
最佳論文
今年的最佳論文來(lái)自牛津大學(xué)。在論文中,研究人員提出了一種無(wú)需外部監(jiān)督即可從原始單視圖圖像中學(xué)習(xí)3D變形對(duì)象類(lèi)別的方法。該方法基于自動(dòng)編碼器,能夠?qū)⒚總€(gè)輸入圖像分解為深度,反照率,視點(diǎn)和照明。
為了在不進(jìn)行監(jiān)督的情況下解開(kāi)這些組件,研究人員利用了許多對(duì)象類(lèi)別在原則上具有的對(duì)稱(chēng)結(jié)構(gòu),進(jìn)而證明,通過(guò)照明推理幫助利用物體對(duì)稱(chēng)性,即使由于陰影而觀看存在不對(duì)稱(chēng)也無(wú)礙。
除此之外,研究人員還通過(guò)預(yù)測(cè)對(duì)稱(chēng)概率圖來(lái)建模可能對(duì)稱(chēng)的物體,與模型的其他組件進(jìn)行端到端學(xué)習(xí)。
實(shí)驗(yàn)結(jié)果表明,這種方法可以非常準(zhǔn)確地恢復(fù)人臉的3D形狀,單視場(chǎng)圖像中的貓臉和汽車(chē),無(wú)需任何監(jiān)督或事先的造型模型。在基準(zhǔn)測(cè)試中,與另一種在2D圖像對(duì)應(yīng)級(jí)別上使用監(jiān)督的方法相比,我們證明了更高的準(zhǔn)確性。
本年度的最佳論文一作是來(lái)自香港科技大學(xué)2014級(jí)的本科生吳尚哲,2018年本科畢業(yè)后,吳尚哲選擇進(jìn)入了牛津大學(xué)視覺(jué)幾何組,師從歐洲計(jì)算機(jī)科學(xué)家第一人Andrew Zisserman及弟子Andrea Vedaldi,深耕計(jì)算機(jī)視覺(jué)領(lǐng)域,主要研究方向是圖像轉(zhuǎn)換與生成,目前就讀博士二年級(jí)。
最佳學(xué)生論文
今年的最佳學(xué)生論文獎(jiǎng)是《BSP-Net: Generating Compact Meshes via Binary Space Partitioning》,作者為來(lái)自西蒙弗雷澤大學(xué)和谷歌研究院的三位研究者。
這篇論文介紹了多邊形網(wǎng)格在深度學(xué)習(xí)特別是3D形狀生成中的運(yùn)用。多邊形網(wǎng)格在數(shù)字3D領(lǐng)域無(wú)處不在,但在深度學(xué)習(xí)革命中,扮演了次要角色。學(xué)習(xí)形狀生成模型的主要方法依賴(lài)于隱函數(shù),并且僅在昂貴的等值曲面處理例程之后才生成網(wǎng)格。
為了克服這些挑戰(zhàn),我們受到了計(jì)算機(jī)圖形學(xué)Binary的經(jīng)典空間數(shù)據(jù)結(jié)構(gòu)的啟發(fā)空間分區(qū)(BSP),以促進(jìn)3D學(xué)習(xí)。
BSP的核心成分是對(duì)空間進(jìn)行遞歸細(xì)分以獲得凸集。通過(guò)利用此屬性,我們?cè)O(shè)計(jì)了BSP-Net,該網(wǎng)絡(luò)可通過(guò)凸分解學(xué)習(xí)表示3D形狀。重要的是,BSPNet無(wú)需監(jiān)督,因?yàn)橛?xùn)練過(guò)程中沒(méi)有凸形分解。BSPNet訓(xùn)練網(wǎng)絡(luò)使用從在一組平面上建立的BSPtree獲得的一組凸面來(lái)重構(gòu)形狀。
通過(guò)BSPNet訓(xùn)練的凸面可以輕松提取以形成多邊形網(wǎng)格,而無(wú)需進(jìn)行等值曲面處理。生成的網(wǎng)格是緊湊的(即低聚多邊形),非常適合代表尖銳的幾何凸顯;此外,生成的是水密網(wǎng)絡(luò),易于參數(shù)化。論文結(jié)果還顯示,BSP-Net的重構(gòu)質(zhì)量與最新技術(shù)相比具有競(jìng)爭(zhēng)力,同時(shí)使用的原語(yǔ)更少。
這篇論文的一作是華人研究員Zhiqin Chen,本科畢業(yè)于上海交通大學(xué),現(xiàn)為西蒙弗雷澤大學(xué)博士一年級(jí)在讀學(xué)生。
最佳學(xué)生論文榮譽(yù)提名獎(jiǎng)
本次獲得最佳學(xué)生論文榮譽(yù)提名獎(jiǎng)的是德國(guó)馬普所和Facebook Reality Labs合作的論文:DeepCap: Monocular Human Performance Capture Using Weak Supervision。
在論文中,研究人員提出一種新穎的單目密集人體表現(xiàn)捕捉深度學(xué)習(xí)方法。該方法采用一種基于多視圖監(jiān)督的弱監(jiān)督方法進(jìn)行訓(xùn)練,完全不需要利用3D ground truth標(biāo)注來(lái)訓(xùn)練數(shù)據(jù)。
此外,網(wǎng)絡(luò)架構(gòu)基于的兩個(gè)獨(dú)立網(wǎng)絡(luò)將任務(wù)分解為姿態(tài)估計(jì)和非剛性表面變形步驟,大量的定性和定量評(píng)估表明,研究者提出的方法在質(zhì)量和魯棒性?xún)煞矫鎯?yōu)于當(dāng)前SOTA方法。
該方法的流程圖如下所示。首先,通過(guò)將稀疏多視圖2D關(guān)節(jié)檢測(cè)作為弱監(jiān)督,研究者訓(xùn)練姿態(tài)網(wǎng)絡(luò)PoseNet預(yù)測(cè)關(guān)節(jié)角度和相機(jī)相對(duì)旋轉(zhuǎn),其次,研究者訓(xùn)練變形網(wǎng)絡(luò) efNet 返回嵌入圖旋轉(zhuǎn)和平移參數(shù),從而考慮到非剛性變形。此
了訓(xùn)練變形網(wǎng)絡(luò) DefNet,研究者將多視圖 2D 關(guān)節(jié)檢測(cè)和剪影用于監(jiān)督。
本次獲得最佳學(xué)生論文榮譽(yù)提名獎(jiǎng)的論文一作為馬普所的Marc Habermann,他的主要研究方向?yàn)橛?jì)算機(jī)視覺(jué)與計(jì)算機(jī)圖形學(xué)、動(dòng)作捕捉、從RGB視頻重建非剛性變形、基于紋理的描述。
PAMI青年研究者獎(jiǎng)的兩位獲得者是Jon Barron 和 D華人研究員qing Sun。
Jon Barron在2007年畢業(yè)于多倫多大學(xué),又在2013年拿到加州大學(xué)伯克利分校的計(jì)算機(jī)科學(xué)博士學(xué)位,現(xiàn)在是一名谷歌的研究員。
Deqing Sun本科畢業(yè)于哈爾濱工業(yè)大學(xué)電子與信息工程專(zhuān)業(yè),2007年在香港中文大學(xué)獲得碩士學(xué)位,2013年在美國(guó)布朗大學(xué)拿到了計(jì)算機(jī)科學(xué)博士學(xué)位,現(xiàn)為谷歌高級(jí)研究員。
他在十年前發(fā)表的關(guān)于光溜原理的文章也被今年的CVPR評(píng)為了經(jīng)典論文。
今年的經(jīng)典論文獎(jiǎng)(Longuet-Higgins 獎(jiǎng))的獲獎(jiǎng)?wù)撐氖?由Dqing Sun、Stefan Roth 和 Michael J. Black 三位在 CPR 2010 發(fā)的《一篇有關(guān)光流原理的文章:Secrets of Optical Flow Estimation and Their Principles》。
為了紀(jì)念今年過(guò)世的華人計(jì)算機(jī)視覺(jué)宗師Tomas S. Huang(黃煦濤)教授,PAMITC 今年批準(zhǔn)設(shè)立Tomas S. Huang 紀(jì)念獎(jiǎng),從 2021 年開(kāi)始頒發(fā)。
黃煦濤先生生前是中國(guó)工程院和中國(guó)科學(xué)院“兩院”外籍院士,美國(guó)國(guó)家工程院院士,電氣電子工程師學(xué)會(huì)(IEEE)、美國(guó)光學(xué)學(xué)會(huì)、國(guó)際模式識(shí)別學(xué)會(huì)、國(guó)際光學(xué)學(xué)會(huì)(SPIE)等學(xué)會(huì)成員,
在學(xué)術(shù)界,翁巨揚(yáng)和吳郢可以稱(chēng)得上是黃煦濤先生的兩位得意門(mén)生。翁巨揚(yáng)是黃煦濤在國(guó)內(nèi)最早招收的博士生之一,曾在1992年Cresceptron項(xiàng)目中提出的“數(shù)據(jù)增強(qiáng)”和“最大化池”被廣泛應(yīng)用至今,也促進(jìn)了CNN的演化。吳郢從華中科技大學(xué)畢業(yè)后,來(lái)到UIUC在黃煦濤的指導(dǎo)下攻讀博士學(xué)位,隨后在西北大學(xué)任教,培養(yǎng)出了包括前微軟亞洲研究院首席研究員華剛在內(nèi)的多名學(xué)生。
在產(chǎn)業(yè)界,黃煦濤先生門(mén)下弟子也各路開(kāi)花,包括華為諾亞方舟計(jì)算機(jī)視覺(jué)首席科學(xué)家田奇、聯(lián)想集團(tuán)CTO芮勇、文遠(yuǎn)知行CEO韓旭、原360集團(tuán)首席科學(xué)家、依圖科技首席技術(shù)官顏水成、云從科技創(chuàng)始人周曦等。黃煦濤先生在華人計(jì)算機(jī)視覺(jué)領(lǐng)域的影響力可見(jiàn)一斑。
今年還有哪些明星論文?
Github上的的CVPR 2020開(kāi)源代碼和論文合集,已經(jīng)放出已目前已有950顆星,根據(jù)論文分成52個(gè)分類(lèi),有興趣的同學(xué)可以看看。
還有一些比較有趣的論文研究,比如Facebook AI研究,來(lái)自Georgia Gkioxari等人的超越2D圖像的視覺(jué)識(shí)別。
輸入2D圖片,輸出動(dòng)態(tài)3D建模。不僅體現(xiàn)在物品上,還體現(xiàn)在人物上。
來(lái)自微軟研究院的,老照片修復(fù)技術(shù),如果能上線使用的話,絕對(duì)是膠片達(dá)人的福音。
蘋(píng)果公司的神經(jīng)網(wǎng)絡(luò)的最小二乘法優(yōu)化算法,經(jīng)過(guò)在ImageNet上實(shí)驗(yàn),結(jié)果證明使用最小二乘量化法的精度差距確實(shí)減小了。
總結(jié)
以上是生活随笔為你收集整理的华人问鼎 CVPR!近四成作者来自中国,清华最高产的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 罗马数字怎么输入(罗马数字三和四)
- 下一篇: 每年采购 6000 吨钴,特斯拉与瑞士供