日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

小样本学习只是一场学术界自嗨吗?

發(fā)布時間:2023/12/15 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 小样本学习只是一场学术界自嗨吗? 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

?Datawhale學習?

作者:ALme,電子科技大學,編輯:極市平臺

https://www.zhihu.com/question/439865186/answer/2472023214

極市導讀

?

這兩年看見很多人,都在批評few-shot learning,覺得是學術(shù)界在自high,思考良久,感覺有必要給這個領(lǐng)域正個名~(注意,本文僅關(guān)注few-shot image classification)

這兩年看見很多人,包括我實習的mentor在內(nèi),都在批評few-shot learning,覺得是學術(shù)界在自high,思考良久,感覺有必要給這個領(lǐng)域正個名~(注意,此答案僅關(guān)注few-shot image classification)

首先,要討論few-shot learning的價值,咱得先把few-shot learning(FSL)這個問題的定位搞清楚。而要搞清楚few-shot learning的定位,咱得先把FSL和transfer learning的關(guān)系捋清楚。transfer learning大家都知道,一個典型例子就是在Imagenet訓練一個backbone,然后在另一個新的數(shù)據(jù)集上(比如cifar、cub)的訓練集微調(diào)(fine-tune)backbone,然后在這個新的數(shù)據(jù)集的測試集上對模型進行測試。那咱為啥不在新數(shù)據(jù)上從頭train一個模型呢?

我們都知道,Imagenet圖片量很大,且圖片所覆蓋域較為全面,可以近似看作對真實世界數(shù)據(jù)分布的刻畫,因此希望在ImageNet上訓練的模型能夠提取通用的圖片特征,而這種通用的特征很可能能遷移到下游一個沒有見過的圖片域。因此廣泛認為,在ImageNet(或者更大的數(shù)據(jù)集)上訓練一個backbone,然后再微調(diào)是最好的方式。這也是為什么這兩年大家如此鐘愛于超大數(shù)據(jù)預訓練模型,有監(jiān)督半監(jiān)督自監(jiān)督應(yīng)有盡有,就是想著像bert一樣造一個萬能模型解決一切任務(wù)。

transfer learning有一個區(qū)別于domain adaptation的非常關(guān)鍵的點,即訓練時的數(shù)據(jù)集和微調(diào)時的數(shù)據(jù)集的圖片不僅domain不同,category也通常是不一樣的。由于category不同,導致微調(diào)時原有的網(wǎng)絡(luò)分類層不能用了,得重新學一個;而由于domain不一樣了,backbone提取的特征也不夠discriminative了,因此需要finetune backbone。后面將看到,從這兩點將直指few-shot learning核心問題。

重點來了,transfer learning的setting,是假設(shè)我們能夠接觸到足夠多的目標數(shù)據(jù)集的labeled data的,但在實際應(yīng)用時,往往目標數(shù)據(jù)集的labeled data是不足的。舉一個我實習過程遇到的真實案例,當時遇到一個項目,是零件的異常檢測,即給定一張工業(yè)零件的圖片,判斷其是否合格。大家都知道,零件造出來往往都是正常的,出錯的概率是很低的,因此能夠拿到的異常零件圖片是很少的,當時的想法是imagenet學到的backbone直接在這些極少量的圖片上finetune,最后結(jié)果很差很差;另一個例子是醫(yī)學病情診斷,同樣的,某些病情發(fā)病率極低,能夠拿到的圖片十分稀少,如果有機會可以試一試網(wǎng)上公開的ChestX [1]數(shù)據(jù)集,在labeled data數(shù)量給定的情況,從ImageNet finetune的效果也是極差。因此,這種setting在預訓練模型十分重要的當下,是極具價值的。那么這個setting和few-shot learning有啥關(guān)系?

其實,這個在transfer learning目標域labeled data不足的setting,就是咱常說的few-shot image classification,或者也可以叫做few-shot transfer [2]。few-shot image classification早期常用的benchmark,比如miniImageNet [5],滿足了few-shot transfer learning中的category gap,而domain gap雖然有,但是不明顯。為彌補這一缺陷,后續(xù)提出了cross-domain few-shot learning的benchmark [3] 以及Meta-Dataset [4],這兩年這些benchmark發(fā)展迅速,大部分刷傳統(tǒng)benchmark的頂會論文也開始把cross-domain的效果放入論文。

這些進展使得few-shot learning與實際應(yīng)用場景的gap迅速縮小。大部分批評FSL的著重點可能都在miniImageNet上,其實,即使是miniImageNet,如果仔細觀察,也可以發(fā)現(xiàn)其實訓練集和測試集類別之間大多數(shù)是存在一個較大的gap的,比如測試集出現(xiàn)的微生物、花瓶,在訓練集很難找出類似的類。追溯批評的原因,還是大家在20年之前并沒有把few-shot learning和transfer learning的關(guān)系搞清楚,自然會覺得玩miniImageNet這種benchmark的都是在圈地自萌。只有看清楚了這層關(guān)系,才能脫離出few-shot learning原本的范圍,站在一個更高的維度思考問題本質(zhì)。令人慶幸的是,雖然水論文在這個領(lǐng)域占比較大,但仍有一部分人正在朝著正確的方向前進,這就夠了。

我們現(xiàn)在清楚了,few-shot image classification其實等價于限制目標域labeled data數(shù)量的transfer learning,那么問題來了,transfer learning基本就finetune一條路,玩不出花,為啥一旦把目標域數(shù)據(jù)量限制到很小,就出現(xiàn)了各種百花齊放的方法呢?這些方法包括但不僅限于meta-learning、conventional training、metric-based method、generation-based method、linear classification、dense-feature based method。

其實,這一問題的答案可以追溯到19年谷歌發(fā)布于CVPR的一篇論文:Do Better ImageNet Models Transfer Better?該文探究了ImageNet上訓練的模型的transfer learning效果。論文中的圖9給出了transfer learning隨著目標域labeled data數(shù)量增長時的效果變化,圖片如下:

橫軸為目標域每類labled image個數(shù),縱軸為準確率

紅色的線為finetune方法效果,綠色的線為凍住backbone,僅在特征之上用目標域數(shù)據(jù)訓練一個線性logistic分類器的效果,黑色為在目標數(shù)據(jù)集上從頭訓練一個模型。首先,黑色線效果不行,說明transfer的必要性。其次,更為有趣的是finetune和線性分類的performance在給定不同目標域數(shù)據(jù)量的差異。在目標域labeled data數(shù)據(jù)量較大情況下,finetune通常占據(jù)壓倒性優(yōu)勢,但在few-shot場景下,finetune方法往往比不過凍住backbone的線性分類方法,注意到,該論文雖然降低了每類數(shù)目,但沒有降低類別數(shù)目,而這些數(shù)據(jù)集上類別數(shù)目都很大,后來我自己做了實驗,發(fā)現(xiàn)當類別數(shù)目變小時兩種方法差異更大,這表示finetune效果與labeled data數(shù)據(jù)總量正相關(guān)。

這種現(xiàn)象,仔細思考其實很好理解,就是finetune backbone調(diào)整的參數(shù)量過多,在few-shot下很容易使得模型過擬合。這也解釋了為什么MAML這類基于finetune的方法在few-shot learning下表現(xiàn)明顯不如metric-based method等其他凍住backbone的方法。

既然不能finetune,那么理所當然地,在源域所學得的network backbone質(zhì)量就至關(guān)重要。換句話說,從backbone引導出的feature space必須足夠general,足夠generalizable。這一目標正是19-21年整個few-shot community關(guān)注的重點之一 [2, 6-8],而該目標又恰好和這兩年基于linear protocol evaluation的對比學習一致,好的,few-shot learning本質(zhì)問題至此來到了vision problem的深水區(qū):怎么學得一個泛化能力極強的visual representation,使得在遇到下游極端奇異且少量labeled data時仍表現(xiàn)良好?或者說,現(xiàn)有學得的visual representation在很奇怪的圖片上時仍然存在怎樣的問題?這些問題都是finetune打遍天下的傳統(tǒng)transfer learning不具有的,也是few-shot learning的核心問題之一。從早期的元學習,到后來metric-based pretraining(cosine classifier)以及加各種自監(jiān)督學習、蒸餾學習的loss,目標都是學一個更好的特征表示。

如果看過Big Transfer(BiT)[9]那篇文章,可能會問一個問題:是不是只要數(shù)據(jù)量足夠大,特征表示就足夠好,小樣本分類問題就解決了?回答應(yīng)該是,partially solved。首先小樣本分類效果和源域數(shù)據(jù)集大小在絕大部分目標數(shù)據(jù)集上是正相關(guān)關(guān)系,因此增大訓練數(shù)據(jù)量是一個非常好的途徑;但是,實驗發(fā)現(xiàn),這一增長在某些domain gap差距較大的數(shù)據(jù)集上,特別是實際遇到的真實應(yīng)用場景中,是有上限的,如果不能從根本探究清楚pretrained visual representation在小樣本下存在的問題,或者不使用除finetune之外的目標數(shù)據(jù)集adaptation方法,這一瓶頸看上去將無法解決。因此,few-shot image classfication這一問題有其獨特價值,與image representation learning的核心問題緊密相關(guān)。

訓練從源域?qū)W得general image representation之后,在測試時,目標域few-shot任務(wù)的所有圖片,不管是support(訓練)圖片還是query(測試)圖片,大部分方法均會先將其轉(zhuǎn)為representation再進行下一步操作。這導向另一個問題,即在給定的representation下,如何最大化利用support set少量圖片的representation構(gòu)造一個分類器,使該分類器具有良好泛化能力?把圖像represention的潛力發(fā)揮到極致的方法很多,而這直接導致了few-shot learning方法的百花齊放。比如元學習方法,從訓練開始就target這一問題,但這些元學習方法忽略了一個重要問題:訓練源數(shù)據(jù)分布和測試時的目標數(shù)據(jù)分布是不同的,而這直接導致元學習的任務(wù)同分布假設(shè)不成立,這是元學習效果不佳的重要原因之一。這里再舉另外一個例子,由于:

  • 目標域labeled data少

  • 目標域類別在訓練時沒見過

  • 因此backbone網(wǎng)絡(luò)會不知道在紛繁復雜的圖片應(yīng)該關(guān)注什么信息。比如一張圖,一個人牽著一只狗,標簽為人,但由于網(wǎng)絡(luò)在訓練時可能只把狗作為標簽(比如imagenet),因此提取特征時便關(guān)注狗去了,而不是人。為解決這類問題,dense-feature based方法應(yīng)運而生,其核心思想是backbone出來的feature不過global pooling,保留spatial信息,對比不同圖片的spatial feature map,從中找出對應(yīng)關(guān)系,這樣如果有兩張圖,其共性是人而不是狗,那通過這種人和人的對應(yīng)關(guān)系就能把狗這一confounding factor給去除。這一類方法論文如:CAN[16]、CTX[2]、DeepEMD [10]、LDAMF[17]、MCL[18]。

    可以看到,訓練學得一個good representation,和測試時從有限labeled data建立一個好的分類器在一般的任務(wù)中是可以統(tǒng)一起來的。但在few-shot learning中,隨著元學習方法的缺點不斷被挖掘,這兩點割裂開來,成為兩個獨立的問題。前者涉及vision representation的本質(zhì)問題,若為了漲效果可以照搬cv近期各自提升feature質(zhì)量的trick,比如對比學習、蒸餾等等,成為了各大cv頂會刷點必備,這些方法水一水是可以的,但要真正解決問題,還是要探究visual representation在目標域labeled data是few-shot時所存在的核心問題,這樣的研究最近是有[11-13],但很少;后者涉及如何給定pretrained feature,做到快速task adaptation,核心點是 1. 取pretrained feature之精華,去其糟粕 2. 從support set feature及目標query feature中最大化可用信息,比如從support set中找類內(nèi)共性,或者找support feature和query feature之間的對應(yīng)關(guān)系,或者從訓練集中找尋并利用和support set的相似圖片,這第二點可以統(tǒng)稱為task adaptation。

    最后安利一下meta-dataset,這個benchmark非常接近真實場景,其中multi-domain FSL的setting從根本上解決了訓練集單一domain泛化差的問題,根除了元學習方法的泛化障礙,可能能夠使得task adaptation方法更加自然、有效,是一種可能的真正解決few-shot learning的方法途徑。這里提一嘴meta-dataset存在的一個bias,即測試時shot和way普遍偏高,這導致partial fine-tune[14,15]方法重現(xiàn)江湖,但實驗后發(fā)現(xiàn)這些方法在1-shot和5-shot表現(xiàn)不佳,是值得注意的點。

    最后的最后,吐槽一下transductive few-shot learning,我是真的不理解這種setting能有什么價值,如果有人知道,請告訴我:)

    References:

    [1] ChestX-ray8: Hospital-scale Chest X-ray Database and Benchmarks on Weakly-Supervised Classification and Localization of Common Thorax Diseases. CVPR 2017.

    [2] Crosstransformers: Spatially-aware Few-shot Transfer. NeurIPS 2020.

    [3] A Broader Study of Cross-Domain Few-Shot Learning. ECCV 2020.

    [4] Meta-Dataset: A Dataset of Datasets for Learning to Learn from Few Examples. ICLR 2020.

    [5] Matching Networks for One Shot Learning. NeurIPS 2016.

    [6] Rapid learning or feature reuse? towards understanding the effectiveness of MAML. ICLR 2020.

    [7] A baseline for few-shot image classification. ICLR 2020.

    [8] Rethinking few-shot image classification: A good embedding is all you need? ECCV 2020.

    [9] Big Transfer (BiT): General Visual Representation Learning. ECCV 2020.

    [10] DeepEMD: Few-Shot Image Classification with Differentiable Earth Mover’s Distance and Structured Classifiers. CVPR 2020.

    [11] Interventional Few-Shot Learning. NeurIPS 2020.

    [12] Powering Finetuning in Few-Shot Learning: Domain-Agnostic Bias Reduction with Selected Sampling. AAAI 2022.

    [13] Z-Score Normalization, Hubness, and Few-Shot Learning. ICCV 2021.

    [14] Learning a Universal Template for Few-shot Dataset Generalization. ICML 2021.

    [15] Cross-domain Few-shot Learning with Task-specific Adapters. CVPR 2022.

    [16] Cross Attention Network for Few-shot Classification. NeurIPS 2019.

    [17] Learning Dynamic Alignment via Meta-filter for Few-shot Learning. CVPR 2021.

    [18] Learning to Affiliate: Mutual Centralized Learning for Few-shot Classification. CVPR 2022.

    干貨學習,三連

    總結(jié)

    以上是生活随笔為你收集整理的小样本学习只是一场学术界自嗨吗?的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 欧美女人天堂 | 中文字幕1区2区 | 亚洲天堂伊人 | 69视频免费在线观看 | 久久精品久久久久久久 | 潮喷失禁大喷水无码 | 中文字幕人妻丝袜乱一区三区 | 男人天堂伊人 | 亚洲综合另类小说 | 丝袜视频一区 | 成人av网站在线观看 | 91视频免费在线 | 黑色丝袜吻戏亲胸摸腿 | 欧洲午夜精品 | 黄色小视频在线免费观看 | 日韩精品久久一区 | 一区二区三区欧美精品 | 国产成人精品免费网站 | 午夜精品久久久久久久久 | 午夜精品偷拍 | 国产啊v在线 | 91久久精品日日躁夜夜躁欧美 | 日韩成人在线视频观看 | 欧美专区第二页 | 免费不卡av在线 | 色婷五月 | 先锋av资源网站 | 一边摸一边做爽的视频17国产 | 久久日视频 | 国产有码视频 | 亚洲精品天堂成人片av在线播放 | 国产一区二区h | 久久久久亚洲av片无码v | 久久综合欧美 | 欧美激情在线 | 好吊操这里有精品 | 精品一区二区视频在线观看 | 波多野结衣电影免费观看 | 狠狠干狠狠撸 | 亚洲成人av一区二区 | 欧美成人免费大片 | 色婷婷久久五月综合成人 | 亚洲欧美日韩一区 | 免费在线观看成人av | 久久久97| 国产精品99久久久久久久女警 | 男女午夜激情 | 日本乱码一区二区 | 国产一级免费 | 欧美成人三级伦在线观看 | 在线观看国产三级 | 国内自拍青青草 | 自拍视频一区二区 | 嫩草影院菊竹影院 | 欧美69囗交视频 | 肉丝美足丝袜一区二区三区四 | 天天爽夜夜 | 少妇太爽了太深了太硬了 | 人av在线| 9.1成人看片免费版 日韩经典在线 | 欧美综合成人 | 日韩一二三四区 | 91av在线视频观看 | 免费中文字幕日韩欧美 | 91嫩草欧美久久久九九九 | 欧美日韩国产中文 | 国产粉嫩呻吟一区二区三区 | 国产在线视频你懂的 | 美日毛片| 亚洲综合欧美综合 | 亚洲av区无码字幕中文色 | 国产亚洲在线观看 | 一起艹在线观看 | 被灌满精子的波多野结衣 | 91精品福利 | 又黄又爽又色的视频 | 浪漫樱花在线观看高清动漫 | 啪啪网免费 | 波多野结衣视频一区二区 | a国产精品 | 亚洲片国产一区一级在线观看 | 五月婷婷丁香花 | 天天色影| 午夜av片 | 中国女人毛片 | 中文字幕激情 | 日本丰满少妇 | 亚洲人一区二区三区 | 亚洲视频一区 | 韩国特级毛片 | 一区二区高潮 | 日韩av无码一区二区三区 | 国产亚洲自拍一区 | 少妇精品一区二区三区 | 亚洲a在线视频 | 久久深夜 | 亚洲三级在线免费观看 | 少妇太紧太爽又黄又硬又爽 | 欧美日韩精品亚洲精品 |