日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

迁移学习及领域自适应 Transfer Learning & Domain Adaptation

發(fā)布時間:2023/12/13 综合教程 49 生活家
生活随笔 收集整理的這篇文章主要介紹了 迁移学习及领域自适应 Transfer Learning & Domain Adaptation 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

文章內(nèi)容主要整理自Sinno Jialin Pan and Qiang Yang的論文《A survey on transfer Learning》。

1 遷移學(xué)習(xí)提出的背景及歷史

1.1、遷移學(xué)習(xí)提出背景

在機器學(xué)習(xí)、深度學(xué)習(xí)和數(shù)據(jù)挖掘的大多數(shù)任務(wù)中,我們都會假設(shè)training和inference時,采用的數(shù)據(jù)服從相同的分布(distribution)、來源于相同的特征空間(feature space)。但在現(xiàn)實應(yīng)用中,這個假設(shè)很難成立,往往遇到一些問題:

1、帶標記的訓(xùn)練樣本數(shù)量有限。比如,處理A領(lǐng)域(target domain)的分類問題時,缺少足夠的訓(xùn)練樣本。同時,與A領(lǐng)域相關(guān)的B(source domain)領(lǐng)域,擁有大量的訓(xùn)練樣本,但B領(lǐng)域與A領(lǐng)域處于不同的特征空間或樣本服從不同的分布。

2、數(shù)據(jù)分布會發(fā)生變化。數(shù)據(jù)分布與時間、地點或其他動態(tài)因素相關(guān),隨著動態(tài)因素的變化,數(shù)據(jù)分布會發(fā)生變化,以前收集的數(shù)據(jù)已經(jīng)過時,需要重新收集數(shù)據(jù),重建模型。

這時,知識遷移(knowledge transfer)是一個不錯的選擇,即把B領(lǐng)域中的知識遷移到A領(lǐng)域中來,提高A領(lǐng)域分類效果,不需要花大量時間去標注A領(lǐng)域數(shù)據(jù)。遷移學(xué)習(xí),做為一種新的學(xué)習(xí)范式,被提出用于解決這個問題。

1.2 遷移學(xué)習(xí)發(fā)展歷史

遷移學(xué)習(xí)的研究來源于一個觀測:人類可以將以前的學(xué)到的知識應(yīng)用于解決新的問題,更快的解決問題或取得更好的效果。遷移學(xué)習(xí)被賦予這樣一個任務(wù):從以前的任務(wù)當(dāng)中去學(xué)習(xí)知識(knowledge)或經(jīng)驗,并應(yīng)用于新的任務(wù)當(dāng)中。換句話說,遷移學(xué)習(xí)目的是從一個或多個源任務(wù)(source tasks)中抽取知識、經(jīng)驗,然后應(yīng)用于一個目標領(lǐng)域(target domain)當(dāng)中去。

自1995年以來,遷移學(xué)習(xí)吸引了眾多的研究者的目光,遷移學(xué)習(xí)有很多其他名字:學(xué)習(xí)去學(xué)習(xí)(Learning to learn)、終身學(xué)習(xí)(life-long learning)、推導(dǎo)遷移(inductive transfer)、知識強化(knowledge consolidation)、上下文敏感性學(xué)習(xí)(context-sensitive learning)、基于知識的推導(dǎo)偏差(knowledge-based inductive bias)、累計/增量學(xué)習(xí)(increment / cumulative learning)等。

2 遷移學(xué)習(xí)中的符號及概念的定義

2.1、符號定義

領(lǐng)域(domain)和任務(wù)(task)定義:

領(lǐng)域由兩個部分組成:特征空間(feature space)X和特征空間的邊緣分布P(x),其中,x={x1,x2......xn} 屬于X。如果兩個領(lǐng)域不同,它們的特征空間或邊緣概率分布不同。領(lǐng)域表示成D={X,P(x)}。

任務(wù)組成:給定一個領(lǐng)域D={X,P(x)}的情況下,一個任務(wù)也包含兩個部分:標簽空間Y和一個目標預(yù)測函數(shù)f(.)。一個任務(wù)表示為:T={Y,f(.)}。目標預(yù)測函數(shù)不能被直接觀測,但可以通過訓(xùn)練樣本學(xué)習(xí)得到。從概率論角度來看,目標預(yù)測函數(shù)f(.)可以表示為P(Y|X)。任務(wù)表示成T={Y,P(Y|X)}

一般情況下,只考慮只存在一個source domain Ds 和一個target domain Dt的情況。其中,源領(lǐng)域Ds = {(xs1,ys1),(xs2,ys2)......(xsns,ysns)},xsi 屬于Xs,表示源領(lǐng)域的觀測樣本,ysi屬于Ys,表示源領(lǐng)域觀測樣本xsi對應(yīng)的標簽。目標領(lǐng)域Dt = {(xt1,yt1),(xt2,yt2).......(xtnt,ytnt)},xti屬于Xt,表示目標領(lǐng)域觀測樣本,ysi屬于Yt,表示目標領(lǐng)域xti對應(yīng)的輸出。通常情況下,源領(lǐng)域觀測樣本數(shù)目ns與目標領(lǐng)域觀測樣本數(shù)目nt存在如下關(guān)系:1<= nt << ns。

2.2、遷移學(xué)習(xí)定義

基于以上的符號定義,給出正式的遷移學(xué)習(xí)的定義:在給定源領(lǐng)域Ds和源領(lǐng)域?qū)W習(xí)任務(wù)Ts、目標領(lǐng)域Dt和目標領(lǐng)域任務(wù)Tt的情況,且Ds 不等于Dt或Ts不等于Tt,情況下;遷移學(xué)習(xí)使用源領(lǐng)域Ds和Ts中的知識提升或優(yōu)化目標領(lǐng)域Dt中目標預(yù)測函數(shù)ft(.)的學(xué)習(xí)效果。

通過以上的定義可以發(fā)現(xiàn):

1)、領(lǐng)域D=(X,P(x)),當(dāng)源和目標領(lǐng)域D不同時,存在兩種情況:(1)Xs不等于XT,源領(lǐng)域和目標領(lǐng)域的特征空間不同;(2)P(xs)不等于P(xt),即源空間和目標空間的特征空間相同,但觀測樣本X的邊緣分布不同。

2)任務(wù)T={Y,P(Y|X)},當(dāng)源和目標領(lǐng)域T不同時,存在兩種情況:(1)Ys不等于Yt,源領(lǐng)域的標簽空間與目標領(lǐng)域的標簽空間不同;(2)P(Ys|Xs)不等于P(Yt|Xt),即源領(lǐng)域和目標領(lǐng)域的條件概率分布不同。

3 遷移學(xué)習(xí)的分類

3.1、遷移學(xué)習(xí)的研究問題

在遷移學(xué)習(xí)領(lǐng)域有三個研究問題:(1)、遷移什么;(2)、如何遷移;(3)、什么時候遷移。

1)遷移什么:那一部分知識可以在多個領(lǐng)域或任務(wù)之間遷移,即多個領(lǐng)域或任務(wù)知識的共同部分,通過從源領(lǐng)域?qū)W習(xí)這部分共同的知識,提升目標領(lǐng)域任務(wù)的效果。

關(guān)注遷移什么知識時,需要注意negative transfer問題:當(dāng)源領(lǐng)域和目標領(lǐng)域之間沒有關(guān)系,卻要在之間強制遷移知識是不可能成功的。極端情況下,反倒會影響目標領(lǐng)域任務(wù)學(xué)習(xí)的效果,這種情況稱為負遷移(negative transfer),需要盡力避免。

2)找到了遷移什么,接下來需要解決如何遷移:怎么做知識遷移。什么時候遷移:在什么情況下、什么時候,可以做知識的遷移。

3.2、轉(zhuǎn)導(dǎo)學(xué)習(xí)與推導(dǎo)學(xué)習(xí)區(qū)別

推導(dǎo)學(xué)習(xí)(inductive learning)與轉(zhuǎn)導(dǎo)學(xué)習(xí)(tranductive learning)的區(qū)別:

推到學(xué)習(xí):需要先用一些樣本(training set)建立一個模型,再基于建立好的模型去去預(yù)測新的樣本(testing set)的類型。以分類為例,推到學(xué)習(xí)就是一個經(jīng)典的貝葉斯決策,通過貝葉斯共識:P(Y|X)=P(X|Y)*P(Y)/ P(X),建立后驗概率分布P(Y|X),進而預(yù)測測試樣本類別。缺點就是必須先建立一個模型,很多時候建立效果好的模型并不容易,特別是當(dāng)帶標記的訓(xùn)練樣本少、無標記的測試樣本非常多時。那么能否直接利用大量無標記的測試樣本來識別樣本類別呢?由此產(chǎn)生了轉(zhuǎn)到學(xué)習(xí)方法。

轉(zhuǎn)導(dǎo)學(xué)習(xí):不需要建立后驗概率模型,直接從無標記的測試樣本X出發(fā),構(gòu)建P(X)的分布,對測試樣本分類。與推到學(xué)習(xí)相比,轉(zhuǎn)到學(xué)習(xí)也有它的缺點:因為是直接基于P(X)處理,轉(zhuǎn)導(dǎo)學(xué)習(xí)的測試樣本必須預(yù)先已知。

3.3、基于定義的遷移學(xué)習(xí)分類

基于遷移學(xué)習(xí)的定義中源領(lǐng)域和目標領(lǐng)域D和任務(wù)T的不同,遷移學(xué)習(xí)可以分成三類:推導(dǎo)遷移學(xué)習(xí)(inductive transfer learning),轉(zhuǎn)導(dǎo)遷移學(xué)習(xí)(tranductive transfer learning)和無監(jiān)督遷移學(xué)習(xí)(unsupervised transfer learning)

1、推導(dǎo)遷移學(xué)習(xí)定義:給定源領(lǐng)域Ds和源領(lǐng)域?qū)W習(xí)任務(wù)Ts、目標領(lǐng)域Dt和目標領(lǐng)域任務(wù)Tt的情況,且Ts不等于Tt,情況下;推導(dǎo)遷移學(xué)習(xí)使用源領(lǐng)域Ds和Ts中的知識提升或優(yōu)化目標領(lǐng)域Dt中目標預(yù)測函數(shù)ft(.)的學(xué)習(xí)效果。

可見,在推導(dǎo)遷移學(xué)習(xí)中,源任務(wù)(source task)與目標任務(wù)(target task)一定不同,目標領(lǐng)域Dt與源領(lǐng)域Ds可以相同,也可以不同。在這種情況下,目標領(lǐng)域需要一部分帶標記的數(shù)據(jù)用于建立目標領(lǐng)域的預(yù)測函數(shù)ft(.)。根據(jù)源領(lǐng)域中是否含有標記樣本,可以把推導(dǎo)遷移學(xué)習(xí)分為兩個類:

(1)、當(dāng)源領(lǐng)域中有很多標記樣本時,推導(dǎo)遷移學(xué)習(xí)與多任務(wù)學(xué)習(xí)(multitask learning)類似。區(qū)別在于,通過從源領(lǐng)域遷移知識,推導(dǎo)遷移學(xué)習(xí)只注重提升目標領(lǐng)域的效果;但多任務(wù)學(xué)習(xí)注重同時提升源領(lǐng)域和目標領(lǐng)域的效果。

(2)當(dāng)源領(lǐng)域沒有標記樣本時,推導(dǎo)遷移學(xué)習(xí)與自學(xué)習(xí)類似。

2、轉(zhuǎn)導(dǎo)遷移學(xué)習(xí)定義:給定源領(lǐng)域Ds和源領(lǐng)域?qū)W習(xí)任務(wù)Ts、目標領(lǐng)域Dt和目標領(lǐng)域任務(wù)Tt的情況,且Ts等于Tt、Ds不等于Dt,情況下;轉(zhuǎn)導(dǎo)遷移學(xué)習(xí)使用源領(lǐng)域Ds和Ts中的知識提升或優(yōu)化目標領(lǐng)域Dt中目標預(yù)測函數(shù)ft(.)的學(xué)習(xí)效果。此外,模型訓(xùn)練師,目標領(lǐng)域Dt中必須提供一些無標記的數(shù)據(jù)。

可見,在轉(zhuǎn)導(dǎo)遷移學(xué)習(xí)中,源任務(wù)Ts和目標任務(wù)Tt相同,但領(lǐng)域Ds與Dt不同。這種情況下,源領(lǐng)域有大量標記樣本,但目標領(lǐng)域沒有標記樣本。根據(jù)Ds和Dt的不同,可以把轉(zhuǎn)到學(xué)習(xí)分為兩個類:(1)、源領(lǐng)域和目標領(lǐng)域特征空間不同,即Xs不等于Xt。(2)、特征空間相同,但邊緣概率不同,即P(xs)不等于P(xt)。在(2)情況下,轉(zhuǎn)導(dǎo)遷移學(xué)習(xí)與領(lǐng)域適應(yīng)性(domain adaptation)、協(xié)方差偏移(covariate shift)問題相同。

3、無監(jiān)督遷移學(xué)習(xí)定義:給定源領(lǐng)域Ds和源領(lǐng)域?qū)W習(xí)任務(wù)Ts、目標領(lǐng)域Dt和目標領(lǐng)域任務(wù)Tt的情況,且Ts不等于Tt、標簽空間Yt和Ys不可觀測,情況下;轉(zhuǎn)導(dǎo)遷移學(xué)習(xí)使用源領(lǐng)域Ds和Ts中的知識提升或優(yōu)化目標領(lǐng)域Dt中目標預(yù)測函數(shù)ft(.)的學(xué)習(xí)效果。

在無監(jiān)督遷移學(xué)習(xí)中,目標任務(wù)與源任務(wù)不同但卻相關(guān)。此時,無監(jiān)督遷移學(xué)習(xí)主要解決目標領(lǐng)域中的無監(jiān)督學(xué)習(xí)問題,類似于傳統(tǒng)的聚類、降維和密度估計等機器學(xué)習(xí)問題。

由此可以得到遷移學(xué)習(xí)的分類,以及和其他機器學(xué)習(xí)方法之間的關(guān)系圖1所示。

圖1 基于定義的遷移學(xué)習(xí)分類

3.4、基于遷移的內(nèi)容分類

根據(jù)遷移的內(nèi)容,遷移學(xué)習(xí)可以分為四類:

基于實例的遷移學(xué)習(xí)(instance-based transfer learning):源領(lǐng)域(source domain)中的數(shù)據(jù)(data)的某一部分可以通過reweighting的方法重用,用于target domain的學(xué)習(xí)。

基于特征表示的遷移學(xué)習(xí)(feature-representation transfer learning):通過source domain學(xué)習(xí)一個好的(good)的特征表示,把知識通過特征的形式進行編碼,并從suorce domain傳遞到target domain,提升target domain任務(wù)效果。

基于參數(shù)的遷移學(xué)習(xí)(parameter-transfer learning):target domain和source domian的任務(wù)之間共享相同的模型參數(shù)(model parameters)或者是服從相同的先驗分布(prior distribution)。

基于關(guān)系知識遷移學(xué)習(xí)(relational-knowledge transfer learning):相關(guān)領(lǐng)域之間的知識遷移,假設(shè)source domain和target domain中,數(shù)據(jù)(data)之間聯(lián)系關(guān)系是相同的。

前三類遷移學(xué)習(xí)方式都要求數(shù)據(jù)(data)獨立同分布假設(shè)。同時,四類遷移學(xué)習(xí)方式都要求選擇的sourc doma與target domain相關(guān),

表1給出了遷移內(nèi)容的遷移學(xué)習(xí)分類:

表1 基于遷移內(nèi)容的遷移學(xué)習(xí)分類

將基于定義遷移學(xué)習(xí)分類和基于遷移內(nèi)容的遷移學(xué)習(xí)分類結(jié)合,得到遷移學(xué)習(xí)分類結(jié)果如表2所示:

表2 基于定義遷移學(xué)習(xí)分類和基于遷移內(nèi)容的遷移學(xué)習(xí)分類結(jié)合

從表2可以發(fā)現(xiàn),遷移學(xué)習(xí)大多數(shù)的研究工作都集中于推導(dǎo)遷移學(xué)習(xí)和轉(zhuǎn)導(dǎo)遷移學(xué)習(xí)上,無監(jiān)督的遷移學(xué)習(xí)模式,在未來會吸引更多研究者關(guān)注。

4、遷移學(xué)習(xí)的應(yīng)用

用于情感分類,圖像分類,命名實體識別,WiFi信號定位,自動化設(shè)計,中文到英文翻譯等問題。

5、領(lǐng)域自適應(yīng)

領(lǐng)域自適應(yīng)(Domain Adaptation)是遷移學(xué)習(xí)中的一種代表性方法,詳細關(guān)系見下圖。

領(lǐng)域自適應(yīng)問題定義為:源域(source domain)和目標域(target domain)共享相同的特征和類別,但是特征分布不同,如何利用信息豐富的源域樣本來提升目標域模型的性能。源域表示與測試樣本不同的領(lǐng)域,具有豐富的監(jiān)督標注信息;目標域表示測試樣本所在的領(lǐng)域,無標簽或者只有少量標簽。源域和目標域往往屬于同一類任務(wù),但是分布不同。

&lt;img src="https://pic1.zhimg.com/50/v2-f032aea206767df729a6a9666c000399_hd.jpg" data-size="normal" data-rawwidth="1080" data-rawheight="624" data-default-watermark-src="https://pic2.zhimg.com/50/v2-b2dfdc11931e4af7e4a93e4d9368529d_hd.jpg" class="origin_image zh-lightbox-thumb" width="1080" data-original="https://pic4.zhimg.com/v2-f032aea206767df729a6a9666c000399_r.jpg" /&gt;遷移

此圖源自楊強大佬的文章《A Survey on Transfer Learning》。

另外wiki上的Domain Adaptation詞條也有類似的圖片描述:

&lt;img src="https://pic3.zhimg.com/50/v2-44440524d9aeb7d6ea00bad828a89075_hd.jpg" data-size="normal" data-rawwidth="1257" data-rawheight="763" data-default-watermark-src="https://pic3.zhimg.com/50/v2-df7a64e858c23fbd5a99de097ab34eb0_hd.jpg" class="origin_image zh-lightbox-thumb" width="1257" data-original="https://pic1.zhimg.com/v2-44440524d9aeb7d6ea00bad828a89075_r.jpg" /&gt;

參考論文:

[1] A survey on transfer Learning. IEEE TRANSACTIONS ON KNOWLEDGE AND DATA ENGINEERING, VOL. 22, NO. 10, OCTOBER 2010

[2] Learning to Learn. S. Thrun and L. Pratt, eds. Kluwer Academic Publishers, 1998.

[3] R. Caruana, “Multitask Learning,” Machine Learning, vol. 28, no. 1, pp. 41-75, 1997.

[4] R. Raina, A. Battle, H. Lee, B. Packer, and A.Y. Ng, “Self-Taught Learning: Transfer Learning from Unlabeled Data,” Proc. 24th Int’l Conf. Machine Learning, pp. 759-766, June 2007.

[5] H. Daume´ III and D. Marcu, “Domain Adaptation for Statistical Classifiers,” J. Artificial Intelligence Research, vol. 26, pp. 101-126, 2006.

[6] B. Zadrozny, “Learning and Evaluating Classifiers under Sample Selection Bias,” Proc. 21st Int’l Conf. Machine Learning, July 2004.

[7] H. Shimodaira, “Improving Predictive Inference under Covariate Shift by Weighting the Log-Likelihood Function,” J. Statistical Planning and Inference, vol. 90, pp. 227-244, 2000.

[8] W. Dai, Q. Yang, G. Xue, and Y. Yu, “Self-Taught Clustering,” Proc. 25th Int’l Conf. Machine Learning, pp. 200-207, July 2008.

[9] Z. Wang, Y. Song, and C. Zhang, “Transferred Dimensionality Reduction,” Proc. European Conf. Machine Learning and Knowledge Discovery in Databases (ECML/PKDD ’08), pp. 550-565, Sept. 2008.



來源:
https://zhuanlan.zhihu.com/p/27368456
https://www.zhihu.com/question/362468185

https://www.cse.ust.hk/~qyang/Docs/2009/tkde_transfer_learning.pdf
https://en.wikipedia.org/wiki/Domain_adaptation

https://www.cnblogs.com/jinjidexuetu/p/11097626.html




來自為知筆記(Wiz)

總結(jié)

以上是生活随笔為你收集整理的迁移学习及领域自适应 Transfer Learning &amp; Domain Adaptation的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。