全新视角:用变分推断统一理解生成模型(VAE、GAN、AAE、ALI)
前言
我小學(xué)開始就喜歡純數(shù)學(xué),后來(lái)也喜歡上物理,還學(xué)習(xí)過(guò)一段時(shí)間的理論物理,直到本科畢業(yè)時(shí),我才慢慢進(jìn)入機(jī)器學(xué)習(xí)領(lǐng)域。所以,哪怕在機(jī)器學(xué)習(xí)領(lǐng)域中,我的研究習(xí)慣還保留著數(shù)學(xué)和物理的風(fēng)格:企圖從最少的原理出發(fā),理解、推導(dǎo)盡可能多的東西。這篇文章是我這個(gè)理念的結(jié)果之一,試圖以變分推斷作為出發(fā)點(diǎn),來(lái)統(tǒng)一地理解深度學(xué)習(xí)中的各種模型,尤其是各種讓人眼花繚亂的 GAN。
本文已經(jīng)掛到 arXiv 上,需要讀英文原稿的可以訪問(wèn)下方鏈接下載論文 Variational Inference: A Unified Framework of Generative Models and Some Revelations。
■ 論文 | Variational Inference: A Unified Framework of Generative Models and Some Revelations
■ 鏈接 | https://www.paperweekly.site/papers/2117
■ 作者 | Jianlin Su
下面是文章的介紹。其實(shí),中文版的信息可能還比英文版要稍微豐富一些,原諒我這蹩腳的英語(yǔ)。
近年來(lái),深度生成模型,尤其是 GAN,取得了巨大的成功。現(xiàn)在我們已經(jīng)可以找到數(shù)十個(gè)乃至上百個(gè) GAN 的變種。然而,其中的大部分都是憑著經(jīng)驗(yàn)改進(jìn)的,鮮有比較完備的理論指導(dǎo)。
本文的目標(biāo)是通過(guò)變分推斷來(lái)給這些生成模型建立一個(gè)統(tǒng)一的框架。首先,本文先介紹了變分推斷的一個(gè)新形式,這個(gè)新形式其實(shí)在本人以前的文章中就已經(jīng)介紹過(guò),它可以讓我們?cè)趲仔凶种畠?nèi)導(dǎo)出變分自編碼器(VAE)和 EM 算法。然后,利用這個(gè)新形式,我們能直接導(dǎo)出 GAN,并且發(fā)現(xiàn)標(biāo)準(zhǔn) GAN 的 loss 實(shí)則是不完備的,缺少了一個(gè)正則項(xiàng)。如果沒(méi)有這個(gè)正則項(xiàng),我們就需要謹(jǐn)慎地調(diào)整超參數(shù),才能使得模型收斂。
實(shí)際上,本文這個(gè)工作的初衷,就是要將 GAN 納入到變分推斷的框架下。目前看來(lái),最初的意圖已經(jīng)達(dá)到了,結(jié)果讓人欣慰。新導(dǎo)出的正則項(xiàng)實(shí)際上是一個(gè)副產(chǎn)品,并且幸運(yùn)的是,在我們的實(shí)驗(yàn)中這個(gè)副產(chǎn)品生效了。
變分推斷新解
假設(shè) x 為顯變量,z 為隱變量,p?(x) 為 x 的證據(jù)分布,并且有:
我們希望 qθ(x) 能逼近 p?(x),所以一般情況下我們會(huì)去最大化似然函數(shù):
這也等價(jià)于最小化 KL 散度 KL(p?(x))‖q(x)):
但是由于積分可能難以計(jì)算,因此大多數(shù)情況下都難以直接優(yōu)化。
變分推斷中,首先引入聯(lián)合分布 p(x,z) 使得p?(x)=∫p(x,z)dz,而變分推斷的本質(zhì),就是將邊際分布的 KL 散度 KL(p?(x)‖q(x)) 改為聯(lián)合分布的 KL 散度 KL(p(x,z)‖q(x,z)) 或 KL(q(x,z)‖p(x,z)),而:
意味著聯(lián)合分布的 KL 散度是一個(gè)更強(qiáng)的條件(上界)。所以一旦優(yōu)化成功,那么我們就得到 q(x,z)→p(x,z),從而 ∫q(x,z)dz→∫p(x,z)dz=p? (x),即 ∫q(x,z)dz 成為了真實(shí)分布 p?(x) 的一個(gè)近似。
當(dāng)然,我們本身不是為了加強(qiáng)條件而加強(qiáng),而是因?yàn)樵诤芏嗲闆r下,KL(p(x,z)‖q(x,z)) 或 KL(q(x,z)‖p(x,z)) 往往比 KL(p?(x)‖q(x)) 更加容易計(jì)算。所以變分推斷是提供了一個(gè)可計(jì)算的方案。
VAE和EM算法
由上述關(guān)于變分推斷的新理解,我們可以在幾句話內(nèi)導(dǎo)出兩個(gè)基本結(jié)果:變分自編碼器和 EM 算法。這部分內(nèi)容,實(shí)際上在從最大似然到EM算法:一致的理解方式和變分自編碼器(二):從貝葉斯觀點(diǎn)出發(fā)已經(jīng)詳細(xì)介紹過(guò)了。這里用簡(jiǎn)單幾句話重提一下。
VAE
在 VAE 中,我們?cè)O(shè) q(x,z)=q(x|z)q(z),p(x,z)=p?(x)p(z|x),其中 q(x|z),p(z|x) 帶有未知參數(shù)的高斯分布而 q(z) 是標(biāo)準(zhǔn)高斯分布。最小化的目標(biāo)是:
其中 logp?(x) 沒(méi)有包含優(yōu)化目標(biāo),可以視為常數(shù),而對(duì) p?(x) 的積分則轉(zhuǎn)化為對(duì)樣本的采樣,從而:
因?yàn)?q(x|z),p(z|x) 為帶有神經(jīng)網(wǎng)絡(luò)的高斯分布,這時(shí)候 KL(p(z|x)‖q(z)) 可以顯式地算出,而通過(guò)重參數(shù)技巧來(lái)采樣一個(gè)點(diǎn)完成積分 ∫p(z|x)logq(x|z)dz 的估算,可以得到 VAE 最終要最小化的 loss:
EM算法
在 VAE 中我們對(duì)后驗(yàn)分布做了約束,僅假設(shè)它是高斯分布,所以我們優(yōu)化的是高斯分布的參數(shù)。如果不作此假設(shè),那么直接優(yōu)化原始目標(biāo) (5),在某些情況下也是可操作的,但這時(shí)候只能采用交替優(yōu)化的方式:先固定 p(z|x),優(yōu)化 q(x|z),那么就有:
完成這一步后,我們固定 q(x,z),優(yōu)化 p(z|x),先將 q(x|z)q(z) 寫成 q(z|x)q(x) 的形式:
那么有:
由于現(xiàn)在對(duì) p(z|x) 沒(méi)有約束,因此可以直接讓 p(z|x)=q(z|x) 使得 loss 等于 0。也就是說(shuō),p(z|x) 有理論最優(yōu)解:
(8),(11) 的交替執(zhí)行,構(gòu)成了 EM 算法的求解步驟。這樣,我們從變分推斷框架中快速得到了 EM 算法。
變分推斷下的GAN
在這部分內(nèi)容中,我們介紹了一般化的將 GAN 納入到變分推斷中的方法,這將引導(dǎo)我們得到 GAN 的新理解,以及一個(gè)有效的正則項(xiàng)。
一般框架
同 VAE 一樣,GAN 也希望能訓(xùn)練一個(gè)生成模型 q(x|z),來(lái)將 q(z)=N(z;0,I) 映射為數(shù)據(jù)集分布 p?(x),不同于 VAE 中將 q(x|z) 選擇為高斯分布,GAN 的選擇是:
其中 δ(x) 是狄拉克 δ 函數(shù),G(z) 即為生成器的神經(jīng)網(wǎng)絡(luò)。
一般我們會(huì)認(rèn)為 z 是一個(gè)隱變量,但由于 δ 函數(shù)實(shí)際上意味著單點(diǎn)分布,因此可以認(rèn)為 x 與 z 的關(guān)系已經(jīng)是一一對(duì)應(yīng)的,所以 z 與 x 的關(guān)系已經(jīng)“不夠隨機(jī)”,在 GAN 中我們認(rèn)為它不是隱變量(意味著我們不需要考慮后驗(yàn)分布 p(z|x))。
事實(shí)上,在 GAN 中僅僅引入了一個(gè)二元的隱變量 y 來(lái)構(gòu)成聯(lián)合分布:
這里 p1=1?p0 描述了一個(gè)二元概率分布,我們直接取 p1=p0=1/2。另一方面,我們?cè)O(shè) p(x,y)=p(y|x)p?(x),p(y|x) 是一個(gè)條件伯努利分布。而優(yōu)化目標(biāo)是另一方向的 KL(q(x,y)‖p(x,y)):
一旦成功優(yōu)化,那么就有 q(x,y)→p(x,y),那么:
從而 q(x)→p?(x),完成了生成模型的構(gòu)建。
現(xiàn)在我們優(yōu)化對(duì)象有 p(y|x) 和 G(x),記 p(1|x)=D(x),這就是判別器。類似 EM 算法,我們進(jìn)行交替優(yōu)化:先固定 G(z),這也意味著 q(x) 固定了,然后優(yōu)化 p(y|x),這時(shí)候略去常量,得到優(yōu)化目標(biāo)為:
然后固定 D(x) 來(lái)優(yōu)化 G(x),這時(shí)候相關(guān)的 loss 為:
這里包含了我們不知道的 p?(x),但是假如 D(x) 模型具有足夠的擬合能力,那么跟 (11) 式同理,D(x) 的最優(yōu)解應(yīng)該是:
這里的是前一階段的 q(x)。從中解出 q?(x),代入 loss 得到:
基本分析
可以看到,第一項(xiàng)就是標(biāo)準(zhǔn)的 GAN 生成器所采用的 loss 之一。
多出來(lái)的第二項(xiàng),描述了新分布與舊分布之間的距離。這兩項(xiàng) loss 是對(duì)抗的,因?yàn)橄M屡f分布盡量一致,但是如果判別器充分優(yōu)化的話,對(duì)于舊分布中的樣本,D(x) 都很小(幾乎都被識(shí)別為負(fù)樣本),所以 ?logD(x) 會(huì)相當(dāng)大,反之亦然。這樣一來(lái),整個(gè) loss 一起優(yōu)化的話,模型既要“傳承”舊分布,同時(shí)要在往新方向 p(1|y) 探索,在新舊之間插值。
我們知道,目前標(biāo)準(zhǔn)的 GAN 的生成器 loss 都不包含,這事實(shí)上造成了 loss 的不完備。假設(shè)有一個(gè)優(yōu)化算法總能找到 G(z) 的理論最優(yōu)解、并且 G(z) 具有無(wú)限的擬合能力,那么 G(z) 只需要生成唯一一個(gè)使得 D(x) 最大的樣本(不管輸入的 z 是什么),這就是模型坍縮。這樣說(shuō)的話,理論上它一定會(huì)發(fā)生。
那么,給我們的啟發(fā)是什么呢?我們?cè)O(shè):
也就是說(shuō),假設(shè)當(dāng)前模型的參數(shù)改變量為 Δθ,那么展開到二階得到:
我們已經(jīng)指出一個(gè)完備的 GAN 生成器的損失函數(shù)應(yīng)該要包含,如果不包含的話,那么就要通過(guò)各種間接手段達(dá)到這個(gè)效果,上述近似表明額外的損失約為 (Δθ?c)2,這就要求我們不能使得它過(guò)大,也就是不能使得 Δθ 過(guò)大(在每個(gè)階段 c 可以近似認(rèn)為是一個(gè)常數(shù))。
而我們用的是基于梯度下降的優(yōu)化算法,所以 Δθ 正比于梯度,因此標(biāo)準(zhǔn) GAN 訓(xùn)練時(shí)的很多 trick,比如梯度裁剪、用 adam 優(yōu)化器、用 BN,都可以解釋得通了,它們都是為了穩(wěn)定梯度,使得 θ 不至于過(guò)大,同時(shí),G(z) 的迭代次數(shù)也不能過(guò)多,因?yàn)檫^(guò)多同樣會(huì)導(dǎo)致 Δθ 過(guò)大。
還有,這部分的分析只適用于生成器,而判別器本身并不受約束,因此判別器可以訓(xùn)練到最優(yōu)。
正則項(xiàng)
現(xiàn)在我們從中算出一些真正有用的內(nèi)容,直接對(duì)進(jìn)行估算,以得到一個(gè)可以在實(shí)際訓(xùn)練中使用的正則項(xiàng)。直接計(jì)算是難以進(jìn)行的,但我們可以用 KL(q(x,z)‖q?(x,z)) 去估算它:
因?yàn)橛袠O限:
所以可以將 δ(x) 看成是小方差的高斯分布,代入算得也就是我們有:
所以完整生成器的 loss 可以選為:
也就是說(shuō),可以用新舊生成樣本的距離作為正則項(xiàng),正則項(xiàng)保證模型不會(huì)過(guò)于偏離舊分布。
下面的兩個(gè)在人臉數(shù)據(jù) CelebA 上的實(shí)驗(yàn)表明這個(gè)正則項(xiàng)是生效的。實(shí)驗(yàn)代碼修改自:
https://github.com/LynnHo/DCGAN-LSGAN-WGAN-WGAN-GP-Tensorflow
實(shí)驗(yàn)一:普通的 DCGAN 網(wǎng)絡(luò),每次迭代生成器和判別器各訓(xùn)練一個(gè) batch。
▲ 不帶正則項(xiàng),在25個(gè)epoch之后模型開始坍縮
▲ 帶有正則項(xiàng),模型能一直穩(wěn)定訓(xùn)練
實(shí)驗(yàn)二:普通的 DCGAN 網(wǎng)絡(luò),但去掉 BN,每次迭代生成器和判別器各訓(xùn)練五個(gè) batch。
▲ 不帶正則項(xiàng),模型收斂速度比較慢
▲ 帶有正則項(xiàng),模型更快“步入正軌”
GAN相關(guān)模型
對(duì)抗自編碼器(Adversarial Autoencoders,AAE)和對(duì)抗推斷學(xué)習(xí)(Adversarially Learned Inference,ALI)這兩個(gè)模型是 GAN 的變種之一,也可以被納入到變分推斷中。當(dāng)然,有了前述準(zhǔn)備后,這僅僅就像兩道作業(yè)題罷了。
有意思的是,在 ALI 之中,我們有一些反直覺(jué)的結(jié)果。
GAN視角下的AAE
事實(shí)上,只需要在 GAN 的論述中,將 x,z 的位置交換,就得到了 AAE 的框架。
具體來(lái)說(shuō),AAE 希望能訓(xùn)練一個(gè)編碼模型 p(z|x),來(lái)將真實(shí)分布 q?(x) 映射為標(biāo)準(zhǔn)高斯分布 q(z)=N(z;0,I),而:
其中 E(x) 即為編碼器的神經(jīng)網(wǎng)絡(luò)。
同 GAN 一樣,AAE 引入了一個(gè)二元的隱變量 y,并有:
同樣直接取 p1=p0=1/2。另一方面,我們?cè)O(shè) q(z,y)=q(y|z)q(z),這里的后驗(yàn)分布 p(y|z) 是一個(gè)輸入為 z 的二元分布,然后去優(yōu)化 KL(p(z,y)‖q(z,y)):
現(xiàn)在我們優(yōu)化對(duì)象有 q(y|z) 和 E(x),記 q(0|z)=D(z),依然交替優(yōu)化:先固定 E(x),這也意味著 p(z) 固定了,然后優(yōu)化 q(y|z),這時(shí)候略去常量,得到優(yōu)化目標(biāo)為:
然后固定 D(z) 來(lái)優(yōu)化 E(x),這時(shí)候相關(guān)的 loss 為:
利用 D(z) 的理論最優(yōu)解,代入 loss 得到:
一方面,同標(biāo)準(zhǔn) GAN 一樣,謹(jǐn)慎地訓(xùn)練,我們可以去掉第二項(xiàng),得到:
另外一方面,我們可以得到編碼器后再訓(xùn)練一個(gè)解碼器 G(z),但是如果所假設(shè)的 E(x),G(z) 的擬合能力是充分的,重構(gòu)誤差可以足夠小,那么將 G(z) 加入到上述 loss 中并不會(huì)干擾 GAN 的訓(xùn)練,因此可以聯(lián)合訓(xùn)練:
反直覺(jué)的ALI版本
ALI 像是 GAN 和 AAE 的融合,另一個(gè)幾乎一樣的工作是 Bidirectional GAN (BiGAN)。相比于 GAN,它將 z 也作為隱變量納入到變分推斷中。具體來(lái)說(shuō),在 ALI 中有:
以及 p(x,z,y)=p(y|x,z)p(z|x)p?(x),然后去優(yōu)化 KL(q(x,z,y)‖p(x,z,y)):
等價(jià)于最小化:
現(xiàn)在優(yōu)化的對(duì)象有 p(y|x,z),p(z|x),q(x|z),記 p(1|x,z)=D(x,z),而 p(z|x) 是一個(gè)帶有編碼器E的高斯分布或狄拉克分布,q(x|z) 是一個(gè)帶有生成器 G 的高斯分布或狄拉克分布。依然交替優(yōu)化:先固定 E,G,那么與 D 相關(guān)的 loss 為:
跟 VAE 一樣,對(duì) p(z|x) 和 q(x|z) 的期望可以通過(guò)“重參數(shù)”技巧完成。接著固定 D 來(lái)優(yōu)化 G,E,因?yàn)檫@時(shí)候有 E 又有 G,整個(gè) loss 沒(méi)得化簡(jiǎn),還是 (37) 那樣。但利用 D 的最優(yōu)解:
可以轉(zhuǎn)化為:
由于 q(x|z),p(x|z) 都是高斯分布,事實(shí)上后兩項(xiàng)我們可以具體地算出來(lái)(配合重參數(shù)技巧),但同標(biāo)準(zhǔn) GAN 一樣,謹(jǐn)慎地訓(xùn)練,我們可以簡(jiǎn)單地去掉后面兩項(xiàng),得到:
這就是我們導(dǎo)出的 ALI 的生成器和編碼器的 loss,它跟標(biāo)準(zhǔn)的 ALI 結(jié)果有所不同。標(biāo)準(zhǔn)的 ALI(包括普通的 GAN)將其視為一個(gè)極大極小問(wèn)題,所以生成器和編碼器的 loss 為:
或:
它們都不等價(jià)于 (41)。針對(duì)這個(gè)差異,事實(shí)上筆者也做了實(shí)驗(yàn),結(jié)果表明這里的 ALI 有著和標(biāo)準(zhǔn)的 ALI 同樣的表現(xiàn),甚至可能稍好一些(可能是我的自我良好的錯(cuò)覺(jué),所以就沒(méi)有放圖了)。這說(shuō)明,將對(duì)抗網(wǎng)絡(luò)視為一個(gè)極大極小問(wèn)題僅僅是一個(gè)直覺(jué)行為,并非總應(yīng)該如此。
結(jié)論綜述
本文的結(jié)果表明了變分推斷確實(shí)是一個(gè)推導(dǎo)和解釋生成模型的統(tǒng)一框架,包括 VAE 和 GAN。通過(guò)變分推斷的新詮釋,我們介紹了變分推斷是如何達(dá)到這個(gè)目的的。
當(dāng)然,本文不是第一篇提出用變分推斷研究 GAN 這個(gè)想法的文章。在《On Unifying Deep Generative Models》一文中,其作者也試圖用變分推斷統(tǒng)一 VAE 和 GAN,也得到了一些啟發(fā)性的結(jié)果。但筆者覺(jué)得那不夠清晰。事實(shí)上,我并沒(méi)有完全讀懂這篇文章,我不大確定,這篇文章究竟是將 GAN 納入到了變分推斷中了,還是將 VAE 納入到了 GAN 中。相對(duì)而言,我覺(jué)得本文的論述更加清晰、明確一些。
看起來(lái)變分推斷還有很大的挖掘空間,等待著我們?nèi)ヌ剿鳌?/p>
原文發(fā)布時(shí)間為:2018-07-19
本文作者:蘇劍林
本文來(lái)自云棲社區(qū)合作伙伴“PaperWeekly”,了解相關(guān)信息可以關(guān)注“PaperWeekly”。
總結(jié)
以上是生活随笔為你收集整理的全新视角:用变分推断统一理解生成模型(VAE、GAN、AAE、ALI)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: MySQL基础之增删改查
- 下一篇: Spark2.2.0 分布式离线搭建