PaperNotes(12)-Autoregressive Quantile networks for generative modeling
Autoregressive Quantile networks for generative modeling
- 3 autoregressive implicit quantiles
3 autoregressive implicit quantiles
autoregressive:自身做回歸變量,用之前若干時(shí)刻的隨機(jī)變量 來建模 之后某些時(shí)刻 隨機(jī)變量的模型。
N維隨機(jī)變量的IQN建模 :
n維隨機(jī)變量:X=(X1,...,Xn)∈X1×,...,×Xn=XX=(X_1,...,X_n)\in \mathcal{X}_1\times,...,\times\mathcal{X}_n=\mathcal{X}X=(X1?,...,Xn?)∈X1?×,...,×Xn?=X ,基于IQN 兩個(gè)簡(jiǎn)單應(yīng)用:
方式1– 假設(shè)X的各個(gè)維度是comonotonic,其聯(lián)合分位數(shù)函數(shù)可以表示為:
FX?1(τ)=(FX1?1(τ),...,FXn?1(τ))F^{-1}_X (\tau)=(F^{-1}_{X_1} (\tau),...,F^{-1}_{X_n} (\tau))FX?1?(τ)=(FX1??1?(τ),...,FXn??1?(τ))
即每個(gè)維度使用相同的τ\tauτ值。
方式2–假設(shè)X的各個(gè)維度是相互獨(dú)立的,每個(gè)XiX_iXi?使用不同的τi\tau_iτi?,但是聯(lián)合分位數(shù)該怎么寫沒有表示出來。
以上兩種假設(shè)都太強(qiáng)了,并不適用于圖像生成領(lǐng)域。下面開始介紹AIQN方法,圖像的概率密度pXp_XpX?采用和PixleCNN 中一樣的條件似然的乘積建模,那么聯(lián)合的累積分布函數(shù)可以表示為下式:
pX(x)=∏i=1npXσ(i)(xσ(i)∣xσ(1),...,xσ(i?1))p_X(x)=\prod_{i=1}^np_{X_{\sigma(i)}}(x_{\sigma(i)}|x_{\sigma(1)},...,x_{\sigma(i-1)})pX?(x)=i=1∏n?pXσ(i)??(xσ(i)?∣xσ(1)?,...,xσ(i?1)?)
FX(x)=P(X1<x1,....,Xn<xn)=∏i=1nFXi∣Xi?1,...,X1(xi)F_X(x)=P(X_1<x_1,....,X_n<x_n)\\ =\prod_{i=1}^nF_{X_i|X_{i-1},...,X_{1}}(x_i)FX?(x)=P(X1?<x1?,....,Xn?<xn?)=i=1∏n?FXi?∣Xi?1?,...,X1??(xi?)
此時(shí)聯(lián)合分位點(diǎn)和聯(lián)合分位數(shù)分別為:
τjoint=∏i=1nτi\tau_{joint}=\prod_{i=1}^n\tau_iτjoint?=i=1∏n?τi?
FX?1(τjoint)=(FX?1(τ1),...,FXn∣Xn?1?1(τn))F^{-1}_X(\tau_{joint})=(F^{-1}_X(\tau_{1}),...,F^{-1}_{X_n|X_{n-1}}(\tau_{n}))FX?1?(τjoint?)=(FX?1?(τ1?),...,FXn?∣Xn?1??1?(τn?))
整張圖像的聯(lián)合分位數(shù)FX?1(τjoint)F^{-1}_X(\tau_{joint})FX?1?(τjoint?) 可以分解為各個(gè)像素位置分位數(shù)的聯(lián)合表示。所以可以逐像素的使用分位數(shù)回歸,來 訓(xùn)練生成模型。
總結(jié)
以上是生活随笔為你收集整理的PaperNotes(12)-Autoregressive Quantile networks for generative modeling的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 算法(6)-leetcode-explo
- 下一篇: C++(6)--初识循环while,do