TIP 2018论文概述:基于深度学习的HEVC复杂度优化
作者丨徐邁、李天一 等
學(xué)校丨北京航空航天大學(xué)博士生
研究方向丨視頻編碼與深度學(xué)習(xí)
本文概述了 2018 年 6 月發(fā)表在 IEEE TIP 期刊的論文 Reducing Complexity of?HEVC :?A Deep Learning Approach。在此論文中,北京航空航天大學(xué)博士研究生李天一及其導(dǎo)師徐邁,提出了一種基于深度學(xué)習(xí)的視頻編碼復(fù)雜度優(yōu)化方法,實(shí)現(xiàn)了在幾乎不影響編碼效率的前提下,顯著降低高效率視頻編碼(High Efficiency Video Coding,HEVC)的復(fù)雜度。
■?論文 | Reducing Complexity of HEVC: A Deep Learning Approach
■ 鏈接 | https://www.paperweekly.site/papers/2140
■ 源碼 |?https://github.com/HEVC-Projects/CPH
背景
與前一代 H.264/高級(jí)視頻編碼(Advanced Video Coding,AVC)標(biāo)準(zhǔn)相比,HEVC 標(biāo)準(zhǔn)能夠在相同視頻質(zhì)量下,節(jié)省大約 50% 的比特率。這得益于一些先進(jìn)的視頻編碼技術(shù),例如基于四叉樹結(jié)構(gòu)的編碼單元(coding unit,CU)分割結(jié)構(gòu)。然而這些技術(shù)也帶來了相當(dāng)高的復(fù)雜度。與 H.264/AVC 相比,HEVC 的編碼時(shí)間平均增加約 253%,較高的復(fù)雜度就限制了該標(biāo)準(zhǔn)的實(shí)際應(yīng)用。因此,有必要在率失真(rate-distortion,RD)性能幾乎不受影響的前提下,顯著降低 HEVC 編碼復(fù)雜度。?
從 2013 年 HEVC 正式發(fā)布開始,學(xué)界已經(jīng)在降低編碼復(fù)雜度方向進(jìn)行了廣泛的研究。目前已經(jīng)存在多種降低 HEVC 編碼復(fù)雜度的方法。就編碼過程而言,基于四叉樹的遞歸 CU 分割搜索,占據(jù)絕大部分編碼時(shí)間(在標(biāo)準(zhǔn)參考軟件 HM 中用時(shí)超過80%),因此很多方法都通過簡(jiǎn)化 CU 分割來降低 HEVC 編碼復(fù)雜度。?
HEVC 中的 CU 分割結(jié)構(gòu)如圖 1 所示。在標(biāo)準(zhǔn)編碼器中,CU 分割是一種遞歸的搜索,從最基本的 64×64 編碼樹單元(Coding Tree Unit,CTU)開始,一個(gè) CTU 可以只包含一個(gè) CU,也可以被分成四個(gè)子 CU;每個(gè)子 CU 又可以選擇是否被分成四個(gè)更細(xì)的子 CU,以此類推,直到 CU 被分成最小尺寸 8×8 為止。
可見,從最大 64×64 到最小 8×8,多種可能的 CU 尺寸為 HEVC 標(biāo)準(zhǔn)提供了十分靈活的塊分割方式,使編碼器可以從中選出一種率失真代價(jià)最小的 CU 分割方案,作為實(shí)際編碼結(jié)果。
與 H.264 相比,可選擇的分割方案數(shù)增多,就更有希望找出率失真代價(jià)盡可能小的方案,這就是 HEVC 編碼效率較高的一個(gè)重要原因。然而,有利往往也有弊,更多種 CU 分割方案,就意味著編碼器需要花費(fèi)更多時(shí)間,檢查每種方案的率失真代價(jià)。
這是一個(gè)分層遞歸的過程,編碼器需要對(duì)總共 85 個(gè) CU(包括 64 個(gè) 8×8 的 CU,16 個(gè) 16×16 的 CU,4 個(gè) 32×32 的 CU 和 1 個(gè) 64×64 CU)編碼,以檢查每個(gè) CU 的率失真代價(jià)。相比之下,在最終編碼結(jié)果中,只會(huì)存在最少 1 個(gè)、最多 64 個(gè) CU,因此如果能提前預(yù)測(cè)出合理的 CU 分割結(jié)果,即可直接對(duì)所選的 CU 進(jìn)行編碼,跳過不必要的率失真代價(jià)檢查過程。
▲?圖1. HEVC中CU分割結(jié)構(gòu)
早期的 CU 分割預(yù)測(cè)方法大多為啟發(fā)式的,根據(jù)編碼中的一些特征(如圖像內(nèi)容復(fù)雜度、率失真代價(jià)、運(yùn)動(dòng)矢量信息等)和人為制定的決策規(guī)則,在進(jìn)行遞歸搜索之前,提前決定 CU 分割。2015 年以后,利用機(jī)器學(xué)習(xí)預(yù)測(cè) CU 分割的一些方法被陸續(xù)提出,例如用支持向量機(jī)的自動(dòng)學(xué)習(xí),彌補(bǔ)了先前方法中需要人為制定決策規(guī)則的缺點(diǎn)。
然而,上述方法中的特征都需要手動(dòng)提取,這在一定程度上依賴于研究者的先驗(yàn)知識(shí),難以確定選取的特征是否為最優(yōu),并且容易忽略一些隱含但有用的特征。為實(shí)現(xiàn)特征自動(dòng)提取,另有文獻(xiàn)通過搭建簡(jiǎn)易的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)結(jié)構(gòu)決定 CU 分割,初步實(shí)現(xiàn)了利用深度學(xué)習(xí)思想降低 HEVC 復(fù)雜度。?
盡管相關(guān)研究已經(jīng)取得諸多成果,在本文方法提出之前,已有文獻(xiàn)中的網(wǎng)絡(luò)結(jié)構(gòu)還比較淺,難以充分發(fā)揮深度學(xué)習(xí)的優(yōu)勢(shì),并且,先前基于 CNN 的方法都只適用于幀內(nèi)模式,對(duì)于實(shí)際應(yīng)用更廣泛的幀間模式則無能為力。
在設(shè)計(jì)算法之前,作者首先直觀地分析 CU 分割結(jié)果,如圖 2 所示,幀內(nèi)模式的 CU 結(jié)果主要由 CTU 中的圖像內(nèi)容決定,一般紋理越密集之處,CU 分割也越密集,反之亦反。當(dāng)然 CU 分割不僅僅取決于紋理的細(xì)密程度,若一個(gè) CU 中紋理比較密集,但恰好可以通過相鄰 CU 信息來準(zhǔn)確預(yù)測(cè),那么此 CU 也有可能不被分割。
無論如何,CU 分割結(jié)果和圖像內(nèi)容緊密相關(guān),因此在幀內(nèi)模式中,本文首先提出一種與 CU 分割相適應(yīng)的 CNN 結(jié)構(gòu),通過圖像內(nèi)容自動(dòng)提取特征,來學(xué)習(xí) CU 分割結(jié)果。
▲?圖2. 幀內(nèi)模式CTU內(nèi)容與CU分割結(jié)果示例
對(duì)于幀間模式,可以發(fā)現(xiàn) CU 分割結(jié)果不僅與視頻內(nèi)容有關(guān),還取決于相近幀內(nèi)容的相似度。例如,在背景靜止或只有緩慢運(yùn)動(dòng)的視頻中,CTU 中的內(nèi)容可能比較細(xì)密,但可以由參考幀準(zhǔn)確預(yù)測(cè)得到,那么這個(gè) CTU 很可能不被分割。
鑒于此,本文提出一種長(zhǎng)-短期記憶(Long Short-Term Memory,LSTM)模型,以學(xué)習(xí)幀間模式 CU 分割的時(shí)序依賴關(guān)系。在幀間模式中,本文將 CNN 與 LSTM 結(jié)合使用,同時(shí)學(xué)習(xí)視頻內(nèi)容的空間和時(shí)間相關(guān)性。如圖 3 所示,將連續(xù)若干幀的 CTU 圖像信息輸入到 CNN+LSTM 中,預(yù)測(cè)每一幀的 CU 分割結(jié)果。另外,與幀內(nèi)模式不同,幀間模式中輸入網(wǎng)絡(luò)的是殘差圖像,這是考慮到殘差圖像本身就包含時(shí)間相關(guān)性信息,有利于準(zhǔn)確預(yù)測(cè)。
▲?圖3.?幀間模式CTU內(nèi)容與CU分割結(jié)果示例
思路
確定總體思路后,作者首先構(gòu)建一個(gè)大規(guī)模的 CU 分割數(shù)據(jù)庫(kù),為訓(xùn)練神經(jīng)網(wǎng)絡(luò)提供數(shù)據(jù)支撐,并有望促進(jìn) HEVC 編碼復(fù)雜度優(yōu)化的后續(xù)研究。本數(shù)據(jù)庫(kù)同時(shí)涵蓋了幀內(nèi)和幀間模式的全部四種配置(All Intra,Low Delay P,Low Delay B 和 Random Access,簡(jiǎn)稱 AI,LDP,LDB 和 RA),其中幀內(nèi)模式數(shù)據(jù)來自 2000 個(gè)無損圖像,幀間的來自 111 個(gè)無損視頻。所有數(shù)據(jù)均采用 4 個(gè)不同量化參數(shù)(Quantization Parameter,QP)壓縮,以適應(yīng)不同碼率和編碼質(zhì)量。
在數(shù)據(jù)庫(kù)中,每個(gè)樣本由兩部分組成:CU 中圖像內(nèi)容構(gòu)成的亮度矩陣,以及一個(gè)二分類標(biāo)簽代表是否分割。表 1 顯示了本數(shù)據(jù)庫(kù)的樣本組成,可見在每種模式中,都收集到超過 1 億個(gè)樣本,且正負(fù)樣本分布大體均勻,保證能夠有效訓(xùn)練。
▲?表1. CU分割數(shù)據(jù)庫(kù)的樣本組成
在取得足量數(shù)據(jù)后,本文又提出一種分層 CU 分割圖(hierarchical CU partition map,HCPM),對(duì)整個(gè) CTU 中的 CU 分割進(jìn)行高效建模。傳統(tǒng)的 CU 分割預(yù)測(cè),一般是把 CU 分割過程視為各自獨(dú)立的三級(jí)分類器,分別預(yù)測(cè)每個(gè) 64×64 的 CU、32×32 的 CU 和 16×16 的 CU 是否分割。然而,傳統(tǒng)方法每次預(yù)測(cè)只能得到一個(gè) CU 的分割結(jié)果,若要得到整個(gè) CTU 的分割結(jié)果,需要最多 21 次預(yù)測(cè),計(jì)算量較大,并且會(huì)增加算法本身的計(jì)算時(shí)間。
為解決這一問題,在本文的 HCPM 中,可直接將一個(gè) CTU 輸入到網(wǎng)絡(luò)中,得到 1+4+16 個(gè)節(jié)點(diǎn)的結(jié)構(gòu)化輸出,來預(yù)測(cè) CTU 中所有可能的 CU 是否分割。
如圖 4 所示,對(duì)于一個(gè) CTU,通過數(shù)據(jù)庫(kù)可以得到正確的 CU 分割結(jié)果,每個(gè)存在的 CU 都用 1 代表分割,0 代表不分割,即 HCPM 真值;將此 CTU 通過深度網(wǎng)絡(luò)處理,會(huì)得到相應(yīng)的 HCPM 預(yù)測(cè)值。網(wǎng)絡(luò)的訓(xùn)練就是使 HCPM 預(yù)測(cè)值盡可能接近真值。如此,通過構(gòu)建高效的 HCPM,可以大幅節(jié)省算法本身的調(diào)用時(shí)間,有利于最終降低編碼復(fù)雜度的目標(biāo)。
▲?圖4. 分層CU分割圖示例(HCPM)?
幀內(nèi)模式
下面分別介紹幀內(nèi)和幀間模式中的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。
在幀內(nèi)模式中,作者設(shè)計(jì)了一種可以提前終止的分層 CNN(early-terminated hierarchical CNN,ETH-CNN)。該網(wǎng)絡(luò)輸入一個(gè) 64×64 CTU 的亮度信息,輸出所有不同尺寸 CU 的分割概率,即前文所述的 HCPM。其中的提前終止機(jī)制,可以減少網(wǎng)絡(luò)本身的時(shí)間復(fù)雜度。
▲?圖5. ETH-CNN結(jié)構(gòu)
ETH-CNN 包含兩個(gè)預(yù)處理層,三個(gè)卷積層,一個(gè)歸并層和三個(gè)全連接層,結(jié)構(gòu)如圖 5 所示。各部分的具體配置與功能,闡述如下。
預(yù)處理層
對(duì) CTU 原始亮度矩陣進(jìn)行去均值和降采樣等預(yù)處理操作。為了適應(yīng)最終的 HCPM 三級(jí)輸出,從預(yù)處理層開始,輸入信息就在三條并列的分支 B1、B2 和 B3 中操作。
首先,在去均值操作中,CTU 的亮度矩陣減去圖像整體或某一局部的平均亮度,以減小圖像間的亮度差異。之后,考慮到分割深度較淺的 CTU 一般對(duì)應(yīng)平滑的圖像內(nèi)容,沒有過多細(xì)節(jié)信息,因此在 B1 和 B2 中,對(duì)去均值的亮度矩陣進(jìn)一步降采樣,將矩陣尺寸轉(zhuǎn)化為 16×16 和 32×32,進(jìn)一步降低后續(xù)的計(jì)算復(fù)雜度。
并且,通過這種選擇性的降采樣,能保證后續(xù)卷積層的輸出尺寸(1×1、2×2 和 4×4)與 HCPM 的三級(jí)輸出標(biāo)簽數(shù)相一致,使卷積層輸出結(jié)果具有比較清晰、明確的意義。
卷積層
在每條分支中,對(duì)預(yù)處理后的數(shù)據(jù)進(jìn)行三層卷積操作。在同一層里,所有三條分支的卷積核大小相同。首先,在第 1 卷積層中,預(yù)處理后數(shù)據(jù)與 16 個(gè) 4×4 的核進(jìn)行卷積,獲得 16 種不同的特征圖,以提取圖像信息中的低級(jí)特征。在第 2、第 3 卷積層中,將上述特征圖依次通過 24 個(gè)和 32 個(gè) 2×2 的核進(jìn)行卷積,以提取較高級(jí)的特征,最終在每條分支中均得到 32 種特征圖。
所有卷積層中,卷積操作的步長(zhǎng)等于核的邊長(zhǎng),恰好能實(shí)現(xiàn)無重疊的卷積運(yùn)算,且大多數(shù)卷積核作用域?yàn)?8×8,16×16,32×32 或 64×64 等(邊長(zhǎng)均為 2 的整數(shù)次冪),在位置和尺寸上都恰好對(duì)應(yīng)各個(gè)互不重疊的 CU。因此,ETH-CNN 中的卷積與 HEVC 的 CU 分割過程相適應(yīng)。
歸并層
將三條分支中第 2、第 3 卷積層的所有特征歸并在一起,組合成一個(gè)向量。如圖 5 中間的藍(lán)色箭頭所示,歸并后的特征由 6 種不同來源的特征圖組合而成,這有助于獲得多種全局與局部特征。
全連接層
將歸并后的特征再次分為三條支路進(jìn)行處理,同樣對(duì)應(yīng)于 HCPM 中的三級(jí)輸出。由于經(jīng)歷了特征歸并,此處的任何一條支路都可以利用完整 CTU 中的特征,來預(yù)測(cè) HCPM 中某一級(jí) CU 的分割結(jié)果。在每條支路中,特征向量依次通過三個(gè)全連接層,包括兩個(gè)隱含層和一個(gè)輸出層,最終的輸出即為 HCPM 預(yù)測(cè)值。
此外,需要考慮量化參數(shù) QP 對(duì) CU 分割的影響。一般隨著 QP 減小,有更多的 CU 會(huì)被分割,反之,當(dāng) QP 增大時(shí),則傾向于不分割。因此,在 ETH-CNN 的第一、第二全連接層中,將 QP 作為一個(gè)外部特征,添加到特征向量中,使網(wǎng)絡(luò)能夠?qū)?QP 與 CU 分割的關(guān)系進(jìn)行建模,在不同 QP 下準(zhǔn)確預(yù)測(cè)分割結(jié)果,提高算法對(duì)不同編碼質(zhì)量和碼率的適應(yīng)性。
另外,通過 ETH-CNN 的提前終止機(jī)制,可以跳過第二、三級(jí)全連接層,以節(jié)省計(jì)算時(shí)間,即:如果第一級(jí)最大尺寸的 CU 不分割,則不需要計(jì)算第二級(jí)是否分割;如果第二級(jí)的 4 個(gè) CU 都不分割,則不需要計(jì)算第三級(jí)是否分割。?
其他層
在 CNN 訓(xùn)練階段,將第一、第二全連接層的特征分別以 50% 和 20% 的概率隨機(jī)丟棄(dropout),防止過擬合,提高網(wǎng)絡(luò)的泛化能力。在訓(xùn)練和測(cè)試階段,所有卷積層和第一、二個(gè)全連接層均用修正線性單元(rectified linear units, ReLU)激活。所有分支的第三個(gè)全連接層,即輸出層,采用 S 形(sigmoid)函數(shù)進(jìn)行激活,使輸出值都位于 (0,1) 內(nèi),與 HCPM 中的二值化標(biāo)簽相適應(yīng)。
幀間模式
在幀間模式中,需要同時(shí)考慮 CTU 內(nèi)容中的空間相關(guān)性,以及不同幀 CTU 內(nèi)容的時(shí)間相關(guān)性。在 ETH-CNN 的基礎(chǔ)上,作者進(jìn)一步提出可以提前終止的分層 LSTM(early-terminated hierarchical LSTM,ETH-LSTM),來學(xué)習(xí)幀間 CU 分割的長(zhǎng)、短時(shí)依賴關(guān)系。
▲?圖6. ETH-LSTM結(jié)構(gòu)
ETH-LSTM 的結(jié)構(gòu)如圖 6 所示。由于幀間模式同樣需要提取 CTU 中的空間特征,首先,仍然將 CTU 輸入到 ETH-CNN 中。但與幀內(nèi)模式不同,幀間模式的網(wǎng)絡(luò)輸入是殘差 CTU 的亮度信息,而不是原始 CTU 的亮度信息。這里的殘差,是通過對(duì)當(dāng)前幀進(jìn)行快速預(yù)編碼獲得的,此過程與標(biāo)準(zhǔn)編碼過程相似,唯一區(qū)別是將 CU 和 PU 強(qiáng)制設(shè)為最大尺寸 64×64,以節(jié)省編碼時(shí)間。
盡管額外的預(yù)編碼過程帶來了時(shí)間冗余,但這種冗余只占標(biāo)準(zhǔn)編碼時(shí)間的 3%,不會(huì)顯著影響算法的最終性能。將殘差 CTU 通過 ETH-CNN 進(jìn)行處理后,把第 7 層(即第 1 個(gè)全連接層)三個(gè)支路輸出的特征向量,送入到 ETH-LSTM 的三級(jí),以備后續(xù)處理。?
在 ETH-LSTM 中,第 1、2、3 級(jí)各有一個(gè) LSTM 單元。每個(gè) LSTM 單元接受當(dāng)前時(shí)刻的輸入向量(即 CNN 處理后的特征),以及上一時(shí)刻 LSTM 產(chǎn)生的狀態(tài)向量,由此來更新當(dāng)前時(shí)刻 LSTM 的狀態(tài)向量和輸出向量。LSTM 單元的輸出向量,再依次通過兩個(gè)全連接層做進(jìn)一步處理,最終得到 HCPM 所需的二值化 CU 分割概率。
與幀內(nèi)模式類似,此處的每個(gè)全連接層也考慮了外部特征:QP 值和當(dāng)前幀在 GOP 中的幀順序,以適應(yīng)不同編碼質(zhì)量和幀位置對(duì) CU 分割的影響。與 ETH-CNN 類似,ETH-LSTM 中同樣引入提前終止機(jī)制,以減少 ETH-LSTM 中的計(jì)算冗余。最終,將 ETH-LSTM 中三個(gè)級(jí)別的輸出聯(lián)合起來,即可得到 HCPM 預(yù)測(cè)結(jié)果。?
實(shí)驗(yàn)
在測(cè)試本方法性能時(shí),選用 18 個(gè) HEVC 標(biāo)準(zhǔn)視頻以及本文圖像數(shù)據(jù)庫(kù)中的 200 幅測(cè)試圖像,保證測(cè)試數(shù)據(jù)的多樣性和代表性,在 QP 22,27,32,37 和全部四種標(biāo)準(zhǔn)配置(AI,LDP,LDB 和 RA)下,用標(biāo)準(zhǔn) HEVC 編碼器和作者改進(jìn)后的編碼器分別進(jìn)行編碼,比較編碼時(shí)間的減少率和率失真性能。幀內(nèi)和幀間模式的測(cè)試結(jié)果如表 2 和表 3 所示。
▲?表2. 幀內(nèi)模式復(fù)雜度和率失真性能對(duì)比
▲?表3. 幀間模式復(fù)雜度和率失真性能對(duì)比
兩表中的 BD-BR 和 BD-PSNR 是衡量率失真性能的關(guān)鍵指標(biāo),代表相同質(zhì)量下的碼率變化和相同碼率下的質(zhì)量變化。在編碼復(fù)雜度優(yōu)化中,對(duì)塊分割的快速判決并不是絕對(duì)準(zhǔn)確,因此所有算法都會(huì)不同程度地帶來率失真損失,即 BD-BR>0,BD-PSNR<0。這兩項(xiàng)指標(biāo)的絕對(duì)值越小,說明對(duì)率失真性能的不利影響越小,算法越優(yōu)。表中的 ΔT 為編碼時(shí)間節(jié)省率,絕對(duì)值越大說明算法越優(yōu)??梢?#xff0c;本文方法在率失真性能優(yōu)于先前方法的前提下,能夠更有效地降低編碼復(fù)雜度。
▲?圖7. 編碼時(shí)間構(gòu)成。藍(lán)柱和綠柱代表網(wǎng)絡(luò)運(yùn)行時(shí)間和本方法中HM編碼時(shí)間占原編碼時(shí)間的百分比,柱左側(cè)的藍(lán)色數(shù)字代表網(wǎng)絡(luò)運(yùn)行的絕對(duì)時(shí)間(單位毫秒)
總結(jié)
至此,已經(jīng)說明了本文方法的有效性。兼顧良好的復(fù)雜度和率失真性能,是因?yàn)樯疃壬窠?jīng)網(wǎng)絡(luò)能夠準(zhǔn)確預(yù)測(cè) CU 分割。另一個(gè)自然而然的問題是:既然網(wǎng)絡(luò)層數(shù)和參數(shù)都比較多,網(wǎng)絡(luò)本身的運(yùn)行是否比較費(fèi)時(shí),影響總的編碼時(shí)間?
實(shí)際上,如圖 7 所示,無論在幀內(nèi)或幀間模式,網(wǎng)絡(luò)本身的運(yùn)行時(shí)間都不超過原編碼時(shí)間的 1%,因此幾乎不會(huì)影響最終的編碼復(fù)雜度。這得益于獨(dú)特的、適用于 CU 分割的網(wǎng)絡(luò)結(jié)構(gòu),包括三個(gè)主要原因:?
1. 首先,CU 分割結(jié)果采用高效的 HCPM 表示,調(diào)用一次 CNN(或 CNN+LSTM),即可預(yù)測(cè)整個(gè) CTU 中所有 CU 的分割結(jié)果,使網(wǎng)絡(luò)運(yùn)行次數(shù)遠(yuǎn)少于傳統(tǒng)方法中分別預(yù)測(cè)每個(gè) CU;?
2. 其次,ETH-CNN 中的卷積層跨度等于核的寬度,即卷積核間無重疊,這與傳統(tǒng)的有重疊卷積相比,復(fù)雜度能降低到幾分之一到幾十分之一;?
3. 另外,ETH-CNN 和 ETH-LSTM 都提供了提前終止機(jī)制,能夠根據(jù)上一級(jí) CU 分割結(jié)果跳過下一級(jí)的一部分運(yùn)算。?
以上幾個(gè)原因,使得深度網(wǎng)絡(luò)本身運(yùn)行時(shí)間遠(yuǎn)小于 HM 編碼時(shí)間,保證了本文方法降低編碼復(fù)雜度的可行性和有效性。
點(diǎn)擊標(biāo)題查看更多論文解讀:?
??ACL2018高分論文:混合高斯隱向量文法
??基于詞向量的簡(jiǎn)單模型 | ACL 2018論文解讀
??COLING 2018最佳論文:序列標(biāo)注經(jīng)典模型復(fù)現(xiàn)
??圖像壓縮哪家強(qiáng)?請(qǐng)看這份超詳細(xì)對(duì)比
??CVPR 2018 最佳論文解讀:探秘任務(wù)遷移學(xué)習(xí)
??哈佛NLP組論文解讀:基于隱變量的注意力模型
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 下載論文
總結(jié)
以上是生活随笔為你收集整理的TIP 2018论文概述:基于深度学习的HEVC复杂度优化的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 线下报名 | YOCSEF TDS:深度
- 下一篇: TIP 2019开源论文:基于深度学习的