SCI三区论文大修笔记(已录用)
本人5月份往Journal of Process Control期刊投了一篇論文,是基于深度學(xué)習(xí)圖像序列預(yù)測(cè)的。前幾天收到一審結(jié)果,大修。兩個(gè)審稿人給了幾篇參考文獻(xiàn),此貼專門用來做筆記方便自己查閱。
論文1: Video salient object detection via fully convolutional networks
提出了一種深度學(xué)習(xí)模型,可以有效地檢測(cè)視頻中的顯著區(qū)域。解決了兩個(gè)重要問題:
1)深度視頻顯著性模型訓(xùn)練,缺少足夠大和按像素標(biāo)注的視頻數(shù)據(jù);
2)快速視頻顯著性訓(xùn)練和檢測(cè)。
- 所提出的深度視頻顯著性網(wǎng)絡(luò)包括兩個(gè)模塊,分別用于捕獲空間和時(shí)間顯著性信息。動(dòng)態(tài)顯著性模型結(jié)合靜態(tài)顯著性模型的顯著性估計(jì),直接產(chǎn)生時(shí)空顯著性推斷而無需耗時(shí)的光流計(jì)算。并提出了一種新穎的數(shù)據(jù)增強(qiáng)技術(shù)。
- 利用大量圖像訓(xùn)練數(shù)據(jù)來合成視頻數(shù)據(jù)的新技術(shù)。CNN模型可以在豐富的視頻和圖像上進(jìn)行有效且完整的訓(xùn)練,從而成功地學(xué)習(xí)靜態(tài)和動(dòng)態(tài)顯著特征。
顯著性模型由兩個(gè)模塊組成,這兩個(gè)模塊設(shè)計(jì)用于同時(shí)捕獲空間和時(shí)間顯著性信息。靜態(tài)顯著性網(wǎng)絡(luò)將單幀作為輸入并輸出靜態(tài)顯著性估計(jì)。動(dòng)態(tài)顯著性網(wǎng)絡(luò)從幀對(duì)中學(xué)習(xí)動(dòng)態(tài)顯著性,并將第一個(gè)模塊生成的靜態(tài)顯著性作為先驗(yàn),從而產(chǎn)生最終的時(shí)空顯著圖。
靜態(tài)顯著性檢測(cè)網(wǎng)絡(luò)的插圖。網(wǎng)絡(luò)采用單幀圖像(例如,224 × 224 )作為輸入,采用多層卷積網(wǎng)絡(luò),將輸入圖像轉(zhuǎn)換為多維特征表示,然后應(yīng)用一堆反卷積網(wǎng)絡(luò)對(duì)從卷積網(wǎng)絡(luò)中提取的特征進(jìn)行上采樣。最后,一個(gè)完全卷積網(wǎng)絡(luò)1 × 1 內(nèi)核和sigmoid活動(dòng)函數(shù)用于輸出與輸入相同大小的概率圖,其中較大的值表示較高的顯著性值。
網(wǎng)絡(luò)動(dòng)態(tài)顯著性檢測(cè)的插圖。連續(xù)幀對(duì)來自真實(shí)視頻數(shù)據(jù)或從現(xiàn)有圖像數(shù)據(jù)集合成,以及從我們的靜態(tài)顯著性網(wǎng)絡(luò)推斷出的靜態(tài)顯著性信息被連接并饋送到動(dòng)態(tài)網(wǎng)絡(luò)中,該動(dòng)態(tài)網(wǎng)絡(luò)具有與靜態(tài)網(wǎng)絡(luò)類似的FCN架構(gòu)。動(dòng)態(tài)網(wǎng)絡(luò)捕獲動(dòng)態(tài)顯著性,同時(shí)考慮靜態(tài)顯著性,從而直接生成時(shí)空顯著性估計(jì)。
總結(jié):
1、論文一直強(qiáng)調(diào)將單個(gè)視頻幀輸入到神經(jīng)網(wǎng)絡(luò)訓(xùn)練,往往沒有學(xué)習(xí)時(shí)間信息,但在我的網(wǎng)絡(luò)中,LSTM部分似乎可以解釋學(xué)習(xí)到了時(shí)間信息。
2、論文中的數(shù)據(jù)集是將大量圖像數(shù)據(jù)合成視頻數(shù)據(jù),而我本來就是用視頻根據(jù)時(shí)間順序按幀提取的,同樣包含時(shí)間信息。
論文2: A deep network solution for attention and aesthetics aware photo cropping
研究照片裁剪的問題,其目的在于找到輸入圖像的裁剪窗口,以盡可能地保留其重要部分,同時(shí)在美學(xué)上令人愉悅。(感覺與我論文的內(nèi)容不太相關(guān),沒有深入研究)
論文3: Stochastic Configuration Networks: Fundamentals and Algorithms
提出的學(xué)習(xí)者模型由隨機(jī)配置(SC)算法(稱為SC網(wǎng)絡(luò)(SCN))遞增地生成。與現(xiàn)有的單層前饋網(wǎng)絡(luò)隨機(jī)學(xué)習(xí)算法相比,根據(jù)監(jiān)督機(jī)制隨機(jī)分配隱藏節(jié)點(diǎn)的輸入權(quán)重和偏差,并以建設(shè)性或選擇性方式對(duì)輸出權(quán)重進(jìn)行分析評(píng)估。
主要和原始貢獻(xiàn)在于為隨機(jī)參數(shù)分配不等式約束并自適應(yīng)地選擇隨機(jī)參數(shù)的范圍,確保構(gòu)建隨機(jī)化的通用逼近性質(zhì)。SCN的三種算法實(shí)現(xiàn),即算法SC-I,SC-II和SC-III,具有用于配置隨機(jī)參數(shù)的相同監(jiān)督機(jī)制,但是計(jì)算輸出權(quán)重的方法不同。具體地說,SC-I采用一種建設(shè)性方案來僅為新添加的隱藏節(jié)點(diǎn)評(píng)估輸出權(quán)重,并保持所有先前獲得的輸出權(quán)重不變; SC-II通過用戶指定的移位窗口大小求解局部最小二乘問題來重新計(jì)算當(dāng)前輸出權(quán)重的一部分; 和SC-III通過解決當(dāng)前學(xué)習(xí)者模型的全局最小二乘問題,一起找到輸出權(quán)重。
神經(jīng)網(wǎng)絡(luò)的過程不是用固定的架構(gòu)訓(xùn)練學(xué)習(xí)者模型,而是從小型網(wǎng)絡(luò)開始,然后逐步添加隱藏節(jié)點(diǎn),直到達(dá)到可接受的容差。該方法不需要關(guān)于給定任務(wù)的網(wǎng)絡(luò)復(fù)雜性的任何先驗(yàn)知識(shí)。
總結(jié):與用于單層前饋神經(jīng)網(wǎng)絡(luò)(例如,隨機(jī)向量功能鏈路網(wǎng)絡(luò))的已知隨機(jī)學(xué)習(xí)算法相比,隨機(jī)配置網(wǎng)絡(luò)(SCN)根據(jù)監(jiān)督機(jī)制隨機(jī)分配隱藏節(jié)點(diǎn)的輸入權(quán)重和偏差。 同時(shí)以建設(shè)性或選擇性方式對(duì)輸出權(quán)重進(jìn)行分析評(píng)估。(隨機(jī)學(xué)習(xí)算法,在線性回歸和圖像分類任務(wù)中表現(xiàn)優(yōu))
總結(jié)
以上是生活随笔為你收集整理的SCI三区论文大修笔记(已录用)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: C语言中delay的用法
- 下一篇: c语言while延时10ms,for循环