日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

One-shot Learning with Memory-Augmented Neural Networks

發(fā)布時間:2025/3/16 编程问答 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 One-shot Learning with Memory-Augmented Neural Networks 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

摘要

盡管深度學習應用領域最近取得了較大的進展,但是小樣本學習的挑戰(zhàn)是一直存在的,傳統(tǒng)的基于梯度的網(wǎng)絡需要大量的數(shù)據(jù)去學習,通常需要經(jīng)過大量廣泛的迭代訓練。當給模型輸入新數(shù)據(jù)時,模型必須低效的重新學習其參數(shù)從而充分的融入新的信息,并不會造成較大的干擾影響。具有增強記憶能力的網(wǎng)絡結(jié)構(gòu),例如NTMs具有快速編碼新信息的能力,因此能消除傳統(tǒng)模型的缺點。這里,我們證明了記憶增強神經(jīng)網(wǎng)絡(memory-augmented neural network)具有快速吸收新數(shù)據(jù)知識的能力,并且能利用這些吸收了的數(shù)據(jù),在少量樣本的基礎上做出準確的預測。

我們也介紹了一個訪問外部記憶存儲器的方法,該方法關注于記憶存儲器的內(nèi)容,這和之前提出的使用基于記憶存儲器位置的聚焦機制的方法不同。

  • 介紹
  • 當前深度學習的成功取決于基于梯度的優(yōu)化算法應用于高容量模型(神經(jīng)元數(shù)量)的能力。這種方法在許多以原始感官為輸入的大型監(jiān)督任務上已經(jīng)取得了非常好的結(jié)果,例如圖像分類、語音識別、游戲等。值得注意的是,這些任務上的表現(xiàn)通常是在大型數(shù)據(jù)集上經(jīng)過廣泛的增量式訓練來評估得出的。相反,許多興趣問題(many problems of interest)需要從少量的數(shù)據(jù)中快速推斷出結(jié)果。在one-shot learning的記心中,單一的觀察結(jié)果會導致行為的突然轉(zhuǎn)變。

    這種靈活的適應是人類學習中一個重要的方面,從發(fā)動機的控制到抽象概念的獲取都得到了表現(xiàn)。根據(jù)少量信息的推斷生成新的行為,比如推斷一個只在上下文中出現(xiàn)過一兩次的單詞的全局適用性,這是超出當代智能能力的。這對深度學習提出了嚴峻的挑戰(zhàn),只有在少數(shù)樣本逐一呈現(xiàn)的情況下才有一種簡單的基于梯度的解決方案:從目前可用數(shù)據(jù)中完全重新學習參數(shù)。但是這種方法往往會導致不良學習和災難性干擾,這時非參數(shù)方法往往被認為更合適。

    可是先前的工作提出一種從稀疏數(shù)據(jù)中學習的策略,并取決于元學習的概念。雖然meta-learning。雖然meta-learning術(shù)語已經(jīng)被用在很多領域。元學習通常考慮為學習兩種水平的場景,并且每個水平和不同的時間尺度有關。快速學習通常出現(xiàn)在一個任務內(nèi),例如在特定的數(shù)據(jù)集中進行準確分類。這種學習是由在任務中逐漸積累的知識來指導的,這些知識捕獲了任務結(jié)構(gòu)在目標域中的變化方式或變化規(guī)律。考慮到這種結(jié)構(gòu)的兩層形式,因此也被叫做learning to learn。

    已經(jīng)提出的具有記憶能力的神經(jīng)網(wǎng)絡能夠證明確實能夠進行元學習。這些網(wǎng)絡能夠通過權(quán)重更新改變偏置的值,并能通過快速學習記憶存儲中的緩存表示(cache representations in memory stores)來調(diào)整輸出結(jié)果。例如用lstms當做元學習的網(wǎng)絡能根據(jù)少量的數(shù)據(jù)樣本就能快速學習到之前沒有見過的二次函數(shù)。

    具有記憶能力的神經(jīng)網(wǎng)絡給元學習在深度網(wǎng)絡中提供了一種可行的方法。但是使用非結(jié)構(gòu)化循環(huán)網(wǎng)絡結(jié)構(gòu)的內(nèi)在記憶單元這種特定的策略不可能擴展到每個新任務都需要快速編碼吸收大量新信息的場景。一個可擴展的解決方案必須有以下必要的要求:首先,信息必須穩(wěn)定的表現(xiàn)形式存儲在記憶存儲器中 (以便在需要時可以可靠地訪問),并且記憶中的元素可尋址(以便可以選擇性的訪問信息);其次,參數(shù)的數(shù)量不應該和記憶存儲器的大小有關聯(lián)。標準的具有記憶的結(jié)構(gòu)例如LSTMs并沒有這兩種特性。然而最近的架構(gòu)中如神經(jīng)圖靈機NTMS和記憶網(wǎng)絡滿足了這兩個特點的要求。因此在文中我們從一個高容量的記憶增強神經(jīng)網(wǎng)絡的角度重新考慮了元學習的問題和設置(setting),(注:這里MANN指配備外部記憶的網(wǎng)絡,而不是其他內(nèi)部記憶單元的架構(gòu)如LSTM)。

    我們的方法結(jié)合最有利的兩部分:通過梯度下降慢慢的從原數(shù)據(jù)中獲取有用表示(representations)的抽象方法;通過外部記憶存儲模塊在一次表示之后(after a single presentation)快速吸收沒有見到過的知識。這種結(jié)合使元學習更加健壯,并擴展了可以有效應用深度學習的問題范圍。

  • 元學習任務方法論
  • 通常我們選擇一個參數(shù)θ在數(shù)據(jù)集D上去最小化損失函數(shù)L。可是對于元學習來說,我們選擇參數(shù)來降低數(shù)據(jù)集分布P(D)中的期望損失。

    要做到這一點,正確的任務設置至關重要。在我們的任務設置中,一個任務或者插曲片段(a task, or episode)涉及一些數(shù)據(jù)集D的表示。Yt既是一個目標,也是以時間偏移的方式與xt一塊作為輸入。這個網(wǎng)絡的目的是在給定的時間戳t上為xt輸出正確的標簽。重要的是,標簽是從數(shù)據(jù)集中混洗得到的,這樣能夠防止網(wǎng)絡緩慢的學習樣本和類的綁定關系來更新權(quán)重。相反的的是,網(wǎng)絡必須將數(shù)據(jù)樣本存在內(nèi)存中,直到下一個時間戳到達,正確的類標簽被展示出來,在這之后,樣本和類標簽的對應關系能被發(fā)現(xiàn)并且存儲這種關系信息供以后使用。因此,對于給定的一段情節(jié)(episode),理想的表現(xiàn)會涉及到對第一個類的標簽值(the first presentation of a class,我理解為類的值)的隨機猜測,(因為標簽被混洗了,不能根據(jù)之前的情節(jié)推斷出正確的標簽),并且之后使用記憶存儲器來實現(xiàn)準確率的完美預測。最終,這個系統(tǒng)目標是對預測分布p進行建模,在每一個時間步引起相應的損失。

    這個任務結(jié)構(gòu)包含可利用的元知識:元學習的模型學習將數(shù)據(jù)表示綁定到其對應的正確標簽,而不管數(shù)據(jù)表示或標簽的實際內(nèi)容如何,并且將采用一般方案將這些綁定表示(bound representations)映射到正確的類或用于預測的函數(shù)值。

  • 記憶增強模型
  • 3.1神經(jīng)圖靈機

    神經(jīng)圖靈機是MANN一種完全不同的實現(xiàn)。他包括一個控制器,例如一個前饋網(wǎng)絡或者LSTM,這和一個使用一些讀寫頭的額外記憶模塊相互影響。圖靈機中的記憶模塊的記憶單元編碼和索引都是很快的,向量表示可能在每個時間步驟被放入或取出內(nèi)存。這種能力使NTM稱為元學習和短時預測完美的候選者,因為它既能通過慢的權(quán)重更新實現(xiàn)長期存儲,并且通過額外記憶模塊實現(xiàn)短期存儲。如果NTM能夠?qū)W習一種通用策略來將各種表示(representations,這里指內(nèi)存單元中記錄的信息)類型放入記憶單元中,并且能夠?qū)W習之后如何使用這些表示來做預測,那么他可能利用他的速度來對僅見過一次的數(shù)據(jù)進行準確預測。

    ?????? 我們模型中的控制器要么使用LSTMs或者前饋網(wǎng)絡。控制器使用讀寫頭與外部存儲器模塊交互,讀寫頭分別用于從存儲器中檢索表示(representations)或?qū)⑺鼈兎湃氪鎯ζ髦小=o定一些輸入xi,控制器生成一個鍵值kt,這個鍵值被存入記憶矩陣Mt的一行,或者被用于從一行中索引一個特定的記憶單元i,Mt(i),當索引一個記憶單元Mt的時候,會使用余弦相似度。

    用于去產(chǎn)生讀權(quán)重向量Wrt,根據(jù)以下公式計算得到

    一個記憶單元rt,通過使用權(quán)重向量進行索引:

    這個記憶單元的內(nèi)容被控制器作為一個分類器的輸入淚如softmax層的輸入,或者作為下一個控制器狀態(tài)的額外輸入。

    3.2、最少或最近使用的記憶信息

    ??? 在之前NTM的例子中,記憶信息通過內(nèi)容或者位置被索引。基于位置的索引常常被用于迭代更新的步驟,就像沿著磁帶跑一樣,也回用于在記憶信息上的長距離跳躍。這種方法對于基于序列預測的任務是有優(yōu)勢的,可是這種方式對于強調(diào)獨立于序列之外的信息的任務并不是最優(yōu)的。因此,在我們的模型中,包含一個新設計的讀取記憶信息的模式叫做LRUA。

    ??? LRUA模型是一個純粹的基于內(nèi)容的記憶讀寫方式,記憶信息要么被寫到斤少使用的記憶模塊的位置或者最近使用的記憶模塊的位置。這個模塊看重有關信息的準確編碼(吸收提取數(shù)據(jù)的知識),并且是完全的基于內(nèi)容的索引。新的信息被寫入到很少使用的位置或者寫入到最后使用的位置,保存最近編碼的信息,這可以用更加新的、可能更相關的信息更新的記憶信息。這兩種方式的不同在于先前的讀參數(shù)和使用參數(shù)(usage weights wtu),這些使用參數(shù)通過衰減參數(shù)逐步更新參數(shù)值,

    這里,gama是衰減參數(shù),讀向量參數(shù)由前邊計算出來,最少使用的權(quán)重能通過用戶參數(shù)計算出來,其中m(v,n)表示前n個

    n是讀記憶的數(shù)目,寫參數(shù)向量(write weights wtw)由以下方式計算得到:

    σ(·) 是sigmoid函數(shù),

    記憶信息能夠被寫到標記為零記憶槽,或者之前被使用過的槽(slot),如果是之前使用過的槽,那么就是最少被使用的槽,并且原本槽里的記憶信息會被刪除。

    總結(jié)

    以上是生活随笔為你收集整理的One-shot Learning with Memory-Augmented Neural Networks的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。