【深度学习】每个数据科学家都必须了解的 6 种神经网络类型
神經(jīng)網(wǎng)絡(luò)是強(qiáng)大的深度學(xué)習(xí)模型,能夠在幾秒鐘內(nèi)合成大量數(shù)據(jù)。有許多不同類型的神經(jīng)網(wǎng)絡(luò),它們幫助我們完成各種日常任務(wù),從推薦電影或音樂(lè)到幫助我們?cè)诰€購(gòu)物。
與飛機(jī)受到鳥類啟發(fā)的方式類似,神經(jīng)網(wǎng)絡(luò)(NNs)也受到生物神經(jīng)網(wǎng)絡(luò)的啟發(fā)。雖然原理相同,但過(guò)程和結(jié)構(gòu)可能大不相同。下面我來(lái)介紹一下每個(gè)數(shù)據(jù)科學(xué)家必須了解的 6 種神經(jīng)網(wǎng)絡(luò)類型。
神經(jīng)網(wǎng)絡(luò)的6種基本類型
現(xiàn)在,我們了解神經(jīng)網(wǎng)絡(luò)是如何工作的,讓我們看看深度學(xué)習(xí)中使用的神經(jīng)網(wǎng)絡(luò)的各種類型和功能:
感知器
多層感知器
卷積神經(jīng)網(wǎng)絡(luò)
循環(huán)神經(jīng)網(wǎng)絡(luò)
長(zhǎng)期短期記憶網(wǎng)絡(luò)
生成對(duì)抗網(wǎng)絡(luò)
1、感知器
感知器是最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。此模型也稱為單層神經(jīng)網(wǎng)絡(luò),僅包含兩個(gè)層:
輸入層
輸出層
這里沒(méi)有隱藏的圖層。感知器采用輸入并計(jì)算每個(gè)輸入節(jié)點(diǎn)的加權(quán)輸入。此加權(quán)輸入通過(guò)激活函數(shù)生成輸出。由于體系結(jié)構(gòu)簡(jiǎn)單,它不能用于復(fù)雜的任務(wù)。
2、多層感知器
多層感知器(MLP)通常表示完全連接的網(wǎng)絡(luò)。換句話說(shuō),一個(gè)層中的每個(gè)神經(jīng)元都連接到相鄰層中的所有神經(jīng)元。因此,MLP 具有比感知器更高的處理能力。但是,這些網(wǎng)絡(luò)的"完全連接性"使得它們?nèi)菀壮霈F(xiàn)數(shù)據(jù)過(guò)度擬合。減少過(guò)度擬合的典型方法包括提前停止、添加輟學(xué)層和添加正則化術(shù)語(yǔ)。
3、卷積神經(jīng)網(wǎng)絡(luò)
人類使用眼睛中的神經(jīng)元來(lái)識(shí)別物體,這些神經(jīng)元可以檢測(cè)邊緣、形狀、深度和運(yùn)動(dòng)。卷積神經(jīng)網(wǎng)絡(luò)(CNN)是計(jì)算機(jī)視覺(jué)中最重要的神經(jīng)網(wǎng)絡(luò)類型之一,其靈感來(lái)自眼睛的視覺(jué)皮層,用于物體檢測(cè)等視覺(jué)任務(wù)。CNN 的卷積層是它與其他神經(jīng)網(wǎng)絡(luò)區(qū)別開來(lái)的地方。此層執(zhí)行點(diǎn)產(chǎn)品,即組件乘法,然后是加法。
在 CNN 的初始階段,篩選器是隨機(jī)的,不會(huì)提供任何有用的結(jié)果。使用損耗函數(shù),調(diào)整篩選器,通過(guò)多次迭代,網(wǎng)絡(luò)在實(shí)現(xiàn)其任務(wù)(例如檢測(cè)對(duì)象邊緣)方面更上一個(gè)。盡管 CNN 通常需要大量的訓(xùn)練數(shù)據(jù),但它們廣泛適用于各種圖像甚至語(yǔ)言任務(wù)。CNN的靈感來(lái)自視覺(jué)皮層,因此它們廣泛用于涉及計(jì)算機(jī)視覺(jué)應(yīng)用的應(yīng)用。這些應(yīng)用包括面部識(shí)別、人臉檢測(cè)、物體識(shí)別、手寫信件識(shí)別和醫(yī)療診斷中腫瘤的檢測(cè)。
4、循環(huán)神經(jīng)網(wǎng)絡(luò)
當(dāng)我們閱讀特定的章節(jié)時(shí),我們并不試圖孤立地理解它,而是與前幾章有關(guān)。同樣,就像自然神經(jīng)網(wǎng)絡(luò)一樣,機(jī)器學(xué)習(xí)模型需要利用已經(jīng)學(xué)習(xí)的文本來(lái)理解文本。
在傳統(tǒng)的機(jī)器學(xué)習(xí)模型中,這是不可能的,因?yàn)槲覀儾荒艽鎯?chǔ)模型的前幾個(gè)階段。但是,循環(huán)神經(jīng)網(wǎng)絡(luò)(通常稱為 RNN )是一種神經(jīng)網(wǎng)絡(luò)類型,可以為我們做到這一點(diǎn),這使得它們對(duì)于需要使用過(guò)去數(shù)據(jù)的應(yīng)用程序非常有用。讓我們仔細(xì)看看下面的 RNN。
循環(huán)神經(jīng)網(wǎng)絡(luò)是旨在解釋時(shí)態(tài)或順序信息的網(wǎng)絡(luò)。RNN 使用序列中的其他數(shù)據(jù)點(diǎn)進(jìn)行更好的預(yù)測(cè)。他們通過(guò)輸入和重用序列中以前節(jié)點(diǎn)或以后節(jié)點(diǎn)的激活來(lái)影響輸出來(lái)達(dá)到此目的。
RNN 通常用于連接序列應(yīng)用,如時(shí)間序列預(yù)測(cè)、信號(hào)處理和手寫字符識(shí)別。此外,RNN廣泛應(yīng)用于音樂(lè)生成、圖像字幕和預(yù)測(cè)股市波動(dòng)
5、長(zhǎng)期短期記憶網(wǎng)絡(luò)
在 RNN 中,我們只能保留最近階段的信息。但對(duì)于像語(yǔ)言翻譯這樣的問(wèn)題,我們需要更多的保留。這就是 LSTM 網(wǎng)絡(luò)擅長(zhǎng)的地方。
為了學(xué)習(xí)長(zhǎng)期依賴性,我們的神經(jīng)網(wǎng)絡(luò)需要記憶能力。LSTM 是 RNN 的一個(gè)特例,可以做到這一點(diǎn)。它們具有與 RNN 相同的鏈?zhǔn)浇Y(jié)構(gòu),但具有不同的重復(fù)模塊結(jié)構(gòu)。這種重復(fù)模塊結(jié)構(gòu)允許網(wǎng)絡(luò)保留大量上一階段值。我已經(jīng)提到LSTM網(wǎng)絡(luò)對(duì)于語(yǔ)言翻譯系統(tǒng)的強(qiáng)大功能,但它們有廣泛的應(yīng)用。其中一些應(yīng)用程序包括序列到序列建模任務(wù),如異常檢測(cè)、語(yǔ)音識(shí)別、文本總結(jié)和視頻分類。
6、生成對(duì)抗網(wǎng)絡(luò)
給定訓(xùn)練數(shù)據(jù),生成對(duì)抗網(wǎng)絡(luò)(或簡(jiǎn)單地說(shuō),GAN)會(huì)學(xué)習(xí)使用與訓(xùn)練數(shù)據(jù)相同的統(tǒng)計(jì)信息生成新數(shù)據(jù)。例如,如果我們?cè)谡掌嫌?xùn)練一個(gè) GAN 模型,那么訓(xùn)練有素的模型將能夠生成類似于輸入照片的新照片。
GAN 包含兩個(gè)部分:一個(gè)生成器和一個(gè)鑒別器。生成器模型創(chuàng)建新數(shù)據(jù),而鑒別器嘗試從生成的數(shù)據(jù)中確定真實(shí)數(shù)據(jù)。隨著生成器和鑒別器在各自的工作上做得更好,生成的數(shù)據(jù)因此得到改善,直到(理想情況下)質(zhì)量與訓(xùn)練數(shù)據(jù)幾乎相同。GAN 通常用于為游戲和動(dòng)畫電影創(chuàng)建卡通圖像或面孔。此外,GAN 可以幫助從少量數(shù)據(jù)生成合成數(shù)據(jù),以幫助改進(jìn)機(jī)器學(xué)習(xí)模型。
往期精彩回顧適合初學(xué)者入門人工智能的路線及資料下載機(jī)器學(xué)習(xí)及深度學(xué)習(xí)筆記等資料打印機(jī)器學(xué)習(xí)在線手冊(cè)深度學(xué)習(xí)筆記專輯《統(tǒng)計(jì)學(xué)習(xí)方法》的代碼復(fù)現(xiàn)專輯 AI基礎(chǔ)下載機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)專輯 本站qq群851320808,加入微信群請(qǐng)掃碼:總結(jié)
以上是生活随笔為你收集整理的【深度学习】每个数据科学家都必须了解的 6 种神经网络类型的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 温州大学《机器学习》课程课件(二)(回归
- 下一篇: windows7系统电脑管理员权限的更改