人工机器:深度学习CNN到底实现了什么
智能的廣義含義,即學(xué)習(xí)模式和舉一反三,在幾何空間里尋找代數(shù)路徑。判別式模型和生成式模型,都是使用大量的數(shù)據(jù)輸入輸出來(lái)擬合出代數(shù)路徑。
現(xiàn)在的歸納式和生成式深度學(xué)習(xí)離AI還很遙遠(yuǎn),AI更需要深度強(qiáng)化學(xué)習(xí)。參考:作為歸納學(xué)習(xí)的深度學(xué)習(xí)-https://blog.csdn.net/wishchin/article/details/71195098
從泛函分析里得出的結(jié)論:模式識(shí)別的數(shù)學(xué)表示--https://blog.csdn.net/wishchin/article/details/74644489
對(duì)一維信號(hào)識(shí)別和變長(zhǎng)模式分析,我不甚了解,對(duì)LSTM處理變長(zhǎng)一維特征之外的更強(qiáng)的作用也不是特別了解:https://blog.csdn.net/wishchin/article/details/47949245。
通過數(shù)據(jù)學(xué)習(xí)全部判別模式參數(shù)的模型被稱為歸納模型。此外,通過學(xué)習(xí)邊緣概率參數(shù)網(wǎng)絡(luò)生成式模型被稱為GAN的網(wǎng)絡(luò)。
CNN學(xué)習(xí)到了什么?CNN學(xué)習(xí)到了 曾經(jīng)困擾 傳統(tǒng)方法圖像處理與模式識(shí)別 的"語(yǔ)義鴻溝“。
感知鴻溝(sensory gap),它是一種在現(xiàn)實(shí)世界的物體和該場(chǎng)景記錄下來(lái)的(計(jì)算上的)描述信息之間的鴻溝。語(yǔ)義鴻溝(semantic gap),它是由于所視覺數(shù)據(jù)中提煉出的信息與在特定場(chǎng)合下這些數(shù)據(jù)對(duì)用戶的解釋之間缺乏一致性。
語(yǔ)義鴻溝是指通常人們?cè)谂袆e圖像的相似性時(shí)并非建立在圖像低層視覺特征的相似上,而是建立在對(duì)圖像所描述的對(duì)象或事件的語(yǔ)義理解的基礎(chǔ)上。
或許這張圖可以說(shuō)明:https://blog.csdn.net/wishchin/article/details/76014318,人眼可以從中間的FeatureMap和卷積核,從直覺上取得底層特征和高層特征的聯(lián)系,而不是通過一個(gè)個(gè)抽象的模式提取的公式上。這樣就間接地跨過語(yǔ)義鴻溝!
CNN網(wǎng)絡(luò):一個(gè)無(wú)法形式化進(jìn)行最優(yōu)化函數(shù)最優(yōu)解,但可以進(jìn)行語(yǔ)義解釋的圖像 降維哈希/特征提取/模式識(shí)別 的三維空間網(wǎng)絡(luò)。
?????????????????? 壓縮映射,特征提取是一個(gè)哈希過程,把特征提取到0維離散的值就成了模式識(shí)別。
?????????????????? 參考:傳統(tǒng)模式識(shí)別的數(shù)學(xué)表示--https://blog.csdn.net/wishchin/article/details/74780073
?
PAC學(xué)習(xí)理論與VC維:而神經(jīng)網(wǎng)絡(luò)定義VC維看似不受限制
PAC可學(xué)習(xí)理論的公式:下列公式是機(jī)器學(xué)習(xí)的泛化誤差和一些學(xué)習(xí)器參數(shù)的關(guān)系
??? 公式12
?在機(jī)器學(xué)習(xí)中,簡(jiǎn)單的算法意味著增長(zhǎng)函數(shù)
????????????????
深度網(wǎng)絡(luò)會(huì)越來(lái)越大,越來(lái)越稀疏,直到能分類所有類別,直到找到精確的 切割和減枝范式,即 范式化的 遷移方法。
?
創(chuàng)作挑戰(zhàn)賽新人創(chuàng)作獎(jiǎng)勵(lì)來(lái)咯,堅(jiān)持創(chuàng)作打卡瓜分現(xiàn)金大獎(jiǎng)總結(jié)
以上是生活随笔為你收集整理的人工机器:深度学习CNN到底实现了什么的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: cf皇龙戒有什么用 为什么还有人玩穿越火
- 下一篇: 机器学习之人脸识别face_recogn