人工机器:深度学习CNN到底实现了什么
智能的廣義含義,即學習模式和舉一反三,在幾何空間里尋找代數(shù)路徑。判別式模型和生成式模型,都是使用大量的數(shù)據(jù)輸入輸出來擬合出代數(shù)路徑。
現(xiàn)在的歸納式和生成式深度學習離AI還很遙遠,AI更需要深度強化學習。參考:作為歸納學習的深度學習-https://blog.csdn.net/wishchin/article/details/71195098
從泛函分析里得出的結(jié)論:模式識別的數(shù)學表示--https://blog.csdn.net/wishchin/article/details/74644489
對一維信號識別和變長模式分析,我不甚了解,對LSTM處理變長一維特征之外的更強的作用也不是特別了解:https://blog.csdn.net/wishchin/article/details/47949245。
通過數(shù)據(jù)學習全部判別模式參數(shù)的模型被稱為歸納模型。此外,通過學習邊緣概率參數(shù)網(wǎng)絡(luò)生成式模型被稱為GAN的網(wǎng)絡(luò)。
CNN學習到了什么?CNN學習到了 曾經(jīng)困擾 傳統(tǒng)方法圖像處理與模式識別 的"語義鴻溝“。
感知鴻溝(sensory gap),它是一種在現(xiàn)實世界的物體和該場景記錄下來的(計算上的)描述信息之間的鴻溝。語義鴻溝(semantic gap),它是由于所視覺數(shù)據(jù)中提煉出的信息與在特定場合下這些數(shù)據(jù)對用戶的解釋之間缺乏一致性。
語義鴻溝是指通常人們在判別圖像的相似性時并非建立在圖像低層視覺特征的相似上,而是建立在對圖像所描述的對象或事件的語義理解的基礎(chǔ)上。
或許這張圖可以說明:https://blog.csdn.net/wishchin/article/details/76014318,人眼可以從中間的FeatureMap和卷積核,從直覺上取得底層特征和高層特征的聯(lián)系,而不是通過一個個抽象的模式提取的公式上。這樣就間接地跨過語義鴻溝!
CNN網(wǎng)絡(luò):一個無法形式化進行最優(yōu)化函數(shù)最優(yōu)解,但可以進行語義解釋的圖像 降維哈希/特征提取/模式識別 的三維空間網(wǎng)絡(luò)。
?????????????????? 壓縮映射,特征提取是一個哈希過程,把特征提取到0維離散的值就成了模式識別。
?????????????????? 參考:傳統(tǒng)模式識別的數(shù)學表示--https://blog.csdn.net/wishchin/article/details/74780073
?
PAC學習理論與VC維:而神經(jīng)網(wǎng)絡(luò)定義VC維看似不受限制
PAC可學習理論的公式:下列公式是機器學習的泛化誤差和一些學習器參數(shù)的關(guān)系
??? 公式12
?在機器學習中,簡單的算法意味著增長函數(shù)
????????????????
深度網(wǎng)絡(luò)會越來越大,越來越稀疏,直到能分類所有類別,直到找到精確的 切割和減枝范式,即 范式化的 遷移方法。
?
創(chuàng)作挑戰(zhàn)賽新人創(chuàng)作獎勵來咯,堅持創(chuàng)作打卡瓜分現(xiàn)金大獎總結(jié)
以上是生活随笔為你收集整理的人工机器:深度学习CNN到底实现了什么的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: cf皇龙戒有什么用 为什么还有人玩穿越火
- 下一篇: 机器学习之人脸识别face_recogn