神经网络的分类准确率是连续的吗?
設(shè)一個(gè)測(cè)試集有n張圖片,則這個(gè)網(wǎng)絡(luò)的分類準(zhǔn)確率只能是(n-x)/n,而n和x只能是整數(shù),因此這個(gè)網(wǎng)絡(luò)的分類準(zhǔn)確率只能是一個(gè)有理分?jǐn)?shù),不可能是一個(gè)連續(xù)值。
?
神經(jīng)網(wǎng)絡(luò)的衰變假設(shè):被概率密度表達(dá)的粒子A和B彼此互為粒子和環(huán)境,在相互作用中被彼此微擾產(chǎn)生衰變,衰變產(chǎn)物是B化A和A化B,網(wǎng)絡(luò)的分類準(zhǔn)確率是兩個(gè)粒子衰變剩余的算術(shù)和pave=Σpr。
再將分類準(zhǔn)確率類比做衰變剩余,衰變剩余越大,分類準(zhǔn)確率越大。衰變剩余越大表明這個(gè)粒子越穩(wěn)定,粒子越穩(wěn)定表明能級(jí)越低,也就是分類準(zhǔn)確率和能級(jí)之間有明確的一對(duì)一關(guān)系。因此這個(gè)系統(tǒng)的能級(jí)也不是連續(xù)的。對(duì)這種能級(jí)離散的運(yùn)動(dòng)有理由適用薛定諤方程。
如果神經(jīng)網(wǎng)絡(luò)的收斂過程就是解薛定諤方程的過程,那這個(gè)過程到底是如何實(shí)現(xiàn)的?
?
可觀測(cè) M 的量子力學(xué)期望值由下式給出
?? (1.24)
系統(tǒng)的能量就是哈密頓算符的期望值,
(1.25)(*1)
“如果一個(gè)實(shí)變量的本征態(tài)組成完全集,則我們稱之為可觀察量.于是,任何可以測(cè)量的量都是可觀察量.”(*2)神經(jīng)網(wǎng)絡(luò)的分類準(zhǔn)確率當(dāng)然是可測(cè)量的,如果讓分類準(zhǔn)確率p和能級(jí)ε之間的關(guān)系是p=-ε,可以合理認(rèn)為網(wǎng)絡(luò)收斂的過程就是(1.25)的過程。
?
“測(cè)量可觀察量的任何結(jié)果一定是它的本征值之一.”(*3)把分類準(zhǔn)確率理解成一個(gè)能量的本征值,權(quán)重理解成波函數(shù),訓(xùn)練集當(dāng)作哈密頓量,神經(jīng)網(wǎng)絡(luò)的收斂過程不就是在哈密頓量的約束下尋找與最低能級(jí)對(duì)應(yīng)的波函數(shù)的過程嗎?
?
/***/
*1 Approximate Molecular Orbital Theory by Pople John A., Beveridge David L---p9
*2 狄拉克量子力學(xué)原理---p35
*3 狄拉克量子力學(xué)原理---p50
?
?
總結(jié)
以上是生活随笔為你收集整理的神经网络的分类准确率是连续的吗?的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 用时间分类能量再用能量分类时间
- 下一篇: 神经网络的参数迁移和共同本征态