图片→矩阵→空间→坍缩-→质点--用神经网络将空间坍缩成粒子的实验数据汇总
為了理解神經網絡具體是如何將兩個對象分類的,假設神經網絡的作用相當于彈簧,并且用實驗數據證明了二分類0,1到0,9的數據都是符合這個假設的。證明數學上是可能將神經網絡的收斂過程理解成是彈簧的并聯過程。
具體的過程以二分類0,9為例
用天平稱兩個對象A,B的重量需要第三個對象C提供一個加速度或者一個引力,為A,B提供一個參照物,將A,B的重量分別用C的重量表示才可能比較A,B的重量。
這里引入了第三個參照對象圖片x。圖中A,B,C三張圖就對應三個二分類的網絡。
A網絡的具體結構是
制作一個帶有1個3*3卷積核網絡三層節點數分別是49*30*2的網絡,分類mnist的0和9,將28*28的圖片縮小到9*9,讓0向1,0收斂,讓9向0,1收斂。將這個網絡簡寫成
d2(mnist0,9)81-con(3*3)49-30-2-(2*k) ,k∈(0,1)
| 具體進樣順序 | ? | ? | ? |
| δ=0.1 | ? | ? | ? |
| 初始化權重 | ? | ? | ? |
| ? | 迭代次數 | ? | ? |
| mnist 0-1 | 1 | 判斷是否達到收斂 | |
| mnist 9-1 | 2 | 判斷是否達到收斂 | |
| 梯度下降 | ? | ? | ? |
| mnist 0-2 | 3 | 判斷是否達到收斂 | |
| mnist 9-2 | 4 | 判斷是否達到收斂 | |
| 梯度下降 | ? | ? | ? |
| …… | ? | ? | ? |
| mnist 0-4999 | 9997 | 判斷是否達到收斂 | |
| mnist 9-4999 | 9998 | 判斷是否達到收斂 | |
| 梯度下降 | ? | ? | ? |
| …… | ? | ? | ? |
| 如果4999圖片內沒有達到收斂標準再次從頭循環 | |||
| mnist 0-1 | 9999 | 判斷是否達到收斂 | |
| mnist 9-1 | 10000 | 判斷是否達到收斂 | |
| 梯度下降 | ? | ? | ? |
| …… | ? | ? | ? |
| 每當網路達到收斂標準記錄迭代次數和對應的準確率測試結果 | |||
| 將這一過程重復199次,取迭代次數n的平均值 | |||
| δ=0.01 | ? | ? | ? |
| … | ? | ? | ? |
| δ=1e-7 | ? | ? | ? |
?
網絡的收斂標準是
if (Math.abs(f2[0]-y[0])< δ? &&? Math.abs(f2[1]-y[1])< δ?? )
因為對應每個δ都有一個n與之對應,所以可以得到一條穩定的n(δ)曲線,可以用這條曲線去評價網絡的性能。
再用同樣的辦法做另外的兩個網絡
d2(mnistx,0)81-con(3*3)49-30-2-(2*k) ,k∈(0,1)
意思是用同樣的網絡分類mnist的0和一張x圖片,讓0向1,0收斂,讓x向0,1收斂
d2(mnistx,9)81-con(3*3)49-30-2-(2*k) ,k∈(0,1)
意思是用同樣的網絡分類mnist的9和一張x圖片,讓x向1,0收斂,讓9向0,1收斂
這張圖片x就是一個9*9的二維數組是固定不變的
double [][]x=new double[9][9];
for(int n=0 ;n<9;n++){
for(int m=0 ;m<9 ;m++){
x[n][m]=((double)(n+1)*(m+1)/100);
}}
?
相當于讓三個對象兩兩分類,使其中的任何一個都成為其他兩個的參照物。
A,B,C分別對應三個網絡
d2(mnist0,9)81-con(3*3)49-30-2-(2*k) ,k∈(0,1)
d2(mnistx,0)81-con(3*3)49-30-2-(2*k) ,k∈(0,1)
d2(mnistx,9)81-con(3*3)49-30-2-(2*k) ,k∈(0,1)
讓n09=ω09,nx0=ωx0,nx9=ωx9? 用實驗的辦法n09,nx0,nx9都可以測出來
?
未知數ωx,ω0,ω9可以被解出來
可以得到n的精確的表達式為
因為ω0和ω9是特征的彼此區分的所以可以被分類。
再由質量可以得到方程組
如果假設mx=1則m0,m9,mx0,mx9,m09都可以解出來。
前面已經將二分類0,1到0,9的數據用這種方法檢驗過,這種方法都是成立的。
這些實驗從數學上證明了神經網絡被分類對象既有質量還有頻率看作是微觀粒子是有可能的。所以從微觀粒子的角度假設神經網絡的的分類過程。
假設任一個群A和一個映射p和一個群Δ,Δ∈[0,1],有如下關系群A={aα},Δ={δα}
也就是說任何的群A都可以通過一個映射p與群Δ同構。也就是說存在一種映射將群Δ變換成任何群。而這個映射就是神經網絡本身。
如果這個假設是成立的。
將群mnist的圖片看作是矩陣,而將矩陣看作多維空間,那神經網絡的收斂過程也可以理解成是將一個多維空間的5000種可能坍縮成一個質點的過程,因為這個質點可能有頻率和質量所以看作粒子。
比如讓mnist的1向粒子(0,1)收斂,把神經網絡的 輸出值與目標值的差值的絕對值設為δ,則如果δ=0需要無限長的時間,因此mnist 1的每張圖片都對應著(0,1]之間的一個數。
這一過程是狄拉克函數的很好的近似
Mnist 1的圖片在[0,1]的整個空間上都有定義,但是只有當δ=0時輸出值最大,并變成粒子。
用這種方法解釋神經網絡的分類過程比如二分類mnist的1和2
如圖有一種映射p= con(3*3)49-30-2
有一個多維空間由群mnist1構成,另一個多維空間由群mnist2構成,映射p將這兩個空間坍縮成了兩個粒子m1和m2,這兩個粒子之間通過一種耦合作用形成了新的粒子m12,但是這個粒子m12只有特征頻率n12,沒有質量。
然后出現了第三個粒子x,這個粒子x和粒子m12作用形成了新的粒子mx12,現在粒子mx12將有確定的質量,這個由3個粒子構成的粒子mx12的輻射是分立的,分別等于nx1,nx2,n12.也就是說這個粒子mx12有3個分立的能級。
而且用這個模型可以很容易的理解衰變過程,比如將mnist2換成mnist3則這個新的粒子mx13的頻率將等于nx1,nx3,n13,而新的nx1與mx12中的nx1將不同。
?
比較由方程產生的彈性系數
| 01 | 07 | 04 | 09 | 03 | 08 | 05 | 06 | 02 |
| 23111070 | 9562286 | 11110240 | 9707543 | 7373700 | 6667420 | 5784918 | 6574293 | 7027121 |
| 24126838 | 12973749 | 13145697 | 12324021 | 10237051 | 10262027 | 9693125 | 11305518 | 11319294 |
| 37251306 | 23409859 | 23021931 | 20260357 | 20524424 | 18611549 | 17238353 | 19013061 | 19468160 |
| 78528743 | 41954386 | 47058874 | 40512986 | 37024543 | 41422313 | 31491381 | 33306651 | 33079038 |
| 87715120 | 50192300 | 44190564 | 42669506 | 38893501 | 39411415 | 31596327 | 35820935 | 35030828 |
| 80302132 | 44781230 | 47667677 | 44538453 | 37964973 | 42036577 | 32296077 | 36957233 | 35199344 |
| 1E+08 | 51237173 | 50027236 | 48394243 | 41362715 | 44990787 | 33502302 | 38555027 | 37045551 |
| 93399384 | 61621663 | 53468445 | 52175881 | 41061566 | 45717259 | 35406383 | 40329209 | 38296284 |
| 1.29E+08 | 63457719 | 56078725 | 55534471 | 47185271 | 57699827 | 41658812 | 45149477 | 42049380 |
| 1.03E+08 | 64843191 | 62853734 | 60820038 | 51084634 | 56546959 | 43329573 | 47951102 | 44881258 |
| 1.29E+08 | 68563200 | 63990482 | 64418193 | 54346476 | 56839399 | 45225346 | 49088793 | 47933669 |
| 1.3E+08 | 1.02E+08 | 86978714 | 71054202 | 68883577 | 64214779 | 55884638 | 62754358 | 58518517 |
| 2.24E+08 | 1.27E+08 | 1.01E+08 | 91209855 | 91937402 | 77978798 | 67509608 | 81225873 | 61219602 |
| 3.12E+08 | 1.57E+08 | 1.15E+08 | 1.02E+08 | 1E+08 | 89264401 | 73220885 | 84667601 | 68435273 |
| 2.61E+08 | 1.61E+08 | 1.29E+08 | 97654014 | 97798005 | 88211321 | 75068760 | 83764187 | 69556400 |
| 3.45E+08 | 1.66E+08 | 1.19E+08 | 1.18E+08 | 1.06E+08 | 95228920 | 81108607 | 89609062 | 75870045 |
| 2.47E+08 | 1.83E+08 | 1.56E+08 | 1.22E+08 | 1.11E+08 | 97933227 | 85719203 | 1.03E+08 | 83491101 |
| 2.92E+08 | 1.65E+08 | 1.38E+08 | 1.12E+08 | 1.09E+08 | 97198893 | 86042524 | 1E+08 | 87384630 |
| 3.93E+08 | 2.15E+08 | 1.84E+08 | 1.36E+08 | 1.3E+08 | 1.16E+08 | 1.06E+08 | 1.03E+08 | 93368260 |
| 4.36E+08 | 2.87E+08 | 1.73E+08 | 1.42E+08 | 1.32E+08 | 1.38E+08 | 1.18E+08 | 1.26E+08 | 1.08E+08 |
| 5.74E+08 | 2.92E+08 | 2.22E+08 | 1.56E+08 | 1.48E+08 | 1.43E+08 | 1.37E+08 | 1.43E+08 | 1.27E+08 |
| 1.11E+09 | 4.44E+08 | 2.52E+08 | 2.26E+08 | 2.22E+08 | 2.29E+08 | 2.11E+08 | 2E+08 | 1.93E+08 |
| 1.87E+09 | 5.88E+08 | 3.29E+08 | 2.39E+08 | 2.51E+08 | 2.52E+08 | 2.17E+08 | 2.12E+08 | 1.86E+08 |
| 1.67E+09 | 4.09E+08 | 2.77E+08 | 2.45E+08 | 2.18E+08 | 2.46E+08 | 2.07E+08 | 2.15E+08 | 2E+08 |
| 1.69E+09 | 4.59E+08 | 3.41E+08 | 2.93E+08 | 2.6E+08 | 2.61E+08 | 2.45E+08 | 2.57E+08 | 2.57E+08 |
| #NUM! | 5.61E+08 | 4.15E+08 | 3.44E+08 | 3.39E+08 | 3.15E+08 | 2.97E+08 | 3.07E+08 | 2.83E+08 |
| 3.89E+09 | 4.34E+08 | 3.81E+08 | 3.59E+08 | 3.27E+08 | 3.45E+08 | 3.06E+08 | 3.35E+08 | 2.89E+08 |
| 2.69E+09 | 4.62E+08 | 3.84E+08 | 3.57E+08 | 3.47E+08 | 3.87E+08 | 3.37E+08 | 3.67E+08 | 3.14E+08 |
| 1.04E+10 | 6.56E+08 | 5.65E+08 | 5.45E+08 | 5.15E+08 | 5.39E+08 | 4.78E+08 | 4.57E+08 | 4.32E+08 |
| 5.69E+09 | 9.34E+08 | 7.2E+08 | 7.69E+08 | 7.09E+08 | 6.85E+08 | 5.9E+08 | 6.22E+08 | 6.66E+08 |
| 1.86E+10 | 1.26E+09 | 1.13E+09 | ? | 1.11E+09 | ? | 9.42E+08 | 1.05E+09 | 9.92E+08 |
?
彈性系數K與圖片的相似度有關,如果兩張圖片的差異越大k越大
比較質量數據
| m1 | m7 | m4 | m3 | m9 | m8 | m6 | m2 | m5 |
| 4.110475 | 1.709705 | 1.378684 | 0.824304 | 1.301149 | 0.765013 | 0.570842 | 0.511864 | 0.047198 |
| 2.131089 | 1.106159 | 0.88487 | 0.629664 | 0.703997 | 0.642602 | 0.575347 | 0.470669 | 0.032996 |
| 1.526745 | 1.036555 | 0.870007 | 0.766662 | 0.790299 | 0.635145 | 0.652023 | 0.64685 | 0.144799 |
| 1.398024 | 0.797413 | 0.763556 | 0.520498 | 0.462907 | 0.627321 | 0.386595 | 0.372341 | 0.134351 |
| 1.517924 | 0.927027 | 0.758387 | 0.541217 | 0.545153 | 0.501612 | 0.40483 | 0.366723 | 0.152252 |
| 1.297211 | 0.891056 | 0.673285 | 0.493281 | 0.465356 | 0.520855 | 0.370558 | 0.332094 | 0.132248 |
| 1.689906 | 0.903801 | 0.780743 | 0.522361 | 0.515563 | 0.582365 | 0.35899 | 0.422161 | 0.122888 |
| 1.42878 | 0.936332 | 0.739376 | 0.479983 | 0.447216 | 0.471994 | 0.301898 | 0.3394 | 0.200411 |
| 1.814515 | 0.945213 | 0.828005 | 0.523884 | 0.517774 | 0.690397 | 0.439196 | 0.373137 | 0.105651 |
| 1.36343 | 0.972008 | 0.778671 | 0.501964 | 0.539958 | 0.513546 | 0.330706 | 0.407551 | 0.15548 |
| 1.252545 | 0.821751 | 0.70384 | 0.438754 | 0.481185 | 0.389285 | 0.318788 | 0.354954 | 0.108461 |
| 1.086277 | 1.080109 | 0.866356 | 0.50272 | 0.396171 | 0.312748 | 0.364084 | 0.312772 | 0.097869 |
| 1.188411 | 0.786991 | 0.619749 | 0.338938 | 0.229847 | 0.170636 | 0.140531 | 0.112376 | 0.005342 |
| 1.974443 | 1.179441 | 0.831501 | 0.46218 | 0.382803 | 0.269891 | 0.290555 | 0.107553 | 0.071192 |
| 1.197666 | 0.952593 | 0.729651 | 0.460045 | 0.247531 | 0.136447 | 0.092637 | 0.095952 | #NUM! |
| 1.673405 | 1.105807 | 0.667891 | 0.486766 | 0.271796 | 0.153012 | 0.150166 | 0.03574 | 0.039248 |
| 1.358127 | 1.105508 | 0.673325 | 0.388522 | 0.273502 | 0.082398 | 0.119998 | 0.045294 | 0.036454 |
| 1.188429 | 0.847904 | 0.565848 | 0.357821 | 0.085328 | 0.095658 | 0.062892 | #NUM! | #NUM! |
| 1.365259 | 0.990728 | 0.616971 | 0.252088 | 0.103249 | 0.011558 | 0.129592 | 0.033654 | #NUM! |
| 1.351423 | 1.000367 | 0.607741 | 0.24467 | 0.037229 | #NUM! | 0.029063 | 0.052497 | #NUM! |
| 1.500763 | 0.572115 | 0.365675 | 0.054112 | #NUM! | #NUM! | #NUM! | #NUM! | #NUM! |
| 1.85705 | 0.580893 | 0.230576 | 0.010515 | #NUM! | #NUM! | #NUM! | 0.017302 | #NUM! |
| 3.082569 | 0.712173 | 0.205752 | #NUM! | #NUM! | #NUM! | 0.001812 | 0.123839 | #NUM! |
| 1.136233 | 0.214187 | 0.032083 | 0.003223 | #NUM! | #NUM! | #NUM! | #NUM! | #NUM! |
| 1.942996 | 0.247653 | 0.09674 | 0.025031 | #NUM! | #NUM! | #NUM! | #NUM! | 0.012754 |
| #NUM! | 0.292163 | 0.054431 | #NUM! | #NUM! | #NUM! | #NUM! | 0.029695 | #NUM! |
| 3.224482 | 0.036831 | 0.018349 | #NUM! | #NUM! | #NUM! | #NUM! | 0.043916 | 0.01902 |
| 1.680495 | #NUM! | #NUM! | #NUM! | #NUM! | #NUM! | #NUM! | #NUM! | #NUM! |
| 6.625993 | #NUM! | 0.015915 | #NUM! | #NUM! | #NUM! | 0.038688 | 0.108277 | 0.036581 |
| 1.629426 | #NUM! | #NUM! | #NUM! | #NUM! | #NUM! | 0.022533 | #NUM! | 0.118592 |
| 4.760874 | #NUM! | #NUM! | #NUM! | #VALUE! | ? | #NUM! | #NUM! | 0.002768 |
?
與彈性系數k類似如果兩張圖片的差異度越大質量也越大。
?
| 實驗數據 |
| 學習率 0.1 |
| 權重初始化方式 |
| Random rand1 =new Random(); |
| int ti1=rand1.nextInt(98)+1; |
| int xx=1; |
| if(ti1%2==0) |
| { xx=-1;} |
| tw[a][b]=xx*((double)ti1/x); |
| 第一層第二層和卷積核的權重的初始化的x分別為1000,1000,200 |
?
0-1《神經網絡與并聯的彈簧》2019-2-2
0-2《神經網絡與振子動力系統---驗算實例二分類0,2》2019-2-9
0-3《神經網絡與玻色子力學系統---驗證實例二分類mnist 0,3》2019-2-10
0-4《用神經網絡測量一組圖片的質量---驗算實例二分類mnist0,4》2019-2-11
0-5《神經網絡與波粒二象性---實例驗證二分類mnist 0,5》2019-2-12
0-6《用神經網絡模擬玻色子力學系統---制作實例二分類mnist 0,6》2019-2-14
0-7《用神經網絡模擬玻色愛因斯坦凝聚---驗證實例二分類mnist 0,7》2019-2-14
0-8《神經網絡的還原論應用---模擬波函數的退相干---驗證實例二分類mnist 0,8》2019-2-15
0-9《神經網絡的可能原理---還原論的振子力學系統(驗證實例二分類mnist 0,9)》2019-2-16
?
總結
以上是生活随笔為你收集整理的图片→矩阵→空间→坍缩-→质点--用神经网络将空间坍缩成粒子的实验数据汇总的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 汇顶科技未来潜力如何 技术强产品好
- 下一篇: 权重对生成对抗网络GAN性能的影响