當前位置:
首頁 >
国科大高级人工智能2-人工神经网络(MLP、Hopfield)
發布時間:2024/7/5
45
豆豆
生活随笔
收集整理的這篇文章主要介紹了
国科大高级人工智能2-人工神经网络(MLP、Hopfield)
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
常見組合函數
常見激活函數
結構
- 前饋神經網絡(單向)
- 反饋/循環神經網絡
學習方法
-
學習模型
- 增量
- 迭代
-
類型
- 監督
- 無監督
-
學習策略
- Hebbrian Learning
- 若兩端的神經元同時激活,增強聯接權重
- Unsupervised Learning
- 循環?
- ωij(t+1)=ωij(t)+η(xi(t),xj(t))\omega_{ij}(t+1)=\omega_{ij}(t)+\eta(x_i(t),x_j(t))ωij?(t+1)=ωij?(t)+η(xi?(t),xj?(t))
- Error Correction
- 最小化實際和輸出的誤差
- BP
- 目標函數:ω?=argminω1KΣk=1Ke(Dk,Yk)\omega^* =argmin_{\omega} \frac{1}{K} \Sigma_{k=1}^Ke(D_k,Y_k)ω?=argminω?K1?Σk=1K?e(Dk?,Yk?)
- 迭代:ω←ω+Δω=ω+ηδ\omega \leftarrow \omega+\Delta \omega= \omega+\eta \deltaω←ω+Δω=ω+ηδ
- delta rule(LMS rule,windrow-hoff
- BP
- 最小化實際和輸出的誤差
- 隨機學習(模擬退火?)
- 采用隨機模式,跳出局部極小
- 如果網絡性能提高,新參數被接受.
- 否則,新參數依概率接受
- 采用隨機模式,跳出局部極小
- Hebbrian Learning
重要的ANN
| 多層感知機(MLP,全連接) | L(y,f(x)) | R(f)=∫L(y,f(x))p(x,y)dx,Remf=ΣL(y,f(x))R(f) =\int L(y,f(x))p(x,y)dx,R_{emf}=\Sigma L(y,f(x))R(f)=∫L(y,f(x))p(x,y)dx,Remf?=ΣL(y,f(x)) | v=σiωixi,y=f(v)v=\sigma_i\omega_ix_i,y=f(v)v=σi?ωi?xi?,y=f(v) | 梯度法 | - |
| 多層感知機(MLP,全連接–>BP網絡) | 平方誤差 | - | v=σiωixi,y=f(v),f是sigmoid,ω=argmin(E)v=\sigma_i\omega_ix_i,y=f(v),f是sigmoid,\omega=argmin(E)v=σi?ωi?xi?,y=f(v),f是sigmoid,ω=argmin(E) | 輸入從前向后,損失從后向前(鏈式法則),梯度下降法 | 允許非線性,收斂慢,過擬合,局部極小,表達能力強,容易執行 |
| 單層感知機 | 看分類對錯 | - | ωx=0,一面1,一面?1,權向量是一個超平面\omega x=0,一面1,一面-1,權向量是一個超平面ωx=0,一面1,一面?1,權向量是一個超平面 | ω=ω+y??x,y?=1或?1(C,真實y,正確:y?=y)\omega=\omega+y^* ·x,y^* =1或-1(C,真實y,正確:y^* =y )ω=ω+y??x,y?=1或?1(C,真實y,正確:y?=y) | 僅當線性可分時收斂,對噪聲(不可分)/泛化性不好 |
| 單層感知機(最小二乘法) | 平方損失12Σi=1nΣk=1m(yk(xi)?tk,i)2\frac{1}{2}\Sigma_{i=1}^n\Sigma_{k=1}^m(y_k(x_i)-t_{k,i})^221?Σi=1n?Σk=1m?(yk?(xi?)?tk,i?)2 | - | y=v(線性的)y=v(線性的)y=v(線性的) | wT=(XTX)?1XTTw^T=(X^TX)^{-1}X^TTwT=(XTX)?1XTT | 僅當線性可分時收斂,對噪聲(不可分)/泛化性不好 |
| 單層感知機(改進) | 平方損失E=12Σi=1nΣk=1m(yk(xi)?tk,i)2\frac{1}{2}\Sigma_{i=1}^n\Sigma_{k=1}^m(y_k(x_i)-t_{k,i})^221?Σi=1n?Σk=1m?(yk?(xi?)?tk,i?)2 | - | y=11+e?v(sigmoidy=\frac{1}{1+e^{-v}}(sigmoidy=1+e?v1?(sigmoid | $\frac{ | |
| \partial E}{\partial w_k}=\Sigma_{i=1}n\Sigma_{k=1}m(y_k(x_i)-t_{k,i})y_k(x_i)(1-y_k(x_i))x_i$ | 僅當線性可分時收斂,對噪聲(不可分),泛化性不好 | ||||
| 支持向量機 | - | 最大化間隔,約束:minω12∥ω∥2,yiωTxi≥1,任意i,小于則為0(relu)min_\omega \frac{1}{2} \|\omega\|^2,y_i\omega^Tx_i \geq 1,任意i,小于則為0(relu)minω?21?∥ω∥2,yi?ωTxi?≥1,任意i,小于則為0(relu) | - | - | 可以找到最好的分界面,解決了泛化性 |
| Hopfield網絡(能量穩定點-記憶) | - | 有輸入:E=?12Σi=0nΣj=0nωijsisj?Σi=0nIisi,沒有輸入則去除后面的E=-\frac{1}{2}\Sigma_{i=0}^n\Sigma_{j=0}^n\omega_{ij}s_is_j-\Sigma_{i=0}^nI_is_i,沒有輸入則去除后面的E=?21?Σi=0n?Σj=0n?ωij?si?sj??Σi=0n?Ii?si?,沒有輸入則去除后面的 | wij=ji(i!=j) | 權值是設定的wij=Σk=1Kxikxjk,i≠j,否則0(n?n矩陣)(s=x)權值是設定的w_{ij}=\Sigma_{k=1}^Kx_{ik}x_{jk},i\neq j,否則0(n* n矩陣)(s=x)權值是設定的wij?=Σk=1K?xik?xjk?,i?=j,否則0(n?n矩陣)(s=x) | f分布式記憶,動態聯想,記憶容量有限,偽穩定點的聯想與記憶,樣本接近時,難以回憶 |
感知機
-
感知機收斂定理:線性可分則收斂
- w、x是增廣得到的
- 若數據集可分,
- 存在w?(∣∣w?∣∣=1),γ>0,使得ytw?xt≥γw^* (||w^* ||=1),\gamma>0,使得y_tw^* x_t\geq \gammaw?(∣∣w?∣∣=1),γ>0,使得yt?w?xt?≥γ
- 令最終分離超平面參數為w?(∣∣w?∣∣=1)w^* (||w^* ||=1)w?(∣∣w?∣∣=1)
- wkw?=(wk?1+xtyt)w?≥wk?1w?+γ≥...≥kγw_kw^* =(w_{k-1}+x_ty_t)w^* \geq w_{k-1}w^* + \gamma \geq ...\geq k\gammawk?w?=(wk?1?+xt?yt?)w?≥wk?1?w?+γ≥...≥kγ
- ∣∣wk∣∣2=∣∣wk+1+xtyt∣∣2=∣∣wk?1∣∣2+2wk?1Txtyt+∣∣xt∣∣2||w_k||^2=||w_{k+1}+x_ty_t||^2=||w_{k-1}||^2+2w_{k-1}^Tx_ty_t+||x_t||^2∣∣wk?∣∣2=∣∣wk+1?+xt?yt?∣∣2=∣∣wk?1?∣∣2+2wk?1T?xt?yt?+∣∣xt?∣∣2——yt=1
- ≤∣∣wk?1∣∣2+∣∣xt∣∣2≤∣∣wk?1∣∣2+R2≤...≤kR2\leq ||w_{k-1}||^2+||x_t||^2\leq ||w_{k-1}||^2+R^2 \leq ...\leq kR^2≤∣∣wk?1?∣∣2+∣∣xt?∣∣2≤∣∣wk?1?∣∣2+R2≤...≤kR2
- 所以kγ≤wkw?≤∣∣wk∣∣∣∣w?∣∣≤kRk\gamma \leq w_kw^* \leq ||w_k||||w^* || \leq \sqrt{k} Rkγ≤wk?w?≤∣∣wk?∣∣∣∣w?∣∣≤k?R
- k≤R2γ2k\leq \frac{R^2}{\gamma^2}k≤γ2R2?
-
改進
- sigmoid激活函數
- 批處理
- 一次性更新權重
- 收斂慢
- 增量模式
- 逐樣本更新
- 隨機近似,但速度快能保證收斂
- 批處理
- sigmoid激活函數
-
MLP(多層感知機
- 在實際應用中
- 預處理很重要—normalize
- 調整學習率——ηt=1/t\eta_t=1/tηt?=1/t
- 表達能力強
- 容易執行
- 收斂速度慢
- newton法
- 過擬合(
- 正則化,約束權值平滑性
- 采用更少的隱層單元
- 局部極小(不同的初始化,增加擾動
- 三層-所有連續函數
- 4層:多層連續
- 權重如何學習?BP–鏈式法則計算反向傳遞
- 在實際應用中
Hopfield
- 應用
- 將優化目標函數轉換成能量函數(energy function)——網絡的穩定狀態是優化問題的解
- 兩個穩態:——>解
- E最大——>w1
- E最小——>w2
- 兩個工作方式
- 異步:每次只改變一個狀態x_i
- 同步:所有狀態均改變:x1~xn
- 反饋網絡(無向有權圖)
- 權值是設定的,而不是學習出來的
- TSP:
- Hopfield網絡:l鄰接矩陣
- 行:城市;列:時間,每行只有一個亮,每列也只有一個on
總結
以上是生活随笔為你收集整理的国科大高级人工智能2-人工神经网络(MLP、Hopfield)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: “知识图谱+”系列:知识图谱+强化学习
- 下一篇: nlp4-语料库