日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

国科大高级人工智能2-人工神经网络(MLP、Hopfield)

發布時間:2024/7/5 45 豆豆
生活随笔 收集整理的這篇文章主要介紹了 国科大高级人工智能2-人工神经网络(MLP、Hopfield) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

常見組合函數

常見激活函數

結構

  • 前饋神經網絡(單向)
  • 反饋/循環神經網絡

學習方法

  • 學習模型

    • 增量
    • 迭代
  • 類型

    • 監督
    • 無監督
  • 學習策略

    • Hebbrian Learning
      • 若兩端的神經元同時激活,增強聯接權重
      • Unsupervised Learning
      • 循環?
      • ωij(t+1)=ωij(t)+η(xi(t),xj(t))\omega_{ij}(t+1)=\omega_{ij}(t)+\eta(x_i(t),x_j(t))ωij?(t+1)=ωij?(t)+η(xi?(t),xj?(t))
    • Error Correction
      • 最小化實際和輸出的誤差
        • BP
          • 目標函數:ω?=argminω1KΣk=1Ke(Dk,Yk)\omega^* =argmin_{\omega} \frac{1}{K} \Sigma_{k=1}^Ke(D_k,Y_k)ω?=argminω?K1?Σk=1K?e(Dk?,Yk?)
          • 迭代:ω←ω+Δω=ω+ηδ\omega \leftarrow \omega+\Delta \omega= \omega+\eta \deltaωω+Δω=ω+ηδ
        • delta rule(LMS rule,windrow-hoff
    • 隨機學習(模擬退火?)
      • 采用隨機模式,跳出局部極小
        • 如果網絡性能提高,新參數被接受.
        • 否則,新參數依概率接受

重要的ANN

…損失函數……目標函數……激活函數……更新…特點
多層感知機(MLP,全連接)L(y,f(x))R(f)=∫L(y,f(x))p(x,y)dx,Remf=ΣL(y,f(x))R(f) =\int L(y,f(x))p(x,y)dx,R_{emf}=\Sigma L(y,f(x))R(f)=L(y,f(x))p(x,y)dx,Remf?=ΣL(y,f(x))v=σiωixi,y=f(v)v=\sigma_i\omega_ix_i,y=f(v)v=σi?ωi?xi?,y=f(v)梯度法-
多層感知機(MLP,全連接–>BP網絡)平方誤差-v=σiωixi,y=f(v),f是sigmoid,ω=argmin(E)v=\sigma_i\omega_ix_i,y=f(v),f是sigmoid,\omega=argmin(E)v=σi?ωi?xi?,y=f(v)fsigmoidω=argmin(E)輸入從前向后,損失從后向前(鏈式法則),梯度下降法允許非線性,收斂慢,過擬合,局部極小,表達能力強,容易執行
單層感知機看分類對錯-ωx=0,一面1,一面?1,權向量是一個超平面\omega x=0,一面1,一面-1,權向量是一個超平面ωx=0,1?1ω=ω+y??x,y?=1或?1(C,真實y,正確:y?=y)\omega=\omega+y^* ·x,y^* =1或-1(C,真實y,正確:y^* =y )ω=ω+y??xy?=1?1Cyy?=y)僅當線性可分時收斂,對噪聲(不可分)/泛化性不好
單層感知機(最小二乘法)平方損失12Σi=1nΣk=1m(yk(xi)?tk,i)2\frac{1}{2}\Sigma_{i=1}^n\Sigma_{k=1}^m(y_k(x_i)-t_{k,i})^221?Σi=1n?Σk=1m?(yk?(xi?)?tk,i?)2-y=v(線性的)y=v(線性的)y=v(wT=(XTX)?1XTTw^T=(X^TX)^{-1}X^TTwT=(XTX)?1XTT僅當線性可分時收斂,對噪聲(不可分)/泛化性不好
單層感知機(改進)平方損失E=12Σi=1nΣk=1m(yk(xi)?tk,i)2\frac{1}{2}\Sigma_{i=1}^n\Sigma_{k=1}^m(y_k(x_i)-t_{k,i})^221?Σi=1n?Σk=1m?(yk?(xi?)?tk,i?)2-y=11+e?v(sigmoidy=\frac{1}{1+e^{-v}}(sigmoidy=1+e?v1?(sigmoid$\frac{
\partial E}{\partial w_k}=\Sigma_{i=1}n\Sigma_{k=1}m(y_k(x_i)-t_{k,i})y_k(x_i)(1-y_k(x_i))x_i$僅當線性可分時收斂,對噪聲(不可分),泛化性不好
支持向量機-最大化間隔,約束:minω12∥ω∥2,yiωTxi≥1,任意i,小于則為0(relu)min_\omega \frac{1}{2} \|\omega\|^2,y_i\omega^Tx_i \geq 1,任意i,小于則為0(relu)minω?21?ω2,yi?ωTxi?1i0relu)--可以找到最好的分界面,解決了泛化性
Hopfield網絡(能量穩定點-記憶)-有輸入:E=?12Σi=0nΣj=0nωijsisj?Σi=0nIisi,沒有輸入則去除后面的E=-\frac{1}{2}\Sigma_{i=0}^n\Sigma_{j=0}^n\omega_{ij}s_is_j-\Sigma_{i=0}^nI_is_i,沒有輸入則去除后面的E=?21?Σi=0n?Σj=0n?ωij?si?sj??Σi=0n?Ii?si?,wij=ji(i!=j)權值是設定的wij=Σk=1Kxikxjk,i≠j,否則0(n?n矩陣)(s=x)權值是設定的w_{ij}=\Sigma_{k=1}^Kx_{ik}x_{jk},i\neq j,否則0(n* n矩陣)(s=x)wij?=Σk=1K?xik?xjk?,i?=j,0(n?ns=x)f分布式記憶,動態聯想,記憶容量有限,偽穩定點的聯想與記憶,樣本接近時,難以回憶

感知機

  • 感知機收斂定理:線性可分則收斂

    • w、x是增廣得到的
    • 若數據集可分,
      • 存在w?(∣∣w?∣∣=1),γ>0,使得ytw?xt≥γw^* (||w^* ||=1),\gamma>0,使得y_tw^* x_t\geq \gammaw?(w?=1),γ>0,使yt?w?xt?γ
    • 令最終分離超平面參數為w?(∣∣w?∣∣=1)w^* (||w^* ||=1)w?(w?=1)
      • wkw?=(wk?1+xtyt)w?≥wk?1w?+γ≥...≥kγw_kw^* =(w_{k-1}+x_ty_t)w^* \geq w_{k-1}w^* + \gamma \geq ...\geq k\gammawk?w?=(wk?1?+xt?yt?)w?wk?1?w?+γ...kγ
      • ∣∣wk∣∣2=∣∣wk+1+xtyt∣∣2=∣∣wk?1∣∣2+2wk?1Txtyt+∣∣xt∣∣2||w_k||^2=||w_{k+1}+x_ty_t||^2=||w_{k-1}||^2+2w_{k-1}^Tx_ty_t+||x_t||^2wk?2=wk+1?+xt?yt?2=wk?1?2+2wk?1T?xt?yt?+xt?2——yt=1
      • ≤∣∣wk?1∣∣2+∣∣xt∣∣2≤∣∣wk?1∣∣2+R2≤...≤kR2\leq ||w_{k-1}||^2+||x_t||^2\leq ||w_{k-1}||^2+R^2 \leq ...\leq kR^2wk?1?2+xt?2wk?1?2+R2...kR2
      • 所以kγ≤wkw?≤∣∣wk∣∣∣∣w?∣∣≤kRk\gamma \leq w_kw^* \leq ||w_k||||w^* || \leq \sqrt{k} Rkγwk?w?wk?w?k?R
      • k≤R2γ2k\leq \frac{R^2}{\gamma^2}kγ2R2?
  • 改進

    • sigmoid激活函數
      • 批處理
        • 一次性更新權重
        • 收斂慢
      • 增量模式
        • 逐樣本更新
        • 隨機近似,但速度快能保證收斂
  • MLP(多層感知機

    • 在實際應用中
      • 預處理很重要—normalize
      • 調整學習率——ηt=1/t\eta_t=1/tηt?=1/t
    • 表達能力強
    • 容易執行
    • 收斂速度慢
      • newton法
    • 過擬合(
      • 正則化,約束權值平滑性
      • 采用更少的隱層單元
    • 局部極小(不同的初始化,增加擾動
    • 三層-所有連續函數
    • 4層:多層連續
    • 權重如何學習?BP–鏈式法則計算反向傳遞

Hopfield

  • 應用
    • 將優化目標函數轉換成能量函數(energy function)——網絡的穩定狀態是優化問題的解
  • 兩個穩態:——>解
    • E最大——>w1
    • E最小——>w2
  • 兩個工作方式
    • 異步:每次只改變一個狀態x_i
    • 同步:所有狀態均改變:x1~xn
  • 反饋網絡(無向有權圖)
  • 權值是設定的,而不是學習出來的
  • TSP:
    • Hopfield網絡:l鄰接矩陣
    • 行:城市;列:時間,每行只有一個亮,每列也只有一個on

總結

以上是生活随笔為你收集整理的国科大高级人工智能2-人工神经网络(MLP、Hopfield)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。