日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

空间注意力机制sam_Attention注意力机制介绍

發(fā)布時間:2023/12/10 编程问答 60 豆豆
生活随笔 收集整理的這篇文章主要介紹了 空间注意力机制sam_Attention注意力机制介绍 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

什么是Attention機制

Attention機制通俗的講就是把注意力集中放在重要的點上,而忽略其他不重要的因素。其中重要程度的判斷取決于應用場景,拿個現(xiàn)實生活中的例子,比如1000個人眼中有1000個哈姆雷特。根據(jù)應用場景的不同,Attention分為空間注意力和時間注意力,前者用于圖像處理,后者用于自然語言處理。本文主要介紹Attention機制在Seq2seq中的應用。

為什么要用Attention機制

我們知道在Seq2seq模型中,原始編解碼模型的encode過程會生成一個中間向量C,用于保存原序列的語義信息。但是這個向量長度是固定的,當輸入原序列的長度比較長時,向量C無法保存全部的語義信息,上下文語義信息受到了限制,這也限制了模型的理解能力。所以使用Attention機制來打破這種原始編解碼模型對固定向量的限制。

Attention原理

Attention的原理就是計算當前輸入序列與輸出向量的匹配程度,匹配度高也就是注意力集中點其相對的得分越高,其中Attention計算得到的匹配度權(quán)重,只限于當前序列對,不是像網(wǎng)絡模型權(quán)重這樣的整體權(quán)重。

算法過程:

1)encode對輸入序列編碼得到最后一個時間步的狀態(tài)c,和每個時間步的輸出h,其中c又作為decode的初始狀態(tài)z0。

2)對于每個時間步的輸出h與z0做匹配也就是match操作,得到每個時間步的匹配向量α01,如圖1。

圖1

3)對所有時間步的輸出h與z0的匹配度α0,使用softmax做歸一化處理,得到各個時間步對于z0的匹配分數(shù)。

4)求各個時間步的輸出h與匹配分數(shù)的加權(quán)求和得到c0,作為decode的下一個時間步的輸入,如圖2。

圖2

5)計算各個時間步的輸出h與z1的匹配度得到c1作為decode下一個時間步的輸入,如此一步一步重復下去,如圖3。

圖3

這樣就可以把每個時間步重要的信息傳給decode中,以上就是Attention機制的處理過程。其中match操作一般是求兩個向量的相似度,通常有如下方法:

1)余弦相似度

2)一個簡單的 神經(jīng)網(wǎng)絡,輸入為hh和ww,輸出為α

3)或者矩陣變換α=hTWzα=hTWz?(Multiplicative attention,Luong et al., 2015)

在tensorflow1.0版本以后的api seq2seq庫中,包含了兩種Attention算法,他們的區(qū)別就是match操作的不同,因此也有人稱他們?yōu)榧臃ˋttention和乘法Attention,具體內(nèi)容下:

圖4

圖5

由于圖片來自不同地方,所以符號有些不同,圖4和圖5中的h是上文所說的每個時間步的輸出向量,d是decode中每個時間步的狀態(tài),也就是上文中的z,c是match后計算的權(quán)值加和后的向量用于decode中每個時間步的輸入,a就是match操作中經(jīng)過softmax后的匹配權(quán)重,v是一個向量,相當于w一樣的權(quán)重需要去學習。有上面兩個公式可以看出,BahdanauAttention和LuongAttention的區(qū)別就是在match過程中的計算方式不同,一個是將decode的狀態(tài)與encode的輸出求和,一個是求乘,所以才有了加法Attention和乘法Attention的叫法。

待更新。。

參考:

總結(jié)

以上是生活随笔為你收集整理的空间注意力机制sam_Attention注意力机制介绍的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。