注意力机制-CA注意力-Coordinate attention
注意力機(jī)制學(xué)習(xí)--CA(Coordinate attention)
- 簡介
- CA注意力機(jī)制的優(yōu)勢:
- 提出不足
- 算法流程圖
- 代碼
- 最后
簡介
CA(Coordinate attention for efficient mobile network design)發(fā)表在CVPR2021,幫助輕量級網(wǎng)絡(luò)漲點(diǎn)、即插即用。
CA注意力機(jī)制的優(yōu)勢:
1、不僅考慮了通道信息,還考慮了方向相關(guān)的位置信息。
2、足夠的靈活和輕量,能夠簡單的插入到輕量級網(wǎng)絡(luò)的核心模塊中。
提出不足
1、SE注意力中只關(guān)注構(gòu)建通道之間的相互依賴關(guān)系,忽略了空間特征。
2、CBAM中引入了大尺度的卷積核提取空間特征,但忽略了長程依賴問題。
算法流程圖
step1: 為了避免空間信息全部壓縮到通道中,這里沒有使用全局平均池化。為了能夠捕獲具有精準(zhǔn)位置信息的遠(yuǎn)程空間交互,對全局平均池化進(jìn)行的分解,具體如下:
對尺寸為C?H?WC*H*WC?H?W輸入特征圖InputInputInput分別按照XXX方向和YYY方向進(jìn)行池化,分別生成尺寸為C?H?1C*H*1C?H?1和C?1?WC*1*WC?1?W的特征圖。如下圖所示(圖片粘貼自B站大佬渣渣的熊貓潘)。
step2:將生成的C?1?WC*1*WC?1?W的特征圖進(jìn)行變換,然后進(jìn)行concat操作。公式如下:
將zhz^hzh和zwz^wzw進(jìn)行concat后生成如下圖所示的特征圖,然后進(jìn)行F1操作(利用1*1卷積核進(jìn)行降維,如SE注意力中操作)和激活操作,生成特征圖f∈RC/r×(H+W)×1f \in \mathbb{R}^{C/r\times(H+W)\times1}f∈RC/r×(H+W)×1。
step3:沿著空間維度,再將fff進(jìn)行split操作,分成fh∈RC/r×H×1f^h\in \mathbb{R}^{C/r\times H \times1}fh∈RC/r×H×1和fw∈RC/r×1×Wf^w\in \mathbb{R}^{C/r\times1\times W}fw∈RC/r×1×W,然后分別利用1×11 \times 11×1卷積進(jìn)行升維度操作,再結(jié)合sigmoid激活函數(shù)得到最后的注意力向量gh∈RC×H×1g^h \in \mathbb{R}^{C \times H \times 1 }gh∈RC×H×1和gw∈RC×1×Wg^w\in \mathbb{R}^{C \times1\times W}gw∈RC×1×W。
最后:Coordinate Attention 的輸出公式可以寫成:
代碼
代碼粘貼自github。CoordAttention
地址:https://github.com/houqb/CoordAttention/blob/main/mbv2_ca.py
最后
CA不僅考慮到空間和通道之間的關(guān)系,還考慮到長程依賴問題。通過實(shí)驗發(fā)現(xiàn),CA不僅可以實(shí)現(xiàn)精度提升,且參數(shù)量、計算量較少。
簡單進(jìn)行記錄,如有問題請大家指正。
總結(jié)
以上是生活随笔為你收集整理的注意力机制-CA注意力-Coordinate attention的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 手机身份识别
- 下一篇: 这个寒冷的冬天 是谁的机会?