當(dāng)前位置:
首頁 >
A Self-Attention Setentence Embedding 阅读笔记
發(fā)布時(shí)間:2025/4/5
37
豆豆
生活随笔
收集整理的這篇文章主要介紹了
A Self-Attention Setentence Embedding 阅读笔记
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
本文利用self-attention的方式去學(xué)習(xí)句子的embedding,表示為二維矩陣,而不是一個(gè)向量,矩陣中的每一行都表示句子中的不同部分。模型中使用了self-attention機(jī)制和一個(gè)特殊的regularization term
總結(jié)
以往論文中常用的句子表示為一維向量,但是這只能表達(dá)句子的一部分信息,為此作者提處一種self-attentive機(jī)制,并基于此機(jī)制,將句子表示為一個(gè)2維矩陣,使得句子的信息盡可能多的得到保留,同時(shí)為了使得句子的信息盡可能多的保留,即行與行之間盡可能差異化,作者使用了Frobenius范數(shù)懲罰項(xiàng)
參考連接:
https://www.jianshu.com/p/87108d836c63
https://blog.csdn.net/john_xyz/article/details/80650677
https://blog.csdn.net/guoyuhaoaaa/article/details/78701768
總結(jié)
以上是生活随笔為你收集整理的A Self-Attention Setentence Embedding 阅读笔记的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python爬取全国社会组织查询网站
- 下一篇: Hierarchical Attenti