论文共读 | “阳奉阴违”的半监督学习算法 - Virtual Adversarial Training
「論文共讀」是由 PaperWeekly 發(fā)起的協(xié)同閱讀小組。我們每周精選一篇優(yōu)質(zhì)好文,由學(xué)術(shù)大咖帶大家解讀論文并展開討論,在碎片化時(shí)代堅(jiān)持深度閱讀。
本期論文共讀由 PaperWeekly 社區(qū)用戶 @WarBean 主持,他將帶大家通過(guò)兩篇論文聚焦半監(jiān)督學(xué)習(xí)算法。
論文介紹
?
Virtual Adversarial Training: a Regularization Method for Supervised and Semi-supervised Learning
@WarBean 推薦
#Semi-supervised Learning
利用對(duì)抗的思想,要求模型對(duì)一個(gè)樣本在施加對(duì)抗性噪聲前后給出盡可能相同的預(yù)測(cè)值,從而對(duì)模型施加 smooth regularization,以此利用無(wú)標(biāo)注樣本進(jìn)行半監(jiān)督學(xué)習(xí)。論文僅用 100 個(gè)標(biāo)注 MNIST 樣本取得 1.36% 的測(cè)試誤差,僅用 4000 個(gè)標(biāo)注 CIFAR 樣本取得 13.15% 的測(cè)試誤差。
?
Adversarial Dropout for Supervised and Semi-supervised Learning
@WarBean 推薦
#Semi-supervised Learning
Virtual Adverarial Training(上篇論文)的變種,原來(lái)在 input data 上加對(duì)抗干擾,本文在網(wǎng)絡(luò)中間層進(jìn)行對(duì)抗性 dropout,取得了與 VAT 接近的半監(jiān)督訓(xùn)練效果,配合原始 VAT 一起在 CIFAR 和 SVHN 上取得 state-of-the-art 的半監(jiān)督學(xué)習(xí)性能。
嘉賓介紹
?
鄭華濱,中山大學(xué)碩士生,研究方向?yàn)镚AN,文本生成和OCR。
? ? ?論文共讀 ? ??
?“陽(yáng)奉陰違”的半監(jiān)督學(xué)習(xí)算法
Virtual Adversarial Training
論文解讀√在線討論√
活動(dòng)形式:語(yǔ)音直播
?
?活動(dòng)時(shí)間?
10 月 25 日(周三)20:30-21:30
30 min 串講 + 30 min 討論
*請(qǐng)?jiān)诨顒?dòng)開始前完成論文精讀
?
長(zhǎng)按識(shí)別二維碼,馬上報(bào)名
*報(bào)名成功后,關(guān)注系統(tǒng)彈出的公眾號(hào)獲取活動(dòng)提醒
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 進(jìn)行報(bào)名
總結(jié)
以上是生活随笔為你收集整理的论文共读 | “阳奉阴违”的半监督学习算法 - Virtual Adversarial Training的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 三分熟博士生の阅读理解与问答数据集 |
- 下一篇: 从CNN视角看在自然语言处理上的应用