直播 | AAAI 2021最佳论文:比Transformer更有效的长时间序列预测
「AI Drive」是由 PaperWeekly 和 biendata 共同發(fā)起的學(xué)術(shù)直播間,旨在幫助更多的青年學(xué)者宣傳其最新科研成果。我們一直認(rèn)為,單向地輸出知識并不是一個最好的方式,而有效地反饋和交流可能會讓知識的傳播更加有意義,從而產(chǎn)生更大的價值。
本期 AI Drive,我們邀請到北京航空航天大學(xué)計算機學(xué)院博士生張帥,為大家在線解讀 AAAI 2021 最佳論文?Informer:比 Transformer 更有效的長時間序列預(yù)測方法。對本期主題感興趣的小伙伴,3 月 23 日(周二)晚 7 點,我們準(zhǔn)時相約 PaperWeekly B 站直播間。
直播信息
長時間序列分析預(yù)測一直是人工智能基礎(chǔ)理論研究的難點,對工業(yè)健康維護、疾病傳播預(yù)測、網(wǎng)絡(luò)安全分析等關(guān)鍵領(lǐng)域具有重要作用。本文指出“傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)因誤差逐層累積”已不能滿足長序列數(shù)據(jù)分析的需求,并首次明確了 Transformer 神經(jīng)網(wǎng)絡(luò)架構(gòu)對長序列問題建模的重要意義。該架構(gòu)的核心優(yōu)勢是構(gòu)建了自注意力機制來捕捉跨長度的前后相關(guān)性,但其伴隨的重大挑戰(zhàn)是自注意力操作具有隨輸入長度的二次時間復(fù)雜度,無法適用于長序列輸入和輸出。
據(jù)此,本論文突破了傳統(tǒng)自注意力的計算復(fù)雜度限制,提出一種全新的從概率角度進行自注意力矩陣稀疏化的模型。該模型可以允許以非啟發(fā)式的方式對自注意力計算進行長尾顯著性分析,摘取長序列中重要的前后相關(guān)性對,可以依采樣方案將計算復(fù)雜度降低至對數(shù)線性復(fù)雜度,使得自注意力滿足長序列分析的建模要求。同時,該論文還提出了注意力蒸餾機制來允許構(gòu)建更深的長序列堆疊模型,同時通過生成式解碼來實現(xiàn)長序列單次前向輸出。
這是首次在長序列問題上運用 Transformer 神經(jīng)網(wǎng)絡(luò)架構(gòu),依靠所提出的可分析稀疏化、注意力蒸餾和生成式解碼組成 Informer 網(wǎng)絡(luò)結(jié)構(gòu),可以在同樣硬件限制下顯著提高序列分析任務(wù)性能,為解決長序列問題提供了一種全新的解決方案。
本次分享的具體內(nèi)容有:?
解釋長時間序列分析預(yù)測問題
介紹 Informer 模型
論文實驗結(jié)果分析
總結(jié)
嘉賓介紹
?張帥?/ 北京航空航天大學(xué)博士生?
張帥,北京航空航天大學(xué)計算機學(xué)院博士生,研究方向為機器學(xué)習(xí)與工業(yè)、醫(yī)療等產(chǎn)業(yè)界中實際問題的結(jié)合與應(yīng)用。參與研制的設(shè)備故障預(yù)測系統(tǒng)在國家電網(wǎng)山東等省份 1300 余臺大型變壓器上應(yīng)用,2020 年參與高精尖創(chuàng)新中心的新冠疫情大數(shù)據(jù)防控分析任務(wù),支撐國家疫情防控決策,得到了國務(wù)院辦公廳、北京市衛(wèi)健委等專函致謝。
直播地址?& 交流群
本次直播將在 PaperWeekly B 站直播間進行,掃描下方海報二維碼或點擊閱讀原文即可免費觀看。線上分享結(jié)束后,嘉賓還將在直播交流群內(nèi)實時 QA,在 PaperWeekly 微信公眾號后臺回復(fù)「AI Drive」,即可獲取入群通道。
B 站直播間:
https://live.bilibili.com/14884511
合作伙伴
????
現(xiàn)在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關(guān)注」訂閱我們的專欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結(jié)
以上是生活随笔為你收集整理的直播 | AAAI 2021最佳论文:比Transformer更有效的长时间序列预测的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Transformer升级之路:Sinu
- 下一篇: AAAI 2021最佳论文亚军:Atte