日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > ChatGpt >内容正文

ChatGpt

直播 | AAAI 2021:如何缓解GNN预训练和微调之间的优化误差?

發布時間:2024/10/8 ChatGpt 108 豆豆
生活随笔 收集整理的這篇文章主要介紹了 直播 | AAAI 2021:如何缓解GNN预训练和微调之间的优化误差? 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

「AI Drive」是由 PaperWeekly 和 biendata 共同發起的學術直播間,旨在幫助更多的青年學者宣傳其最新科研成果。我們一直認為,單向地輸出知識并不是一個最好的方式,而有效地反饋和交流可能會讓知識的傳播更加有意義,從而產生更大的價值。

本期 AI Drive,我們邀請到騰訊微信事業群應用研究員陸元福,為大家解讀其發表于 AAAI 2021?的最新工作。對本期主題感興趣的小伙伴,1 月 28 日(周四)晚 7 點,我們準時相約 PaperWeekly B 站直播間。

直播信息

傳統 GNN 預訓練是一個兩階段的流程,即先在大規模圖數據集上進行預訓練,進而在下游數據上進行微調。但是,通過對兩階段優化目標的分析,我們發現這兩個步驟之間是存在一些差異的,這一差異在一定程度上影響預訓練模型的遷移效果。因此,在本文中,我們考慮如何緩解傳統預訓練和微調兩個步驟之間差異,從而更好的實現知識遷移。

基于此,我們提出了一種自監督預訓練策略,充分利用無標簽的圖數據,并在兩個大規模數據集上取得了顯著提升。同時,我們還發布了一個包含百萬量級子圖的大規模圖數據,可用于圖分類等任務。代碼及數據已公開。

論文標題:

Learning to Pre-train Graph Neural Networks

論文鏈接:

https://yuanfulu.github.io/publication/AAAI-L2PGNN.pdf

代碼鏈接:

https://github.com/rootlu/L2P-GNN

本次分享的具體內容有:?

  • 在傳統的 GNN 預訓練模型中,存在預訓練和微調之間有差異的問題

  • 為了緩解這一差異,我們提出了一種自監督的預訓練模型

  • 在兩個大規模數據集上,所提出的模型取得了顯著提升。

嘉賓介紹

?陸元福?/?騰訊微信事業群應用研究員?

陸元福,騰訊微信事業群應用研究員,碩士畢業于北京郵電大學計算機學院,主要研究方向:graph embedding、recommender systems 和 meta learning。目前以第一(學生)作者在 IEEE TKDE、KDD、AAAI 和 CIKM 等會議發表相關論文多篇。

直播地址?& 交流群

本次直播將在 PaperWeekly B 站直播間進行,掃描下方海報二維碼點擊閱讀原文即可免費觀看。線上分享結束后,嘉賓還將在直播交流群內實時 QA,在 PaperWeekly 微信公眾號后臺回復「AI Drive」,即可獲取入群通道

B 站直播間:

https://live.bilibili.com/14884511

合作伙伴

????

現在,在「知乎」也能找到我們了

進入知乎首頁搜索「PaperWeekly」

點擊「關注」訂閱我們的專欄吧

關于PaperWeekly

PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。

總結

以上是生活随笔為你收集整理的直播 | AAAI 2021:如何缓解GNN预训练和微调之间的优化误差?的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。