推荐几个出论文的好方向
如果你準備發(fā)AI方向的論文,或準備從事科研工作或已在企業(yè)中擔(dān)任AI算法崗的工作。那么我真誠的向大家推薦,貪心學(xué)院《高階機器學(xué)習(xí)研修班》,目前全網(wǎng)上應(yīng)該找不到類似體系化的課程。課程精選了四大主題進行深入的剖析講解,四個模塊分別為凸優(yōu)化、圖神經(jīng)網(wǎng)絡(luò)、強化學(xué)習(xí)、貝葉斯深度學(xué)習(xí)。
適合什么樣的人來參加吶?
從事AI行業(yè)多年,但技術(shù)上感覺不夠深入,遇到了瓶頸;?
停留在使用模型/工具上,很難基于業(yè)務(wù)場景來提出新的模型;?
對于機器學(xué)習(xí)背后的優(yōu)化理論、前沿的技術(shù)不夠深入;
計劃從事尖端的科研、研究工作、申請AI領(lǐng)域研究生、博士生;?
打算進入頂尖的AI公司如Google,Facebook,Amazon, 阿里等;
讀ICML,IJCAI等會議文章比較吃力,似懂非懂,無法把每個細節(jié)理解透。
如果對課程感興趣,請聯(lián)系
添加課程顧問小姐姐微信
報名、課程咨詢
????????????
01 課程大綱
課程內(nèi)容上做了大幅度的更新,一方面新增了對前沿主題的講解如圖神經(jīng)網(wǎng)絡(luò)(GCN,GAT等),對核心部分(如凸優(yōu)化、強化學(xué)習(xí))加大了對理論層面上的深度。除此之外,也會包含科研方法論、元學(xué)習(xí)、解釋性、Fair learning等系列主題。課程采用全程直播授課模式。
模塊一:凸優(yōu)化
第一章:凸優(yōu)化介紹
| 從優(yōu)化角度理解機器學(xué)習(xí)
| 凸優(yōu)化的重要性
| 常見的凸優(yōu)化問題
| 線性規(guī)劃以及Simplex Method
| Stochastic LP
| 運輸問題講解
| 投放優(yōu)化問題講解
?
第二章:判定凸函數(shù)
| 凸集的判斷
| First-order Convexity
| Second-order convexity
| Operations preserve convexity
| 二次規(guī)劃問題(QP)
| 最小二乘問題
| 股票投資組合優(yōu)化
?
第三章:常見的凸優(yōu)化問題
| 常見的凸優(yōu)化問題類別
| 半定規(guī)劃問題(semi-definite programming)
| 幾何規(guī)劃問題(geometric programming)
| 非凸函數(shù)的優(yōu)化
| 松弛化(relaxazation)
| 整數(shù)規(guī)劃(integer programming)
| 打車中的匹配問題
?
第四章:優(yōu)化與量化投資
| 量化投資概述
| 如何閱讀K線圖
| 基于規(guī)則的量化策略
| 基于多因子模型的量化策略
| 基于機器學(xué)習(xí)模型的量化策略
| 基于LP, QP優(yōu)化的量化策略
| Efficient Frontier, Sharp Ratio
| 量化平臺:量化策略編寫實戰(zhàn)作業(yè)講解SDP
?
第五周:對偶(Duality)
| 拉格朗日對偶函數(shù)
| 對偶的幾何意義
| Weak and Strong Duality
| KKT條件
| LP, QP, SDP的對偶問題
| 對偶的其他應(yīng)用
| 典機器學(xué)習(xí)模型的對偶推導(dǎo)及實現(xiàn)
?
?第六章:一階與二階優(yōu)化技術(shù)
| Gradient Descent
| Subgradient Method
| Proximal Gradient Descent
| Projected Gradient Descent
| Stochastic Gradient Descent與收斂
| Newton's Method
| Quasi-Newton Method
| L-BFGS
?
第七章:優(yōu)化技術(shù)進階
| Mirror Ascent
| 分布式SGD
| Interior Point Method
| ADMM
| Sparsity與優(yōu)化
| Combinatorial優(yōu)化
模塊二?圖神經(jīng)網(wǎng)絡(luò)
第一章:數(shù)學(xué)部分(1)
| 空間向量和圖論
| Inner Product, Hilbert Space
| 傅里葉變化
| Eigenfunction, Eigenvalue
| CNN的卷積和池化
| 介紹cnn的卷積層
| 如何卷積,信息如何傳遞
| 池化層的作用和基本設(shè)計
?
第二章:數(shù)學(xué)部分(2)
| Subgraph
| Network Motif
| Network Community Detection
| 拉普拉斯算子
| 拉普拉斯矩陣
| SVD
| QR分解
| 基本向量機分解
| block分解
| 拉普拉斯算子和矩陣的數(shù)學(xué)意義
第三章:圖卷積
| 卷積的幾何意義
| 圖卷積
| ChebNet
| GCN
| Graph Pooling
| MCMC介紹
| Importance Sampling
| Rejection Sampling
第四章:邊嵌入的圖卷積
| Spatial Convolution
| Mixture Model Network
| Attention機制
| Graph attention network
| Edge Convolution
| 近似優(yōu)化問題
| 減少計算量的介紹
第五章:圖卷積的應(yīng)用
| NRI
| Relative GCN
| Knowledge GCN
| ST-GCN
| Graphsage的設(shè)計
| Graphsage的應(yīng)用
第六章:GNN的相關(guān)模型
| GNN
| Deepwalk
| Node2vec
| Struc2vec
| HyperGCN
| HGCN的設(shè)計和應(yīng)用
模塊三 強化學(xué)習(xí)
第一章:強化學(xué)習(xí)基礎(chǔ)(1)
| Markov Decision Process
| Bellman Equation
| Dynamic Programming
| Model-free Prediction
| Monte Carlo Learning
| TD Learning
?
第二章:強化學(xué)習(xí)基礎(chǔ)(2)
| Model free Control
| On-Policy Monte Carlo Control
| On-Policy TD Learning
| SARSA, SARSA Lambda
| Off-policy
| Importance Sampling, Q-Learning
?
第三章:強化學(xué)習(xí)基礎(chǔ)(3)
| Policy Gradient
| Deep Reinforcement Learning
| Actor Critic
| Advanced Reinforcement Learning
?
第四章:探索、實施、推薦系統(tǒng)
| Multi Armed ?Bandits
| Explore and Exploit
| Thompson Sampling
| Epsilon Greegy
| Upper Confidence Bound
| Reinforcement Learning and Recommendation system
| Epsilon greedy
| UCB ?
第五章:多智能體的強化學(xué)習(xí)與稀疏Reward設(shè)計
| Multi agent Reinforcement Learning
| Sparse reward Design
| Inverse RL
| Master the game of Go without human knowledge
| AlphaGo ?圍棋強化學(xué)習(xí)論文解讀
第六章:強化學(xué)習(xí)在NLP、量化、游戲中的應(yīng)用
| Reinforcement Learning Application
| Reinforcement Learning with NLP
| Reinforcment Learning with quatitive trading
| Reinforcement Learning with Game.
| SeqGan 代碼講解
模塊四 貝葉斯深度學(xué)習(xí)
第一章:貝葉斯機器學(xué)習(xí)介紹
| 貝葉斯定理
| MLE,MAP以及貝葉斯估計
| 集成模型與貝葉斯方法比較
| 貝葉斯推理中的困難
| 貝葉斯近似算法介紹
| 貝葉斯線性回歸
| 案例:基于貝葉斯線性回歸的股價預(yù)測
| 線性回歸于嶺回歸
| 貝葉斯線性回歸模型
| Probabilistic Programming
| Edwin的使用以及實戰(zhàn)
?
第二章:貝葉斯NB與LDA
| 從樸素貝葉斯到貝葉斯樸素貝葉斯
| 貝葉斯樸素貝葉斯模型的生成過程
| 概率圖表示方法
| 主題模型的應(yīng)用
| 主題模型的生成過程
| 基于LDA的文本分析
| LDA的應(yīng)用場景
| LDA應(yīng)用在文本分析中
| LDA代碼剖析
?
第三章:MCMC采樣技術(shù)
| MCMC采樣技術(shù)介紹
| 吉布斯采樣
| Bayesian NB的求解
| LDA與吉布斯采樣
| 各類采樣技術(shù)
| Importance Sampling
| Rejection Sampling
?
第四章:變分法技術(shù)
| KL散度
| ELBo的構(gòu)造
| 變分法目標函數(shù)
| 坐標下降法
| 求解LDA的參數(shù)
| 基于貝葉斯深度學(xué)習(xí)的推薦系統(tǒng)搭建
| SVI的介紹
| 貝葉斯深度學(xué)習(xí)
| 基于SVI的求解
?
第五章:貝葉斯深度學(xué)習(xí)
| 貝葉斯深度學(xué)習(xí)的應(yīng)用
| 貝葉斯與VAE
| Reparameterization Trick
| 深度生成模型
| 基于VAE的文本生成
| 貝葉斯模型與不確定性
| MC Dropout介紹
| MC Dropout證明
?
第六章:貝葉斯深度學(xué)習(xí)與自然語言處理
| 貝葉斯序列模型
| 詞性標注于實體識別
| 基于貝葉斯圖神經(jīng)網(wǎng)絡(luò)的文本分析
| 基于貝葉斯神經(jīng)網(wǎng)絡(luò)的命名實體識別
| Adversial Learning介紹
| Adversial Attack
| 基于GNN的Adversial Learning
?
第七章:高斯過程與貝葉斯優(yōu)化
| 高斯分布
| 高斯過程
| 超參數(shù)的學(xué)習(xí)
| AutoML技術(shù)
| 貝葉斯優(yōu)化及應(yīng)用
02?部分案例和項目
學(xué)員可以選擇每個模塊完成我們提供的固定項目(以個人為單位),或者以小組為單位完成一個開放式項目(capstone),當(dāng)然你也可以提出你自己的項目。從項目的立項、中期驗收到最終答辯,在這個過程中我們的導(dǎo)師團隊會給你建議、并輔助你完成課題, 該課題最終很有可能成為你的創(chuàng)業(yè)項目或科研論文!
優(yōu)化與量化投資:量化投資作為金融領(lǐng)域一大分支,今年來受到了很大的關(guān)注。在這個項目中,我們將使用在課程中已學(xué)過的優(yōu)化技術(shù)來搭建買賣策 略,并在平臺上做回測,最終得到策略的效果。
這個項目的主要目的有以下幾種:
1. 了解并掌握量化投資領(lǐng)域,雖然跟很多人的工作關(guān)系不大,但畢竟是一個新興領(lǐng)域,而且跟 AI 技術(shù)的結(jié)合比較緊密,強烈建議借此機會學(xué)習(xí)。
2. 掌握并實戰(zhàn)優(yōu)化技術(shù),通過編寫真正的策略會真正明白優(yōu)化技術(shù)如何應(yīng)用在工業(yè)界環(huán)境中。
3. 基于給定的優(yōu)化方法,自己試著去改進并創(chuàng)造新的優(yōu)化方法,讓回測效果更好。
涉及到的知識點:量化投資,凸優(yōu)化,二次規(guī)劃
基于GCN的鏈路預(yù)測:社交數(shù)據(jù)或者推薦系統(tǒng)數(shù)據(jù)中,擁有一群用戶,有些用戶是朋友關(guān)系,而有些朋友可能是潛在朋友關(guān)系。這個項目,需要精準地預(yù)測用戶之間的關(guān)系,是否會形成朋友關(guān)系,做到用戶之間的準確推薦。首先,需要將問題進行數(shù)學(xué)建模,構(gòu)建圖矩陣和特征矩陣,然后再將構(gòu)建的矩陣,放入GCN中,進行訓(xùn)練,提升結(jié)果。在這個項目里,圖矩陣是需要自己創(chuàng)建,其次,GCN模型,可以進行修改,變成GCN+attention, 或Edge- GCN, 或 GCN-smoothing. 最后衡量預(yù)測效果。
涉及到的知識點:Graph Theory、GCN和Attention、Weighted Graph、Smoothing label
基于HFO 場景的強化學(xué)習(xí)模型及基于Flappy Bird 場景的深度強化學(xué)習(xí):本項目 (coursework) 旨在實踐并設(shè)計強化學(xué)習(xí)算法來探索,解決解決強化學(xué)習(xí)問題。其中包括模擬HFO ( Half Field Offence)及 Flappy Bird。通過此項目,期望同學(xué)們能充分理解,并可掌握,應(yīng)用 (但不限于) :狀態(tài)State, 動作Action, MDP( 馬爾可夫決策過程)。
State value function ,State Action value function 如何進行估計,迭代及預(yù)測。深度神經(jīng)網(wǎng)絡(luò)強化學(xué)習(xí)對Value Approximation進行評估, 并進行Policy優(yōu)化。Exploration 和 Exploitation 的平衡優(yōu)化也將會在本項目的最后進行探索。
涉及到的知識點:MDP建模, Q Learning, Monte Carlo Control , Value iteration, Deep Q Learning
基于修改版LDA的無監(jiān)督情感分析模型:本項目的目的是如何基于LDA來自動抽取文本中的情感,這個項目涉及到對于LDA模型的改造以及對于新模型的推導(dǎo),具有一定的挑戰(zhàn)。在本項目中,我們會一步步引導(dǎo)學(xué)員去設(shè)計模型,并對模型做出吉布斯采樣的全部推導(dǎo)過程以及實現(xiàn)環(huán)節(jié)。通過此項目,學(xué)員會親身體會整個貝葉斯模型的設(shè)計和訓(xùn)練過程。
涉及到的知識點:主題模型,吉布斯采樣,Collapsed吉布斯采樣,無監(jiān)督情感分析
如果對課程感興趣,請聯(lián)系
添加課程顧問小姐姐微信
報名、課程咨詢
????????????
03?授課導(dǎo)師
李文哲:貪心科技創(chuàng)始人兼CEO,人工智能和知識圖譜領(lǐng)域?qū)<?#xff0c;曾任金融科技獨角獸公司的首席科學(xué)家、美國亞馬遜的高級工程師,美國南加州大學(xué)博士,在荷蘭訪問期間,師從AI頂級學(xué)者Max Welling教授。。并在AAAI、KDD、AISTATS等頂會上發(fā)表過15篇以上論文,并榮獲IAAI,IPDPS的最佳論文獎。
?
楊棟:香港城市大學(xué)博士, UC Merced博士后,主要從事于機器學(xué)習(xí),圖卷積,圖嵌入的研究。先后在ECCV, Trans on Cybernetics, Trans on NSE, INDIN等國際頂會及期刊上發(fā)表過數(shù)篇論文。
04直播授課,現(xiàn)場推導(dǎo)演示
區(qū)別于劣質(zhì)的PPT講解,導(dǎo)師全程現(xiàn)場推導(dǎo),讓你在學(xué)習(xí)中有清晰的思路,深刻的理解算法模型背后推導(dǎo)的每個細節(jié)。更重要的是可以清晰地看到各種模型之間的關(guān)系!幫助你打通六脈!
▲源自:LDA模型講解
▲源自:Convex Optimization 講解
▲源自:Convergence Analysis 講解
05 完整的項目實踐文檔
以量化投資的項目為例,使用優(yōu)化技術(shù)來解決。大概1個月的時間。只要按照文檔里的步驟自己做就可以,但還是挺有挑戰(zhàn)的,比如如何設(shè)計策略等等。最后的結(jié)果要求在真實的量化平臺上去驗證,并記錄Sharp Ratio等指標,整體來講項目很有意思,畢竟每個人都有AI炒股的夢吧!
圖1:詳細的項目文檔
圖2:詳細的項目文檔
06?科學(xué)的課程安排
采用直播的授課方式,每周3-4次直播教學(xué),包含核心理論課、實戰(zhàn)課、復(fù)習(xí)鞏固課以及論文講解課。教學(xué)模式上也參考了美國頂級院校的教學(xué)體系。以下為其中一周的課程安排,供參考。?
?
07?入學(xué)標準
1、?理工科專業(yè)相關(guān)本科生、碩士生、博士生。
2、目前從事AI工作。
3、具備良好的Python編程能力。
4、具備一定機器學(xué)習(xí)、深度學(xué)習(xí)基礎(chǔ),零基礎(chǔ)學(xué)員不太適合。
08?報名須知
1、本課程為收費教學(xué)。
2、本期招收學(xué)員名額有限。
3、品質(zhì)保障!學(xué)習(xí)不滿意,可在開課后7天內(nèi),無條件全額退款。
4、學(xué)習(xí)本課程需要具備一定的機器學(xué)習(xí)基礎(chǔ)。
●●●
如果對課程感興趣,請聯(lián)系
添加課程顧問小姐姐微信
報名、課程咨詢
????????????
與50位技術(shù)專家面對面20年技術(shù)見證,附贈技術(shù)全景圖總結(jié)
以上是生活随笔為你收集整理的推荐几个出论文的好方向的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 损坏武器装备、军事设施、军事通信罪可以追
- 下一篇: 直播 | KDD 2021论文解读:基于