【限时】推荐算法工程师培养计划
由于近些年深度學(xué)習(xí)技術(shù)的飛速發(fā)展,大力加速推動了AI在互聯(lián)網(wǎng)以及傳統(tǒng)各個行業(yè)的商業(yè)化落地,其中,推薦系統(tǒng)、計算廣告等領(lǐng)域彰顯的尤為明顯。由于推薦系統(tǒng)與提升用戶量以及商業(yè)化變現(xiàn)有著密不可分的聯(lián)系,各大公司都放出了眾多推薦系統(tǒng)相關(guān)職位,且薪水不菲,目前發(fā)展勢頭很猛。
?
但是,這里存在幾個問題,很多欲從事推薦系統(tǒng)的同學(xué)大多數(shù)學(xué)習(xí)的方式是自學(xué),1、往往是學(xué)了很多的推薦算法模型,了解些推薦里常用的算法,如:協(xié)同過濾、FM、deepFM等,但是卻不清楚這些模型在工業(yè)界推薦系統(tǒng)中是如何串聯(lián)、如何配合、有哪些坑,哪些trick的,導(dǎo)致無論面試還是真正去業(yè)界做推薦系統(tǒng),都會被推薦領(lǐng)域的”老槍老炮“們一眼識別出小白屬性。2、對于算法原理理解不深刻,這就會導(dǎo)致實際應(yīng)用時不能很好地將模型的性能發(fā)揮出來,另外面試時對于大廠面試官的刨根問底,只能是眼睜睜的丟掉offer。
?
CF、FM、DSSM、DeepFM等這些推薦業(yè)界明星模型,你真的清楚他們的內(nèi)部運行原理以及使用場景嗎?真的了解FM模型與SVM有什么相似之處嗎?FM固然可以用作為打分模型,但它可以用來做matching嗎,如果可以,如何做?item2Vec模型在業(yè)界是如何緩解冷啟動的問題的?雙塔模型優(yōu)勢在哪?深度模型到底是如何做matching的,是離線計算好結(jié)果還是實時的對網(wǎng)絡(luò)進行前向計算?DeepFM具體實現(xiàn)時,wide端和deep端的優(yōu)化方式是一樣的嗎?基于Graph的推薦方法在業(yè)界的應(yīng)用目前是怎樣的?基于上述的目的,貪心學(xué)院推出了《推薦系統(tǒng)工程師培養(yǎng)計劃2期》,由一線的推薦系統(tǒng)負責(zé)人親自全程直播講解。?
《推薦算法工程師培養(yǎng)計劃》
專注于培養(yǎng)行業(yè)TOP10%的推薦算法工程師
對課程有意向的同學(xué)
添加課程顧問小姐姐微信
報名、課程咨詢
????????????
02 課程大綱
第一部分:推薦系統(tǒng)之內(nèi)容理解與畫像構(gòu)建
Week1:機器學(xué)習(xí)基礎(chǔ)
邏輯回歸模型
梯度下降法
神經(jīng)網(wǎng)絡(luò)模型
過擬合與正則
常用的評價指標(biāo)
常用的優(yōu)化算法
向量、矩陣基礎(chǔ)
Week2:推薦系統(tǒng)基礎(chǔ)
推薦系統(tǒng)概述、架構(gòu)設(shè)計
推薦系統(tǒng)后臺數(shù)據(jù)流設(shè)計
常用的技術(shù)棧
推薦系統(tǒng)中的評價指標(biāo)
簡單的用戶協(xié)同
環(huán)境搭建
Week3:內(nèi)容畫像的構(gòu)建以及NLP技術(shù)
內(nèi)容畫像的搭建基礎(chǔ)
關(guān)鍵詞提取技術(shù)tf-idf,?textRank
LSTM與注意力機制
Attention的幾種常用方式
Self-Attention
Multi-head Attention
雙線性Attention
NLP工具的使用
MySQL數(shù)據(jù)庫的搭建與內(nèi)容畫像存儲
Week4:用戶畫像的構(gòu)建
用戶畫像與內(nèi)容畫像的關(guān)系
用戶畫像的架構(gòu)
用戶畫像的擴展
用戶畫像與排序特征
用途:基于標(biāo)簽的用戶畫像
標(biāo)簽權(quán)重的計算方法(貝葉斯平滑、時間衰減)
基于用戶畫像的召回方法
Redis的搭建與使用
基于Redis的用戶畫像存儲
Hadoop, Hive, Spark等工具使用
第二部分:召回模型與策略、數(shù)據(jù)與采樣的學(xué)問
Week5:傳統(tǒng)Matching方法
MF召回法以及求解
特征值分解
傳統(tǒng)奇異值分解之SVM
FunkSVD?
ALS方法
SVD++
基于物品的協(xié)同Item-CF
Week6:深度 Matching方法
MF召回法以及求解
理解Embedding技術(shù)
Embedding為什么有效
Embedding與稀疏ID類特征的關(guān)系
Item-CF召回與Item2Vec
Airbnb序列召回與冷啟動緩解思路
NCF召回以及變種
YouTube召回方法
從DSSM到雙塔模型
雙塔模型工業(yè)界的部署方法
多興趣召回
MIND召回
Faiss工具介紹
KD樹,LSH,Simhash
?
Week7: Graph Embedding與用戶行為構(gòu)建圖
MIND召回
隨機游走于傳統(tǒng)協(xié)同方法
Deepwalk
Node2Vec及其同質(zhì)性與結(jié)構(gòu)性
LINE?
隨機游走的實現(xiàn)
Alias采樣方法
Neo4j講解
Graph Embedding的實現(xiàn)
Node2Vec的實現(xiàn)
Week8:?圖推薦、圖神經(jīng)網(wǎng)絡(luò)、采樣與熱度打壓
MIND召回
Graph Embedding優(yōu)化
EGS,注意力機制及其變種
Ripple網(wǎng)絡(luò)方法
召回層采樣的坑與技巧
熱度抑制
EGES的實現(xiàn)
GCN和GAT?
GraphSage
第三部分:排序模型、重排序與多目標(biāo)
Week9:?經(jīng)典Ranking模型方法
MIND召回
Ranking與用戶畫像
物品畫像
LR模型
GBDT+ LR
FM模型詳解、業(yè)界使用方法與坑
FFM模型
AUC與GAUC
增量學(xué)習(xí)與Online Learning
從L1稀疏化、FOBOS到FTRL算法
基于FM實現(xiàn)Ranking精排序
?
Week10:?深度Ranking模型與工業(yè)采樣技巧
粗排與精排及其意義
主流深度推薦模型的集中范式
特征自動組合:Deep&Cross, XDeepFM, PNN
特征重要度提取以及無用特征去噪:AFM, DeepFFM
序列推薦模型:DIN,DIEN, AttRes,Stamp
獨辟蹊徑之序列推薦的優(yōu)化思路
深度模型工具的介紹與使用
MLSQL
DeepCTR等與工業(yè)界采樣方法
Week11:?重排序與多目標(biāo)學(xué)習(xí)
多目標(biāo)學(xué)習(xí)的幾種范式
范式一:樣本加權(quán)
范式二:多模型融合
范式三:聯(lián)合訓(xùn)練、ESMM,MMOE框架,ESM2等
ESMM的實現(xiàn)
第四部分:實時召回策略與前沿推薦技術(shù)
Week12-13:?工業(yè)界新聞推薦系統(tǒng)中冷啟動與熱點文章實時召回
人群分桶
實時交互正反饋
實時召回與實時畫像技術(shù)
人群投票
人群等級投票
降維分發(fā)
后驗與先驗的結(jié)合
引入注意力機制的優(yōu)化興趣增加和衰減
熱點文章召回策略
本地文章召回策略
算法策略與運營配合協(xié)作
Week14:?強化學(xué)習(xí)與推薦系統(tǒng)、AutoML與推薦系統(tǒng)
強化學(xué)習(xí)概念、以及在推薦系統(tǒng)中的對應(yīng)
DP算法本質(zhì)思想
馬爾科夫決策
蒙特卡洛搜索所樹(MCTS)
UCB及其在推薦系統(tǒng)中的應(yīng)用
湯普森采樣法
Q-Learning、DRN、策略梯度
強化學(xué)習(xí)在推薦場景中的應(yīng)用
Week15:?項目總結(jié),部署以職業(yè)規(guī)劃
工業(yè)界項目的部署
推薦系統(tǒng)崗位的面試要點
大廠的面試攻略
如何準(zhǔn)備簡歷、包裝自己
職業(yè)規(guī)劃
03 課程適合誰?
大學(xué)生
理工科相關(guān)專業(yè)的本科/碩士/博士生,畢業(yè)后想從事AI工作的人
今后想從事推薦系統(tǒng)相關(guān)工作的人
希望能夠深入AI領(lǐng)域,為科研或者出國做準(zhǔn)備
希望系統(tǒng)性學(xué)習(xí)推薦相關(guān)的技術(shù)
在職人士
目前從事IT相關(guān)的工作,今后想做跟推薦相關(guān)的項目
目前從事AI相關(guān)的工作,希望與時俱進,加深對技術(shù)的理解
希望能夠及時掌握前沿技術(shù)
04?報名須知
1、本課程為收費教學(xué)。
2、本期僅招收剩余名額有限。
3、品質(zhì)保障!正式開課后7天內(nèi),無條件全額退款。
4、學(xué)習(xí)本課程需要具備一定的機器學(xué)習(xí)基礎(chǔ)。
●●●
課程其他的細節(jié)可以聯(lián)系課程顧問來獲取
添加課程顧問微信
報名、課程咨詢
????????????
與50位技術(shù)專家面對面20年技術(shù)見證,附贈技術(shù)全景圖總結(jié)
以上是生活随笔為你收集整理的【限时】推荐算法工程师培养计划的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: win7查看电脑ip地址的方法
- 下一篇: 【机器学习基础】回归相关指标优化