李宏毅深度学习——第一天
Course introduction
RNN——>輸入是一個句子,輸出是pos or neg
CNN——>輸入是圖片,輸出是從n個選項里選擇一個正確的
Seq2seq:翻譯(產(chǎn)生文句)(generation)
GAN:畫二次元人物頭像(generation)
Unsupervised Learning
Network Architecture——>給機器一個搜尋的范圍,告訴機器只要在這個范圍內(nèi)找就可以了(RNN+CNN)?
Explainable AI——>解釋,為什么認為圖片里是一只貓
Adversarial Attack——>人類懷著惡意攻擊影相辨識系統(tǒng),會發(fā)生什么事情
Network Compression——>碩大的network,放在更小的平臺上
Anomaly Detection——>機器如何知道它不知道,動物影像辨識系統(tǒng)放了一個植物進來有什么變化
Transfer Learning——>訓(xùn)練集測試集分布不一樣怎么辦?
Meta Learning——>?學(xué)習(xí)如何學(xué)習(xí)的能力
Life-long Learning——>終身學(xué)習(xí)
Reinforcement Learning——強化學(xué)習(xí)
監(jiān)督學(xué)習(xí)——已知圍棋的下一步將會走到哪里
強化學(xué)習(xí)——不需要告訴機器每一步應(yīng)該落子的位置,讓機器自己想辦法找出策略,贏得比賽
alpha go——>先是通過監(jiān)督
Rule of ML
Regression Case Study
Loss function——input是function(在線性模型中就是w和b)
? ? ? ? ? ? ? ? ? ? ?——output是how bad it is
模型太復(fù)雜,出現(xiàn)過擬合
不同物種模型不同
為什么我們期待一個參數(shù)值接近0的function?
參數(shù)值接近0的function是比較平滑的,對delta(xi)的變化(noise)不敏感
在做regularization的時候是不用考慮bias這一項的,因為調(diào)整bias這一項和function是否平滑是無關(guān)的
lambda越大,越考慮function中w本來的數(shù)值,減少考慮error,traindata上的error就越大
lambda越大,function越平滑?
太平滑的function,是一條水平線,所以太平滑也不好
總結(jié)
以上是生活随笔為你收集整理的李宏毅深度学习——第一天的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Sklearn(v3)——朴素贝叶斯(3
- 下一篇: 李宏毅深度学习——第一天(Bias an