机器学习教会我们的六件事
機器學(xué)習(xí)教會我們的六件事
機器學(xué)習(xí) (ML) 已經(jīng)存在了幾十年。深度學(xué)習(xí)的出現(xiàn), 讓機器學(xué)習(xí)不再局限于學(xué)術(shù)界,而是進入到更主流的領(lǐng)域當(dāng)中。
深度學(xué)習(xí)可以被看作對大腦神經(jīng)元網(wǎng)絡(luò)的抽象過程,其使用到的激活函數(shù)和反向傳播等數(shù)學(xué)原理的背后,實則是模擬了動物大腦學(xué)習(xí)和產(chǎn)生信息過程。 深度學(xué)習(xí)的巨大成功,揭示了從人類本身獲得啟發(fā)并形成算法具有巨大價值。
相反從機器學(xué)習(xí)的實踐中, 我們有什么值得學(xué)習(xí)和啟發(fā)的東西嗎? 機器學(xué)習(xí)不僅囊括了人工神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí),而是一個包含有大量智能算法的領(lǐng)域,它通過演繹和模擬復(fù)雜的經(jīng)驗過程, 完成對未知的事物的預(yù)測。
以下是我總結(jié)的 6 個從機器學(xué)習(xí)中明白的重要道理:
1. 相信多樣性的力量 (隨機森林 Random Forests)
?
隨機森林通過匯總不同的決策樹來達到更穩(wěn)定的表現(xiàn), 而每個決策樹都負責(zé)解決其中的部分問題。獨木不成林。
同理,當(dāng)來自不同背景的人和群體協(xié)同和合作時, 往往能得到驚異的好效果。如果僅僅局限在和自己相似的小群體中,我們真正的潛力反而會被限制。
2. 從錯誤中吸取教訓(xùn)(梯度提升 Gradient Boosting)
不同于通過組合多個分類器,梯度提升方法利用誤差,并通過不斷地迭代來改進基礎(chǔ)分類器。
像梯度提升一樣, 我們需要認識到人無完人, 每個人都會犯錯誤。重要的是找出錯誤, 從中汲取教訓(xùn)。
與其被成就所牽著走, 不如專注于對生活的每一個階段糾錯。
3. 問題都有解決方案 (核方法和支持向量機 Kernel methods & SVM)
核方法與支持向量機是一對好搭檔。它們能將分布在低維空間的數(shù)據(jù)映射到高維空間中,從而實現(xiàn)數(shù)據(jù)的分類。
生活不只有玫瑰和彩虹。它也給我們帶來難以令人費解的難題, 沒有任何現(xiàn)成的解決方案。在絕望的時刻, 能站在未知的更高維度去尋找解決辦法,這是非常令人欣慰的。
保持鎮(zhèn)靜, 從更高的維度思考。
4. 接受改變個人認知 (貝葉斯定理 Bayes theorem)
貝葉斯定理通過計算相關(guān)事件的條件概率來更新其先驗概率。同樣, 我們都對人、文化和社會有先入為主的認知和評判。這些認知來源于我們的社會、經(jīng)濟和人口狀況。當(dāng)我們處于與我們舊認知相悖的新境遇, 有意識地提升和改變自己是至關(guān)重要的。
永遠不要畏懼改變。
5. 基于當(dāng)前情況做出決定(梯度下降法 Gradient Descent)
從回歸方法到人工神經(jīng)網(wǎng)絡(luò),梯度下降法是許多機器學(xué)習(xí)方法的重要組成部分,其始終沿著梯度下降的方向最快地到達預(yù)期的目的地。
我們經(jīng)常遇到需要我們在眾多替代方案中選擇一種方案并作出決定的情況。這些決定都對將來有潛在的影響。梯度下降為我們提供了解決問題的捷徑,基于當(dāng)前的情況提供最佳選擇,而不過度考慮將來的過程。
不要等待最理想的方案,你永遠無法預(yù)測未來。
6. 關(guān)系隨著時間的推移而變化 ( K-means)
?K-means算法通過對數(shù)據(jù)進行分配并反復(fù)迭代,從而達到聚類的目的。
**人際交往和情緒在建立我們的社交關(guān)系中起著至關(guān)重要的作用。**當(dāng)關(guān)系緊張時,我們會感到沮喪。我們應(yīng)該意識到再強大的關(guān)系也可能面對改變或結(jié)束,即使你沒有做錯任何事,就像在K-means中一樣。
學(xué)會接受事實并珍惜現(xiàn)在所愛的人吧。
作者: Praveen Bysani 翻譯:實驗樓掃地阿姨
原文鏈接:https://towardsdatascience.com/6-things-we-all-need-to-learn-from-machine-learning-e88eac480b57
最后推薦幾門機器學(xué)習(xí)課程吧
想學(xué)的一定不要錯過:
機器學(xué)習(xí)開放基礎(chǔ)課程 https://www.shiyanlou.com/courses/1283
你將學(xué)到的
1.Pandas 數(shù)據(jù)預(yù)處理
2.K-近鄰
3.線性回歸
4.特征工程
5.聚類
6.時間序列數(shù)據(jù)處理
7.決策樹
8.隨機森林
9.邏輯回歸
10.主成分分析
11.梯度下降法
Kaggle 數(shù)據(jù)分析項目入門實戰(zhàn)https://www.shiyanlou.com/courses/1363
你將學(xué)到的
1.數(shù)據(jù)導(dǎo)入與數(shù)據(jù)清洗
2.特征工程
3.數(shù)據(jù)可視化分析
4.構(gòu)建模型,完成各種預(yù)測任務(wù)
使用 Python 預(yù)測 NBA 常規(guī)賽結(jié)果
https://www.shiyanlou.com/courses/782
本課程將利用NBA在2015-2016年的比賽統(tǒng)計數(shù)據(jù)進行回歸模型建立,最終在今年2016~2017的常規(guī)賽中預(yù)測每場比賽的輸贏情況。
人機對戰(zhàn)初體驗:Python 實現(xiàn)四子棋游戲https://www.shiyanlou.com/courses/746
本課程利用Python模擬AI和玩家進行四子棋游戲,利用游戲?qū)嶒濸ygame庫,為游戲提供界面和操作支持。AI算法借用蒙特卡洛搜索樹思想。通過設(shè)置AI的難度系數(shù),即AI所能考慮到的未來棋子的可能走向,從而選擇出最佳的方案和玩家對抗。難度系數(shù)越大,AI搜索范圍越廣,它所能做出的決定越明智。
快來學(xué)IT,我在實驗樓等你~
總結(jié)
以上是生活随笔為你收集整理的机器学习教会我们的六件事的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 他爬取了B站所有番剧信息,发现了这些……
- 下一篇: 初学者的编程自学指南