02基于python玩转人工智能最火框架之TensorFlow人工智能深度学习介绍
人工智能之父麥卡錫給出的定義
-
構建智能機器,特別是智能計算機程序的科學和工程。
-
人工智能是一種讓計算機程序能夠"智能地"思考的方式
-
思考的模式類似于人類。
什么是智能?
智能的英語是 Intelligence
推理,知識,規劃,學習,交流,感知,移動和操作物體。
智能 不等于 智力 (IQ:智商 比較類似計算機的計算能力)
如何算有智能?
-
可以根據環境變化而做出相應變化的能力。
-
具有"存活" 這最基本的動因
-
自主意識,自我意識等等。
搶小孩子西瓜吃,小孩子護住西瓜就是自主意識。
圖靈測試(Turing Test)
-
圖靈于1950年提出的一個關于判斷機器是否足夠智能的著名試驗。
評委,評判目標是機器和人。評委與被評判目標以墻隔開。評委向人和機器人來提出問題。
評委事先不知道對面誰是機器人,誰是人。評委提的問題機器人和人分別做出回答。
當評委不能分辨是人還是機器人后,說明機器擁有了與人類似的思維。
暫時還沒有機器通過圖靈測試。
智能分類: 自然智能 & 人工智能
人造出來的智能
Artificial Intelligence 人造智能
人工智能的前景
人工智能的需求:
-
提高品質
-
增加效率
-
解決難題
人工智能的前景好在哪里?
支持: 企業支持 科技支持(大數據,硬件設備) 國家支持
2017年7月20日中國國務院發布了《新一代人工智能發展規劃》
2020年中國與世界平齊
Excel 等將用Python 替代 VBA
Python 被加入高考
CCTV 的 機智過人 節目
人工智能產品 和 人類高手比拼 ,中央電視臺和中國科學院共同舉辦。
嘉賓 柯潔 撒貝寧 林書豪 江一燕 知名人士 智能人士
微軟小冰可以作曲寫詞,畫畫。
人工智能需要的基本數學知識
數學;
論文 & 自己的實踐研究
實戰性課程 基本的了解就行
人工智能的歷史
人工神經網絡被提出(AI緣起)
-
Artificial Neural Network(簡稱 Neural Network)
-
沃倫.麥卡洛克和沃爾特.皮茨在1943創造了神經網絡的計算模型。
-
為以后的深度學習打下了重要的基礎
達特茅斯會議(定義AI)
-
達特茅斯學院(Dartmouth College) 是美國一所私立大學
由約翰.麥卡錫等人于1956年8月31日發起。
-
標志著AI(人工智能)的正式定義(誕生)
感知器(Perceptron)
-
一種最簡單的人工神經網絡,是生物神經網絡機制的簡單抽象、
-
一種最簡單的人工神經網絡, 是生物神經網絡機制的簡單抽象
-
由羅森布拉特于1957年發明
-
將人工智能的研究推向第一個高峰。
人工智能的第一個寒冬
-
1970年開始的十幾年里
-
傳統的感知器耗費的計算量和神經元數目的平方成正比
-
當時的計算機也沒有能力完成神經網絡模型所需要的超大計算量。
霍普菲爾德神經網絡
-
一種遞歸神經網絡( Recurrent Neural Network)
-
由約翰.霍普菲爾德在1982年發明
-
具有反饋(Feed back)機制
反向傳播(Back Propagation) 算法。
-
1974年哈佛大學的保羅沃伯斯發明,當時沒有受到重視。
-
1986年大衛.魯姆哈特等學者出版的書中完整的提出了BP算法
-
使大規模神經網絡訓練成為可能,將人工智能推向第二個高峰。
人工智能第二個寒冬
1990年開始
-
人工智能計算機 Darpa沒能實現(美國政府花了巨資的)
-
政府投入縮減
深度學習(deep learning)
-
基于深度(指"多層") 神經網絡
-
2006年由杰弗里.辛頓(Geoffrey Hinton)提出
-
人工智能性能獲得突破性進展
進入感知智能時代
-
深度學習在語音和視覺識別上分別達到99% 和 95%的識別率
-
2013年開始
-
人工智能三個時代:
-
運算智能(深藍打敗俄羅斯象棋選手,通過暴力運算,算出所有可能的下棋步驟)
-
感知智能,語音圖像,類似觸覺的時代
-
認知智能: 人類特有的能力,一個非常高等的能力。
AlphaGo擊敗眾多人類選手
Google 買下的Deepmind公司的AlphaGo (基于TensorFlow)
2016年接連擊敗圍棋界頂尖棋手。
深度學習被廣泛關注,掀起了學習人工智能熱潮
未來由我們創造
-
你應該感到自豪,因為你學習了人工智能
-
雖然我們不能過分樂觀,未來也許還會有低潮
但人工智能是大勢所趨,學了絕對不會吃虧。
Ai和機器學習、深度學習的關聯
人工智能的知識圖譜
人工智能不僅僅是一個獨立的學科,它與很多其他的學科都有交集。
機器學習和深度學習都與其他學科有交集。但是機器學習總的是屬于人工智能,而深度學習屬于機器學習的一個子領域。
橫穿而過的是神經網絡。深度學習是基于神經網絡的。
AI ML 和 DL 的關系
-
機器學習是實現人工智能的一種方法,深度學習是機器學習的一個分支
人工智能能夠王者歸來,深度學習功不可沒
-
深度學習是引領人工智能熱潮的火箭
-
深度學習作為后代,卻給爺爺和爸爸爭光了。
人工智能搭上了深度學習的火箭。
什么是機器學習?
機器學習是實現人工智能的一種方法,深度學習是機器學習的一個分支。
什么是學習?
過程: 一個系統,能夠通過執行某個過程,改善了性能。
說的更深入一些,學習的目的是"減熵"
熱力學第二定律: 一個孤立系統傾向于增加熵(混亂程度)
生命活著就是在減熵
適應環境
機器學習的必要性
很多軟件無法靠人工編程: 自動駕駛,計算機視覺,自然語言處理。
識別鳶尾花難以用人工編程
花瓣數,花顏色,花紋形狀,等等。
人工編程難以定性。
-
人類常會犯錯,(比如緊張,累了,困了),機器不容易犯錯
-
機器的計算能力越來越強 提高我們生活質量加快科技發展
"晦澀"的機器學習定義
對于某類任務T (Task) 和性能度量 P(Performance)
通過經驗E(Experience) 改進后
在任務T上由性能度量P 衡量的性能有所提升。
簡單的機器學習的定義
機器學習: 讓機器學習到東西。
mark
人類思考 VS 機器學習
機器學習: 用數據來解答問題
數據對應 訓練過程
解答問題 對應著推測的過程。
練習 & 考試
學生學習: 用做練習題來提高考試的成績
做練習題對應訓練
考試 對應你對新情況的推測
AlphaGo 學下圍棋
圍棋博弈: 用和自己下棋來提高下棋勝率
和自己下棋對應訓練
與人類下棋對應推測
傳統編程 VS 機器學習
mark
機器學習大致等同于找一個好的函數(Function)/模型
機器學習的分類
-
監督學習
-
非監督學習
-
半監督學習
-
強化學習
什么是監督學習?
Supervised Learning: 有標簽。
近義詞: 分類(Classification)
數據有給定的正確標簽。
什么是非監督學習?
Unsupervised Learning: 沒有標簽 近義詞: 聚類(Cluster)
把類似的數據歸為一堆。
預測到規定好的堆中。
什么是半監督學習?
Semi-Supervised Learning: 有少部分標簽 最類似人的生活。
父母教給我們怎么做?讓座+好孩子。 獨立生活+自己判斷
想要判斷c是不是精英。
物以類聚。半監督也是基于聚類的cluster實現。
什么是強化學習?
前面都是基于有沒有標簽,或者是有標簽所占的比例。
Reinforcement Learning: 基于環境而行動,以取得最大化預期利益。
玩游戲,如果掛掉分數-1,如果贏了分數+1.
總得分:
通過分數的獎勵去刺激它進行進一步的強化。
機器學習的算法多種多樣。如何去選擇一個適合我們的機器學習方法。我們可以依照skit-learn給出的圖。
從右上角的start開始:
-
你的樣本數是否大于50,如果不是那么你需要有更多的樣本。
-
預測類別,如果是要預測類別
-
你有沒有加標簽的數據。
-
分類 & 回歸/預測 & 聚類 & 維度下降
為什么回歸叫regression(回歸)
-
回歸用于預測(比如股票),它的輸出是連續的,與離散的分類不同。
-
回歸之所以叫回歸是英國生物學家兼統計學家高爾頓在研究人類遺傳問題時提出的。
-
人類身高不會無限的增高(兩種身高 父親的兒子的身高) 有向他們父輩的平均身高回歸的趨勢。
機器學習的六步走
-
收集數據 -> 準備數據(抽取特征) -> 選擇/建立模型 -> 訓練模型
-
測試模型 -> 調節參數
mark
機器學習的"關鍵三步"
-
找一系列函數來實現預期的功能: 建模問題
-
找一組合理的評價標準,來評估函數的好壞: 評價問題
-
快速找到性能最佳的函數: 優化問題(比如梯度下降就是這個目的)
面對ai我們應有的態度
人工智能大熱
火到連Android都被比了下去,連Kotlin和Go都有點黯然失色
1950年就被提出。
審時度勢
-
千萬不要跟風,不要頭腦發熱。
AR VR寒冬
人工智障
-
目前的人工智能,其實還停留在比較初級的階段
馬云說人工智能應該做那些計算機擅長而人類不擅長的事。現在很多的人工智能還只是模仿人類做的事,還遠遠沒有達到機器智能的程度。
離真正的機器智能還比較遙遠,畢竟人腦太強大,很難被模仿。
人類從未創造生命
-
人類到目前為止只不過能復制生命,從沒有從無到有來創造
多利羊只是復制。克隆。
對生命對自然有一顆敬畏之心。
目前兩個派別
馬斯克: 特斯拉的ceo
Facebook ceo 和 Google ceo
反省自己比擔心AI更重要。
人心比萬物都詭詐,與人心相比,AI真的太簡單了。
全知并非全能
-
即使這類人工智能存在,它得和人類的經濟和資源競爭。
需要適當的防備AI
-
可能AI 會在不斷學習的過程中習得一些不可控的思維。
借人工智能來認識自己
-
人類的大腦是怎么運作的,我們還知之甚少,更不用說模仿或者改造
人機合作
AI 有 機智過人 和 技不如人 人機合作 驚為天人
什么是過擬合?
過分擬合。: OverFitting
fitting是擬合,曲線能不能很好的表現樣本,并且擁有很好的泛化能力。
擬合的結果有三種:
UnderFitting: 欠擬合。樣本不夠或算法不精,測試樣本特征沒學到。
Fitting right: 擬合完美,恰當地擬合測試數據,泛化能力強
Overfitting: 過擬合 "一絲不茍"擬合測試數據,泛化能力弱。
回歸(regression) 問題中三種擬合狀態
分類(Classification) 問題中三種擬合狀態
打個比方;談戀愛
你為了迎合女朋友的習慣總結了一套戀愛的圣經,但是你所總結的戀愛圣經只是針對于這個女孩的性格。太過于擬合這個女孩了。
談其他女朋友時,想如法炮制就行不通了。
打個比方: 做菜
開始訓練出來的模型只會做一道菜,太貼合這個模型。讓它做其他的菜,各種各樣菜不能泛化
欠擬合好解決: 增加訓練量訓練數據。把算法弄的精確一點。
解決過擬合的一些方法
方法:
- 降低數據量
- 正則化
- Dropout
Dropout: 丟棄、退出 退學者
全連接的神經網絡,將其中一些連接取消掉
只用部分的連接來構建神經網絡。不會過分的貼合樣本,起到一個好的泛化的作用。
學校里學到了知識,我沒有死記硬背。能夠很好適應社會。
什么是深度學習?
機器學習是實現人工智能的一種方法,深度學習是機器學習的一個分支。
基于深度神經網絡的學習研究稱之為深度學習
只有一個兩個隱藏層的簡單神經網絡,不把它成為深度神經網絡,大于兩個隱藏層的神經網絡我們稱之為深度神經網絡。
輸入層和輸出層都只會有一個,深指隱藏層層數很多。
深度學習為什么興起?
傳統的機器學習存在瓶頸。
數據量比較小的時候,其實表現類似。深度學習要想表現好,數據量是關鍵。
深度學習能有高回報的必要條件:
-
大數據: 全球每天都有海量數據產生,大公司更是大權在握。
-
強計算力: 云計算,GPU ,越來越快的CPU
復雜模型: 一般來說隱藏層越多,效果越好。
現在這些條件都已滿足,請開始你的表演。
深度學習的形象比喻: 戀愛
初戀期:輸入參數
隱藏層: 跳轉權重,激勵函數參數。
輸出層: 與預期去對比
第一階段初戀期:
相當于神經網絡的輸入層,不同的參數設置
第二階段磨合期:
相當于神經網絡的隱藏層,調整參數權重
第三階段穩定期:
相當于神經網絡的輸出層,輸出結果和預期比較。
錯誤(Error)了: 與期望的誤差(Loss/Cost)
損失函數和成本(代價)函數
BP算法: 誤差反向傳遞(Back Propagation)
改: 調整(Tuning)參數的權重(Weight)
我錯了我要改。
調整對應參數的權重
-
調整"逛街"的權重(重要性)
-
調高榴蓮味蛋糕權重,調低巧克力味蛋糕的權重。
-
調高聊天權重
女友說: 你變好了不少啊,開心!
磨合過程: 不斷的調整各個參數
在神經網絡中正向傳播參數信號,經過隱藏層處理,輸出結果。
計算和預期的差距(誤差),反向傳播誤差,調整網絡參數權重
不斷地進行: 反向傳播->計算誤差->反向傳播->調整權重
最終結果:
其實不僅調參,還涉及到模型的調整,如增加神經元,滅活神經元等。
轉載于:https://www.cnblogs.com/xinmomoyan/p/10364825.html
總結
以上是生活随笔為你收集整理的02基于python玩转人工智能最火框架之TensorFlow人工智能深度学习介绍的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 989-数组形式的整数加法
- 下一篇: 我用Python爬虫挣钱的那些事