认知计算概论
? ? ? 前段時間的“人機大戰”——谷歌的Alpha Go戰勝人類棋手的新聞甚囂塵上,不禁有人會想起1997年IBM自主研發的深藍戰勝卡斯帕羅夫的事件。“人工智能”這個詞再次被推上風口浪尖,而“認知計算”卻鮮有人聽說,同樣是人類模擬機器思索,讓機器具有自主思考能力,都是具有跨時代意義和里程碑式的存在。
? ? ? 認知計算更加強調機器或人造大腦如何能夠主動學習、推理、感知這個世界,并與人類、環境進行交互的反應。它會根據環境的變化做出動態的反應,所以認知更加強調它的動態性、自適應性、魯棒性、交互性。
? ? ? 計算機在體系架構上的發展歷史主要體現在兩個方面:
- 計算能力的增強
- 計算規模的增大
? ? ?隨著計算機計算能力的大幅增強,具備了處理海量數據的能力;另一方面,日常生活中所產生的數據規模日益擴大,所擁有的數據源驅動了深層次分析的需求;同時大數據、云計算技術的不斷完善,都促進了對數據進行深度挖掘,提取數據的特征,利用特征讓機器具有自主學習與思考的能力。
? ? ?按照計算方式的不同,可以分為三個計算時代:
- 1990s~1940s ?打卡階段(The Tabulating Era) ? ? ? 機械式
- 1950s~現在 ? ? 編程階段(The Programming Era) ? 自主輸入
- 2011~將來 ? ? ?認知計算階段(The Cognitive Era) ? ?自動思考
? ? ?“大腦”項目:Think & Learn
- 2006 ? ? IBM ? ? ? ?Watson ? ? ?利用自然語言分析,讓機器自動推理事件與回答問題;涵蓋醫療、數據分析、“危險游戲”等。
- 2011 ? ? Google ? ?谷歌大腦 ? ? 通過神經網絡,能夠讓更多的用戶擁有完美的、沒有錯誤的使用體驗;谷歌無人駕駛汽車、谷歌眼鏡等。
- 2012 ? ? Baidu ? ? ?百度大腦 ? ? 融合深度學習算法、數據建模、大規模GPU并行化平臺等技術,構造起深度神經網絡。
一、認知計算的概念:
- 人工,以人為主導;認知,機器對事物與外界的理解,交互的能力
- 編程能力;學習與推理的能力
- 確定性結果;概率性結果
- 人并未參與;人、機器、環境之間的交互
- 圖靈測試或仿造人測量;實際應用中的測試
? ? ?2. ?認知計算所涉及的技術領域:
- 神經科學:機器模擬人腦神經元的思考過程;
- 超計算:超級快速計算和處理能力;
- 納米技術:芯片、系統等底層架構設計。
? ? ?
? ? ?3. 認知計算系統的組成:
? ? ?需要一個能夠理解、學習、推理的“大腦”,一個物物相連的外部環境,大腦與環境之間互相感知與交互。
? ? ?
? ? 4. ?認知計算的應用:
- 典型系統特征:大規模、復雜、人與外界交互、大量非結構化數據、輸出結果不定的系統;
- 生命科學領域:醫療、保險;
- 社會機構領域:金融銀行、政府、能源、教育、商業、交通等。
? ?5. ?案例:Watson-歷史上第一個認知系統
- 自然語言處理
- 問答技術
- 高性能計算
- 知識的表達和推理
- 機器學習
- 非結構化信息管理
? ?6. ?認知系統的五個核心功能:
- 創造更深的人工參與
- 測量和提升專業知識
- 認知融入產品和服務
- 實現認知過程和操作
- 加強探索和發現
? ?7. ?認知計算系統的挑戰與要求:
? ?
? ?8. ?認知計算系統的架構:
- 底層架構:芯片設計(GPU、FPGA、ASIC、POWER8)
- 基礎設施:云環境、超級計算節點
- 組織構架:caffe、Theano、Torch等
- 庫文件:數據庫、工具、包等
- 應用層:信息采集的有效性、人機交互界面、搜索引擎等
?二、人工智能的概述:
? ? ?人的大腦科學&計算機科學——>可視化、心理學、神經元組成、深度學習
? ? 1. 人工智能發展過程:
? ? ?
? ? ?重要的時間節點與人物:
- 1950-1956:兩個重要的人物,諾伯特·維納(控制論)和克勞德·艾爾伍德·香農(信息論)將事物從更高的層次進行抽象,奠定了AI堅實的理論基礎;
- 1950:圖靈,提出了圖靈測試的基本測試方法;
- 1956:達特茅斯會議第一次正式提出AI的概念;
- 1956-1974:AI得到極大發展,提出了許多新的理論,包括自然語言處理、reasoning as search、micro-worlds等;
- 1974-1980:由于發展迅速所帶來的副作用日益凸顯,關于機器代替人類的社會、倫理等問題、投資人看不到長期受益問題等導致其發展陷入低谷;
- 1980-1987:在日本的第五代項目提出,結合AI來發展現代工業生產,又給AI界打了一針強心劑(專家系統);
- 1987-1993:計算機的高速發展,給傳統硬件組成的研究系統帶來巨大挑戰,更多的人將注意力放在計算能力更強、價格更為便宜的普通計算機上;
- 1995:Sparse coding,將計算機科學理論與生物神經科學理論相結合;
- 2006:Deep Learning,含多隱層的多層感知器的深度學習結構;
- 2007:GPU CUDA,CPU與GPU并用的“協同處理”發展的統一計算設備架構;
- 2011:Google Brain,谷歌在人工智能領域開發出的一款模擬人腦的軟件。
? ? 2. 機器學習的概述:
? ? ?
? ? ?機器學習兩種傳統分類:
- 監督學習:已知label來對事物進行分類;
- 無監督學習:未知label來學習事物特征。
? ? ?應用領域:圖像識別、計算機視覺、語音識別、生物監控、機器人控制、經驗科學、智能醫療等。
? ? ?機器學習的流程圖(有監督學習):
? ? ?
? ? ?分類算法(Classification):
- 支持向量機(SVM)
- 神經網絡(Neural Network)
- 樸素貝葉斯(Naiive Bayes)
- 貝葉斯網絡(Bayesian network)
- 邏輯回歸(Logistic regression)
- 隨機森林(Randomized Forests)
- 決策樹(Boosted Decision Trees)
- k近鄰(K-nearest neighbor)
- RBMs
? ? ?聚類算法(Clustering):
- K-means
- 合并聚類(agglomerative clustering)
- 均值漂移聚類(mean shift clustering)
- 譜聚類(spectral clustering)
? ? 泛化問題(Generalization):過擬合、欠擬合
? ? ?
? ? 3. 深度學習的概述:
? ? ?
? ? ? 深度學習是機器學習的一個分支,通過利用多層處理的復雜結構,基于一系列的算法來建立高維抽象的模型。其動機在于建立、模擬人腦進行分析學習的神經網絡,它模仿人腦的機制來解釋數據,例如圖像,聲音和文本。深度學習的概念由Hinton等人于2006年提出。基于深度置信網絡(DBN)提出非監督貪心逐層訓練算法,為解決深層結構相關的優化難題帶來希望,隨后提出多層自動編碼器深層結構。此外Lecun等人提出的卷積神經網絡(CNN)是第一個真正多層結構學習算法,它利用空間相對關系減少參數數目以提高訓練性能。
? ? ?典型的深度學習:卷積神經網絡CNN
? ? ?
? ? ?實驗已經證明,CNN在圖像和語音處理中能夠取得比傳統方法更好的識別效果,也產生了許多著名的深度學習網絡VGG-Net、AlexNet等。
? ? ?VGG-Net與AlexNet的對比分析:
? ??
| 深度學習網絡 | AlexNet | VGG-Net |
| 產生背景 | 2012年,deep learning的大牛教授 Geoffrey Hinton的學生Alex Krizhevsky設計了一個8層的CNN,并把它用于ImageNet的image classification,直接把當時最好算法的錯誤率差不多減半。 | Andrew Zisserman 教授的組 (Oxford),VGG-Net 在2014年的 ILSVRC localization and classification 兩個問題上分別取得了第一名和第二名。 |
| 結構層次 | 總共有8層,由5層 convolutional layer,2層 fully connected layer,和最后一層 label layer (1000個node, 每個node代表ImageNet中的一個類別) 組成。 | VGG-Net使用更多的層,通常有16-19層,所有 convolutional layer 使用同樣大小的 convolutional filter。 |
| 結構示意 | ? ? | ? |
| 特征描述 | 中間層描述了圖片的局部特征,全連接層表示了圖像的全局特征。 | |
? ? ? ? 業界牛人:
? ? ? ? ?
? ? ? ? ?
? ? ? ? ?
? ? ? ? ?
? ? ? ? ?開發架構:
? ? ? ? ?
? ? ? ? ?機器學習的常用庫和數據集:
? ? ? ??
? ? ? ?
? ? ? ?
? ? ? ?
?
轉載于:https://www.cnblogs.com/wallacup/p/5994772.html
總結
- 上一篇: JMicroVision教程-应用于测井
- 下一篇: IDEA java编译中出现了Excep