到底什么成就了今天的人工智能?(上)
維基百科對(duì)智能有如下定義:
智能是一種能夠感知或推斷信息,并將其作為知識(shí)留存下來,自適應(yīng)地用于某種環(huán)境或上下文的能力。
人工智能(Artificial Intelligence)
雖然我們很難對(duì)人工智能做一個(gè)確切的解釋,但可以從查爾斯巴貝奇的分析機(jī)講起。它雖然沒有任何特殊的“自適應(yīng)”能力,但卻非常靈活。遺憾的是,理論上雖然完美,但卻沒有得以實(shí)現(xiàn)。
巴貝奇分析機(jī)早圖靈機(jī)50年左右出現(xiàn)。從理論上講,它能夠?qū)⑷魏慰捎?jì)算的函數(shù)作為輸入,并在完全機(jī)械的情況下產(chǎn)生輸出。
復(fù)雜性理論(complexity theory)由此得以發(fā)展,同時(shí)人們也意識(shí)到構(gòu)建通用計(jì)算機(jī)其實(shí)相對(duì)簡單。此外,算法的實(shí)現(xiàn)也越發(fā)多樣。盡管還存在一些技術(shù)上的挑戰(zhàn),但在過去的70年中,相同價(jià)格可購買到的計(jì)算量大約每兩年翻一番。
也就是說,構(gòu)建計(jì)算力強(qiáng)大的人工智能系統(tǒng)越發(fā)容易。然而,這受到了所提供或輸入的數(shù)據(jù),以及處理時(shí)間的限制。可以做如下思考:如果每臺(tái)計(jì)算機(jī)的能力都受到數(shù)據(jù)和時(shí)間的限制,我們還能稱之為智能計(jì)算機(jī)么?
下面我們簡單回顧一下人工智能的發(fā)展史。人類的智能主要包括歸納總結(jié)和邏輯演繹,對(duì)應(yīng)著人工智能中的聯(lián)結(jié)主義(如人工神經(jīng)網(wǎng)絡(luò))和符號(hào)主義(如吳文俊方法)。符號(hào)主義認(rèn)為智能是基于邏輯規(guī)則的符號(hào)操作;聯(lián)結(jié)主義認(rèn)為智能是由神經(jīng)元構(gòu)成的信息處理系統(tǒng)。其發(fā)展軌跡如下圖所示:
聯(lián)結(jié)主義,即“橙色陣營”在一開始處于領(lǐng)先地位,得益于其與神經(jīng)科學(xué)和人類大腦之間的關(guān)系。人類大腦被視為“強(qiáng)AI(Strong Artificial Intelligence)”和“通用人工智能(Artificial General Intelligence,AGI)”唯一的成功應(yīng)用。然而,第一代神經(jīng)網(wǎng)絡(luò)在處理實(shí)際問題時(shí)屢屢受挫。因?yàn)樯窠?jīng)網(wǎng)絡(luò)多數(shù)是線性的,并且能力十分有限,深受外界質(zhì)疑。與此同時(shí),符號(hào)主義,即“藍(lán)色陣營”利用嚴(yán)謹(jǐn)?shù)臄?shù)學(xué)理論創(chuàng)造出了更多有用的東西。
隨著手工知識(shí)的積累,輸入或輸出數(shù)據(jù)量急速增長,系統(tǒng)的性能無法適應(yīng)需求,聯(lián)結(jié)主義逐漸衰敗。就好比法律,專家制定出再完備的規(guī)則都有可能相互沖突,此時(shí)便需要越來越多的“法官”來解決這些問題。這減緩了聯(lián)結(jié)主義的發(fā)展。
后來,“橙色陣營”獲取了足夠的標(biāo)簽數(shù)據(jù)和計(jì)算資源,能夠在可接受的時(shí)間內(nèi)對(duì)網(wǎng)絡(luò)進(jìn)行“訓(xùn)練”,世界各地的研究學(xué)者開始進(jìn)行大量試驗(yàn)。盡管如此,聯(lián)結(jié)主義仍花費(fèi)了大量的時(shí)間使大眾重新信任神經(jīng)網(wǎng)絡(luò),開發(fā)人員也花了較長才適應(yīng)了模糊邏輯和統(tǒng)計(jì)的概念。
在對(duì)人工神經(jīng)網(wǎng)絡(luò)進(jìn)行詳細(xì)討論前,本文將先介紹一些其它方法:決策樹、概率模型、進(jìn)化算法。
決策樹(Decision Tree)是最簡單有效的算法之一。其“學(xué)習(xí)”是通過順序地遍歷數(shù)據(jù)的每個(gè)屬性并找到對(duì)特定輸出具有最大預(yù)測(cè)能力的屬性來執(zhí)行的。像隨機(jī)森林這樣的高級(jí)變體使用了更復(fù)雜的學(xué)習(xí)技術(shù),并在同一個(gè)模型中組合多個(gè)樹,它們的輸出是通過“投票”得到的,這與人類的“直覺”類似。
概率模型(Probabilistic models)是統(tǒng)計(jì)方法的代表。概率模型與神經(jīng)網(wǎng)絡(luò)常共享架構(gòu)、學(xué)習(xí)/優(yōu)化過程甚至符號(hào)。但是概率模型大多受概率邏輯(通常是貝葉斯)的約束,而神經(jīng)網(wǎng)絡(luò)則無此約束。
進(jìn)化算法(Evolutionary computation)最初是受到生物進(jìn)化的啟發(fā),且以隨機(jī)突變和適應(yīng)度為主。由于修改通常是隨機(jī)的,其限制噪聲的效果突出。進(jìn)化算法是一種引導(dǎo)式搜索,許多方面與退火過程類似。
?
上述方法有一個(gè)共同點(diǎn):它們從較差的策略開始,逐漸對(duì)其改善,以期在某種性能評(píng)估方法中取得更好的分?jǐn)?shù)。
如今,機(jī)器學(xué)習(xí)技術(shù),尤其是深度學(xué)習(xí)正在主導(dǎo)人工智能的發(fā)展。與大多數(shù)使用1到2個(gè)中間抽象層(所謂的淺模型)機(jī)器學(xué)習(xí)方法不同,深度學(xué)習(xí)可能包含數(shù)百甚至數(shù)千個(gè)堆疊的可訓(xùn)練層。
研究學(xué)者認(rèn)為對(duì)這樣的深度網(wǎng)絡(luò)進(jìn)行訓(xùn)練,需要全新的優(yōu)化程序。事實(shí)證明,使用梯度下降的逆向傳播(即鏈?zhǔn)椒▌t)即可很好的進(jìn)行訓(xùn)練,也可使用Adam或RMSProp。
神經(jīng)網(wǎng)絡(luò)訓(xùn)練流程如下:
1、 獲取輸入
2、 計(jì)算輸出
3、 評(píng)估性能
4、 調(diào)節(jié)參數(shù)
5、 重復(fù)訓(xùn)練,至性能最優(yōu)
梯度下降法只需調(diào)整參數(shù)使誤差最小。但該方法容易使網(wǎng)絡(luò)陷入局部最優(yōu),而沒有獲得最優(yōu)性能。然而,最新研究表明許多神經(jīng)網(wǎng)絡(luò)已經(jīng)能夠獲取全局最優(yōu)解。
?
深度學(xué)習(xí)實(shí)現(xiàn)了訓(xùn)練的并行化,即分布式學(xué)習(xí)。能在同一時(shí)間跨多臺(tái)機(jī)器訓(xùn)練相同的體系結(jié)構(gòu),同時(shí)實(shí)現(xiàn)梯度交換,加速超過1000倍。
此外,經(jīng)過訓(xùn)練的網(wǎng)絡(luò)可以處理相似的任務(wù),即遷移學(xué)習(xí),這也是人工神經(jīng)網(wǎng)絡(luò)廣泛流行的重要原因。例如,經(jīng)過圖像分類訓(xùn)練的網(wǎng)絡(luò)可以用于其他計(jì)算機(jī)視覺任務(wù),自然語言處理和其他領(lǐng)域。更重要的是,同一個(gè)網(wǎng)絡(luò)還可以用來解決不同模式的問題。
強(qiáng)化學(xué)習(xí)(Reinforcement Learning,RL)則將它們結(jié)合在了一起。RL的最初想法來自行為心理學(xué),科研人員探究了在行為心理學(xué)中獎(jiǎng)勵(lì)如何影響學(xué)習(xí)和塑造動(dòng)物的行為。
RL并不需要出現(xiàn)正確的輸入/輸出對(duì),也不需要精確校正次優(yōu)化的行為。舉個(gè)例子,我們并不需要教會(huì)機(jī)器人如何精確移動(dòng),只需根據(jù)它走多遠(yuǎn)或多快對(duì)其進(jìn)行獎(jiǎng)勵(lì),它會(huì)自己找出正確的路線。然而,這種訓(xùn)練模式在實(shí)踐中也是最具挑戰(zhàn)性的,即使是相對(duì)簡單的任務(wù),通常也需要付出大量的努力才能正確設(shè)置。
?
在實(shí)際問題中,通常很難在環(huán)境中指定獎(jiǎng)勵(lì),研究人員目前更多地關(guān)注內(nèi)部獎(jiǎng)勵(lì)模型。
與RL并行的是逆向強(qiáng)化學(xué)習(xí)(Inverse Reinforcement Learning):當(dāng)完成復(fù)雜的任務(wù)時(shí),強(qiáng)化學(xué)習(xí)的回報(bào)函數(shù)很難指定,我們希望有一種方法能夠找到高效且可靠的回報(bào)函數(shù),這種方法就是逆向強(qiáng)化學(xué)習(xí)。
通用人工智能中一些框架來自于嚴(yán)格的數(shù)學(xué)理論,一些受神經(jīng)元回路的啟發(fā),還有一些基于心理模型。本文將以HTM、AIXI、ACT-R和SOAR為例進(jìn)行介紹。
層級(jí)實(shí)時(shí)記憶算法 (Hierarchical Temporal Memory,HTM),HTM算法旨在模擬新大腦皮層的工作原理,將復(fù)雜的問題轉(zhuǎn)化為模式匹配與預(yù)測(cè)。它強(qiáng)調(diào)對(duì)“神經(jīng)元”進(jìn)行分層級(jí),以及信息模式的空間特性與時(shí)間特性。
稀疏分布表示(Sparse Distributed Representation, SDR)是HTM算法中的一個(gè)重要概念。實(shí)際上,它只是擁有幾千個(gè)元素的位數(shù)組。就像大腦中的信息總是通過億萬神經(jīng)細(xì)胞中的小部分活躍細(xì)胞來表示一樣,HTM使用稀疏分布表示語義相關(guān)的輸入。
HTM算法中的抑制(Inhibition)類似于批規(guī)范化和其他一些正則化技術(shù),提升(Boosting)在機(jī)器學(xué)習(xí)中已經(jīng)是一個(gè)相對(duì)較老的概念,層次結(jié)構(gòu)(Hierarchical Structure)并沒有真正的大腦皮層的結(jié)構(gòu)靈活。HTM對(duì)物體間關(guān)系的重視程度低,甚至連稀疏分布表示也可以用普通神經(jīng)網(wǎng)絡(luò)構(gòu)建。總體來說,HTM需要進(jìn)行大量調(diào)整才能獲取與其它機(jī)器學(xué)習(xí)算法相當(dāng)?shù)男阅堋?/p>
接下來介紹AIXI,它是一個(gè)對(duì)通用人工智能的理論上的數(shù)學(xué)形式化表示。然而,它有一個(gè)顯著的缺點(diǎn)——無法計(jì)算。事實(shí)上,許多機(jī)器學(xué)習(xí)算法均不能精確計(jì)算,只能做近似處理。AIXI表示如下:
AIXI的核心是一個(gè)強(qiáng)化學(xué)習(xí)智能體,在諸多方面與Schmidhuber開發(fā)的Godel Machine類似。然而,它們都是AGI的描述性模型,復(fù)雜程度高,無法執(zhí)行,但不可否認(rèn),它們都是人工智能研究人員的靈感源泉。
相反,ACT-R,即理性思維的自適應(yīng)控制系統(tǒng) (AdaptiveControl of Thought—Rational),它不僅是一種理論,而且是一種用LISP編寫的軟件框架。
ACT-R主要關(guān)注不同類型的內(nèi)存,較少關(guān)注其中數(shù)據(jù)的轉(zhuǎn)換。該理論試圖理解人類如何獲得和組織知識(shí)以及如何產(chǎn)生智力活動(dòng),其研究進(jìn)展基于神經(jīng)生物學(xué)研究成果并從中得以驗(yàn)證,且已成功地為許多不同認(rèn)知現(xiàn)象建立起合理的模型。然而,它在實(shí)際應(yīng)用中并未取得成功,最終只作為研究人員的工具。SOAR與ACT-R有著相似的根源和基本假設(shè),但它更關(guān)注于實(shí)現(xiàn)AGI,而不是建立人類認(rèn)知的模型。
ACT-R和SOAR是人工智能符號(hào)主義的經(jīng)典代表,在認(rèn)知科學(xué)的發(fā)展中起到了重要作用,但是應(yīng)用它們相比現(xiàn)代聯(lián)結(jié)主義需要更多的配置和先驗(yàn)知識(shí)。此外,神經(jīng)影像和其他用于心智研究的工具越發(fā)詳細(xì)和準(zhǔn)確,而且ACT-R和SOAR在某一定程度上過于僵化,無法保持相關(guān)性。
?
原文鏈接
本文為云棲社區(qū)原創(chuàng)內(nèi)容,未經(jīng)允許不得轉(zhuǎn)載。
總結(jié)
以上是生活随笔為你收集整理的到底什么成就了今天的人工智能?(上)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 阿里云Kubernetes容器服务上体验
- 下一篇: 飞天2.0 | 万物智能的基础服务