贝叶斯网络是神经网络吗,贝叶斯网络和神经网络
深度信念網(wǎng)絡(luò)與深度貝葉斯網(wǎng)絡(luò)有什么區(qū)別
1、貝葉斯網(wǎng)絡(luò)是:一種概率網(wǎng)絡(luò),它是基于概率推理的圖形化網(wǎng)絡(luò),而貝葉斯公式則是這個概率網(wǎng)絡(luò)的基礎(chǔ)。
貝葉斯網(wǎng)絡(luò)是基于概率推理的數(shù)學(xué)模型,所謂概率推理就是通過一些變量的信息來獲取其他的概率信息的過程,基于概率推理的貝葉斯網(wǎng)絡(luò)(Bayesiannetwork)是為了解決不定性和不完整性問題而提出的,它對于解決復(fù)雜設(shè)備不確定性和關(guān)聯(lián)性引起的故障有很的優(yōu)勢,在多個領(lǐng)域中獲得廣泛應(yīng)用。
2、貝葉斯分類算法是:統(tǒng)計學(xué)的一種分類方法,它是一類利用概率統(tǒng)計知識進(jìn)行分類的算法。
在許多場合,樸素貝葉斯(Na?veBayes,NB)分類算法可以與決策樹和神經(jīng)網(wǎng)絡(luò)分類算法相媲美,該算法能運用到大型數(shù)據(jù)庫中,而且方法簡單、分類準(zhǔn)確率高、速度快。
3、貝葉斯網(wǎng)絡(luò)和貝葉斯分類算法的區(qū)別:由于貝葉斯定理假設(shè)一個屬性值對給定類的影響?yīng)毩⒂谄渌鼘傩缘闹?#xff0c;而此假設(shè)在實際情況中經(jīng)常是不成立的,因此其分類準(zhǔn)確率可能會下降。
為此,就衍生出許多降低獨立性假設(shè)的貝葉斯分類算法,如TAN(treeaugmentedBayesnetwork)算法。
貝葉斯分類算法是統(tǒng)計學(xué)的一種分類方法,它是一類利用概率統(tǒng)計知識進(jìn)行分類的算法。
在許多場合,樸素貝葉斯(Na?veBayes,NB)分類算法可以與決策樹和神經(jīng)網(wǎng)絡(luò)分類算法相媲美,該算法能運用到大型數(shù)據(jù)庫中,而且方法簡單、分類準(zhǔn)確率高、速度快。
由于貝葉斯定理假設(shè)一個屬性值對給定類的影響?yīng)毩⒂谄渌鼘傩缘闹?#xff0c;而此假設(shè)在實際情況中經(jīng)常是不成立的,因此其分類準(zhǔn)確率可能會下降。
為此,就衍生出許多降低獨立性假設(shè)的貝葉斯分類算法,如TAN(treeaugmentedBayesnetwork)算法。
谷歌人工智能寫作項目:小發(fā)貓
機器學(xué)習(xí)里的貝葉斯估計是什么?
貝葉斯估計(Bayesianestimation),是在給定訓(xùn)練數(shù)據(jù)D時,確定假設(shè)空間H中的最佳假設(shè)常見的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。最佳假設(shè):一種方法是把它定義為在給定數(shù)據(jù)D以及H中不同假設(shè)的先驗概率的有關(guān)知識下的最可能假設(shè)。
貝葉斯理論提供了一種計算假設(shè)概率的方法,基于假設(shè)的先驗概率、給定假設(shè)下觀察到不同數(shù)據(jù)的概率以及觀察到的數(shù)據(jù)本身。
貝葉斯分類器的工作原理:就是求條件概率然后比較大小:條件概率概念:在已知b發(fā)生的情況下,a發(fā)生的概率。我們寫做:p(a|b)。
例如:已知一本書有這些tag:tag1,tag2,tag3……它屬于“人文”分類的概率是多少?屬于“非人文”分類的概率呢?
假設(shè)p1表示在這種情況下,它屬于“人文”的概率,p2表示這種情況下,它屬于“非人文”的概率。如果p1>p2,那么這本書就屬于“人文”,反過來就是“非人文”。我們不考慮p1=p2的情況。
所以,問題就變成了,如何通過tag1,tag2,tag3…來計算p1和p2?
知一本書有這些tag:tag1,tag2,tag3……它屬于“人文”分類的概率表示為p(type1|tag:tag1,tag2,tag3...),類似的屬于“非人文”分類的概率表示為p(type2|tag:tag1,tag2,tag3...),利用貝葉斯公式:P(A|B)P(B)=P(B|A)P(A),可以得到p(type1|tag1,tag2,tag3...)=p(tag1,tag2,tag3...|type1)*p(type1)/p(tag1,tag2,tag3...),p(type2|tag1,tag2,tag3...)=p(tag1,tag2,tag3...|type2)*p(type2)/p(tag1,tag2,tag3...),所以只需要得到p(tag1,tag2,tag3...|type1),p(type1),p(tag1,tag2,tag3...)的值就可以得到p(type1|tag1,tag2,tag3...)但做為分類器的大小比較,我們發(fā)現(xiàn)不需要全部得到值就可以比較大小,因為分母都是p(tag1,tag2,tag3...),所以我們只需要得到p(tag1,tag2,tag3...|type1)*p(type1)和p(tag1,tag2,tag3...|type2)*p(type2)的大小來比較即可;對于p(type1)的計算就是在整個訓(xùn)練數(shù)據(jù)中出現(xiàn)的type1類書籍出現(xiàn)的概率;p(type2)同理;簡單;對于計算p(tag1,tag2,tag3...|type1),我們用到的是樸素貝葉斯,也就是說tag1和tag2和tag3等每個tag出現(xiàn)的概率是不互相影響的是獨立的;所以p(tag1,tag2,tag3...|type1)=p(tag1|type1)*p(tag2|type1)*p(tag3|type1)*p(...|type1),也就是說,我們可以計算每一個tag,在type1書籍的所有tag中出現(xiàn)的概率,然后將它們乘起來,就得到我們想要的p(tag1,tag2,tag3...|type1);
深度學(xué)習(xí)的職業(yè)發(fā)展方向有哪些?
當(dāng)前,人工智能發(fā)展借助深度學(xué)習(xí)技術(shù)突破得到了全面關(guān)注和助力推動,各國政府高度重視、資本熱潮仍在加碼,各界對其成為發(fā)展熱點也達(dá)成了共識。
本文旨在分析深度學(xué)習(xí)技術(shù)現(xiàn)狀,研判深度學(xué)習(xí)發(fā)展趨勢,并針對我國的技術(shù)水平提出發(fā)展建議。一、深度學(xué)習(xí)技術(shù)現(xiàn)狀深度學(xué)習(xí)是本輪人工智能爆發(fā)的關(guān)鍵技術(shù)。
人工智能技術(shù)在計算機視覺和自然語言處理等領(lǐng)域取得的突破性進(jìn)展,使得人工智能迎來新一輪爆發(fā)式發(fā)展。而深度學(xué)習(xí)是實現(xiàn)這些突破性進(jìn)展的關(guān)鍵技術(shù)。
其中,基于深度卷積網(wǎng)絡(luò)的圖像分類技術(shù)已超過人眼的準(zhǔn)確率,基于深度神經(jīng)網(wǎng)絡(luò)的語音識別技術(shù)已達(dá)到95%的準(zhǔn)確率,基于深度神經(jīng)網(wǎng)絡(luò)的機器翻譯技術(shù)已接近人類的平均翻譯水平。
準(zhǔn)確率的大幅提升使得計算機視覺和自然語言處理進(jìn)入產(chǎn)業(yè)化階段,帶來新產(chǎn)業(yè)的興起。深度學(xué)習(xí)是大數(shù)據(jù)時代的算法利器,成為近幾年的研究熱點。和傳統(tǒng)的機器學(xué)習(xí)算法相比,深度學(xué)習(xí)技術(shù)有著兩方面的優(yōu)勢。
一是深度學(xué)習(xí)技術(shù)可隨著數(shù)據(jù)規(guī)模的增加不斷提升其性能,而傳統(tǒng)機器學(xué)習(xí)算法難以利用海量數(shù)據(jù)持續(xù)提升其性能。
二是深度學(xué)習(xí)技術(shù)可以從數(shù)據(jù)中直接提取特征,削減了對每一個問題設(shè)計特征提取器的工作,而傳統(tǒng)機器學(xué)習(xí)算法需要人工提取特征。
因此,深度學(xué)習(xí)成為大數(shù)據(jù)時代的熱點技術(shù),學(xué)術(shù)界和產(chǎn)業(yè)界都對深度學(xué)習(xí)展開了大量的研究和實踐工作。深度學(xué)習(xí)各類模型全面賦能基礎(chǔ)應(yīng)用。卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)是兩類獲得廣泛應(yīng)用的深度神經(jīng)網(wǎng)絡(luò)模型。
計算機視覺和自然語言處理是人工智能兩大基礎(chǔ)應(yīng)用。卷積神經(jīng)網(wǎng)絡(luò)廣泛應(yīng)用于計算機視覺領(lǐng)域,在圖像分類、目標(biāo)檢測、語義分割等任務(wù)上的表現(xiàn)大大超越傳統(tǒng)方法。
循環(huán)神經(jīng)網(wǎng)絡(luò)適合解決序列信息相關(guān)問題,已廣泛應(yīng)用于自然語言處理領(lǐng)域,如語音識別、機器翻譯、對話系統(tǒng)等。深度學(xué)習(xí)技術(shù)仍不完美,有待于進(jìn)一步提升。
一是深度神經(jīng)網(wǎng)絡(luò)的模型復(fù)雜度高,巨量的參數(shù)導(dǎo)致模型尺寸大,難以部署到移動終端設(shè)備。二是模型訓(xùn)練所需的數(shù)據(jù)量大,而訓(xùn)練數(shù)據(jù)樣本獲取、標(biāo)注成本高,有些場景樣本難以獲取。
三是應(yīng)用門檻高,算法建模及調(diào)參過程復(fù)雜繁瑣、算法設(shè)計周期長、系統(tǒng)實施維護(hù)困難。四是缺乏因果推理能力,圖靈獎得主、貝葉斯網(wǎng)絡(luò)之父JudeaPearl指出當(dāng)前的深度學(xué)習(xí)不過只是“曲線擬合”。
五是存在可解釋性問題,由于內(nèi)部的參數(shù)共享和復(fù)雜的特征抽取與組合,很難解釋模型到底學(xué)習(xí)到了什么,但出于安全性考慮以及倫理和法律的需要,算法的可解釋性又是十分必要的。因此,深度學(xué)習(xí)仍需解決以上問題。
二、深度學(xué)習(xí)發(fā)展趨勢深度神經(jīng)網(wǎng)絡(luò)呈現(xiàn)層數(shù)越來越深,結(jié)構(gòu)越來越復(fù)雜的發(fā)展趨勢。為了不斷提升深度神經(jīng)網(wǎng)絡(luò)的性能,業(yè)界從網(wǎng)絡(luò)深度和網(wǎng)絡(luò)結(jié)構(gòu)兩方面持續(xù)進(jìn)行探索。
神經(jīng)網(wǎng)絡(luò)的層數(shù)已擴展到上百層甚至上千層,隨著網(wǎng)絡(luò)層數(shù)的不斷加深,其學(xué)習(xí)效果也越來越好,2015年微軟提出的ResNet以152層的網(wǎng)絡(luò)深度在圖像分類任務(wù)上準(zhǔn)確率首次超過人眼。
新的網(wǎng)絡(luò)設(shè)計結(jié)構(gòu)不斷被提出,使得神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)越來越復(fù)雜。
如:2014年谷歌提出了Inception網(wǎng)絡(luò)結(jié)構(gòu)、2015年微軟提出了殘差網(wǎng)絡(luò)結(jié)構(gòu)、2016年黃高等人提出了密集連接網(wǎng)絡(luò)結(jié)構(gòu),這些網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計不斷提升了深度神經(jīng)網(wǎng)絡(luò)的性能。
深度神經(jīng)網(wǎng)絡(luò)節(jié)點功能不斷豐富。為了克服目前神經(jīng)網(wǎng)絡(luò)存在的局限性,業(yè)界探索并提出了新型神經(jīng)網(wǎng)絡(luò)節(jié)點,使得神經(jīng)網(wǎng)絡(luò)的功能越來越豐富。
2017年,杰弗里辛頓提出了膠囊網(wǎng)絡(luò)的概念,采用膠囊作為網(wǎng)絡(luò)節(jié)點,理論上更接近人腦的行為,旨在克服卷積神經(jīng)網(wǎng)絡(luò)沒有空間分層和推理能力等局限性。
2018年,DeepMind、谷歌大腦、MIT的學(xué)者聯(lián)合提出了圖網(wǎng)絡(luò)的概念,定義了一類新的模塊,具有關(guān)系歸納偏置功能,旨在賦予深度學(xué)習(xí)因果推理的能力。深度神經(jīng)網(wǎng)絡(luò)工程化應(yīng)用技術(shù)不斷深化。
深度神經(jīng)網(wǎng)絡(luò)模型大都具有上億的參數(shù)量和數(shù)百兆的占用空間,運算量大,難以部署到智能手機、攝像頭和可穿戴設(shè)備等性能和資源受限的終端類設(shè)備。
為了解決這個問題,業(yè)界采用模型壓縮技術(shù)降低模型參數(shù)量和尺寸,減少運算量。目前采用的模型壓縮方法包括對已訓(xùn)練好的模型做修剪(如剪枝、權(quán)值共享和量化等)和設(shè)計更精細(xì)的模型(如MobileNet等)兩類。
深度學(xué)習(xí)算法建模及調(diào)參過程繁瑣,應(yīng)用門檻高。為了降低深度學(xué)習(xí)的應(yīng)用門檻,業(yè)界提出了自動化機器學(xué)習(xí)(AutoML)技術(shù),可實現(xiàn)深度神經(jīng)網(wǎng)絡(luò)的自動化設(shè)計,簡化使用流程。
深度學(xué)習(xí)與多種機器學(xué)習(xí)技術(shù)不斷融合發(fā)展。
深度學(xué)習(xí)與強化學(xué)習(xí)融合發(fā)展誕生的深度強化學(xué)習(xí)技術(shù),結(jié)合了深度學(xué)習(xí)的感知能力和強化學(xué)習(xí)的決策能力,克服了強化學(xué)習(xí)只適用于狀態(tài)為離散且低維的缺陷,可直接從高維原始數(shù)據(jù)學(xué)習(xí)控制策略。
為了降低深度神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練所需的數(shù)據(jù)量,業(yè)界引入了遷移學(xué)習(xí)的思想,從而誕生了深度遷移學(xué)習(xí)技術(shù)。遷移學(xué)習(xí)是指利用數(shù)據(jù)、任務(wù)或模型之間的相似性,將在舊領(lǐng)域?qū)W習(xí)過的模型,應(yīng)用于新領(lǐng)域的一種學(xué)習(xí)過程。
通過將訓(xùn)練好的模型遷移到類似場景,實現(xiàn)只需少量的訓(xùn)練數(shù)據(jù)就可以達(dá)到較好的效果。三、未來發(fā)展建議加強圖網(wǎng)絡(luò)、深度強化學(xué)習(xí)以及生成式對抗網(wǎng)絡(luò)等前沿技術(shù)研究。
由于我國在深度學(xué)習(xí)領(lǐng)域缺乏重大原創(chuàng)性研究成果,基礎(chǔ)理論研究貢獻(xiàn)不足,如膠囊網(wǎng)絡(luò)、圖網(wǎng)絡(luò)等創(chuàng)新性、原創(chuàng)性概念是由美國專家提出,我國研究貢獻(xiàn)不足。
在深度強化學(xué)習(xí)方面,目前最新的研究成果大都是由DeepMind和OpenAI等國外公司的研究人員提出,我國尚沒有突破性研究成果。
近幾年的研究熱點生成式對抗網(wǎng)絡(luò)(GAN)是由美國的研究人員Goodfellow提出,并且谷歌、facebook、twitter和蘋果等公司紛紛提出了各種改進(jìn)和應(yīng)用模型,有力推動了GAN技術(shù)的發(fā)展,而我國在這方面取得的研究成果較少。
因此,應(yīng)鼓勵科研院所及企業(yè)加強深度神經(jīng)網(wǎng)絡(luò)與因果推理模型結(jié)合、生成式對抗網(wǎng)絡(luò)以及深度強化學(xué)習(xí)等前沿技術(shù)的研究,提出更多原創(chuàng)性研究成果,增強全球?qū)W術(shù)研究影響力。
加快自動化機器學(xué)習(xí)、模型壓縮等深度學(xué)習(xí)應(yīng)用技術(shù)研究。依托國內(nèi)的市場優(yōu)勢和企業(yè)的成長優(yōu)勢,針對具有我國特色的個性化應(yīng)用需求,加快對深度學(xué)習(xí)應(yīng)用技術(shù)的研究。
加強對自動化機器學(xué)習(xí)、模型壓縮等技術(shù)的研究,加快深度學(xué)習(xí)的工程化落地應(yīng)用。加強深度學(xué)習(xí)在計算機視覺領(lǐng)域應(yīng)用研究,進(jìn)一步提升目標(biāo)識別等視覺任務(wù)的準(zhǔn)確率,以及在實際應(yīng)用場景中的性能。
加強深度學(xué)習(xí)在自然語言處理領(lǐng)域的應(yīng)用研究,提出性能更優(yōu)的算法模型,提升機器翻譯、對話系統(tǒng)等應(yīng)用的性能。
來源:產(chǎn)業(yè)智能官END更多精彩內(nèi)容請登錄官方網(wǎng)站往期精選▼1.飲鹿網(wǎng)2018-2019年中國人工智能產(chǎn)業(yè)創(chuàng)新百強榜單發(fā)布!2.飲鹿網(wǎng)2018-2019年中國人工智能產(chǎn)業(yè)Top20投資機構(gòu)榜單發(fā)布!
3.飲鹿網(wǎng)2018-2019年中國大數(shù)據(jù)產(chǎn)業(yè)創(chuàng)新百強榜單發(fā)布!4.飲鹿網(wǎng)2018-2019年中國大數(shù)據(jù)產(chǎn)業(yè)Top20投資機構(gòu)榜單發(fā)布!
5.飲鹿網(wǎng)2018-2019年中國物聯(lián)網(wǎng)產(chǎn)業(yè)創(chuàng)新百強榜單發(fā)布!6.飲鹿網(wǎng)2018-2019年中國5G與物聯(lián)網(wǎng)產(chǎn)業(yè)TOP20投資機構(gòu)榜單發(fā)布!
7.飲鹿網(wǎng)2018-2019年中國集成電路產(chǎn)業(yè)創(chuàng)新百強榜單發(fā)布!8.飲鹿網(wǎng)2018-2019年中國集成電路產(chǎn)業(yè)Top20投資機構(gòu)榜單發(fā)布!
9.飲鹿網(wǎng)2018-2019年中國企業(yè)服務(wù)產(chǎn)業(yè)創(chuàng)新百強榜單發(fā)布!10.飲鹿網(wǎng)2018-2019年中國企業(yè)服務(wù)產(chǎn)業(yè)TOP20投資機構(gòu)榜單發(fā)布!
樸素貝葉斯算法不是可以直接分類,為什么還要機器學(xué)習(xí)
樸素貝葉斯本來就是機器學(xué)習(xí)里的一種分類器,而且只是生成模型中的一類。是生成模型的話,你得假設(shè)分布。”樸素“的話還得有獨立性假設(shè)。結(jié)果如何和這些假設(shè)是否準(zhǔn)確都有關(guān)系。
總體來說生成模型假陽性率和效率也都一般般。再者,給定圖像的像素值,你覺得直接用這個特征來建表訓(xùn)練樸素貝葉斯的可行性如何?我覺得幾乎沒有可行性。
相比起自己設(shè)計圖像類數(shù)據(jù)的特征提取,深度卷積完全不需要管這一步所以至少圖像方面深度學(xué)習(xí)目前的優(yōu)勢是毋庸置疑的。樸素貝葉斯目前也就在自然語言之類的方面有不錯的應(yīng)用吧。
人工智能,機器學(xué)習(xí),深度學(xué)習(xí),到底有何區(qū)別
有人說,人工智能(AI)是未來,人工智能是科幻,人工智能也是我們?nèi)粘I钪械囊徊糠帧_@些評價可以說都是正確的,就看你指的是哪一種人工智能。
今年早些時候,GoogleDeepMind的AlphaGo打敗了韓國的圍棋大師李世乭九段。
在媒體描述DeepMind勝利的時候,將人工智能(AI)、機器學(xué)習(xí)(machinelearning)和深度學(xué)習(xí)(deeplearning)都用上了。
這三者在AlphaGo擊敗李世乭的過程中都起了作用,但它們說的并不是一回事。今天我們就用最簡單的方法——同心圓,可視化地展現(xiàn)出它們?nèi)叩年P(guān)系和應(yīng)用。
如上圖,人工智能是最早出現(xiàn)的,也是最大、最外側(cè)的同心圓;其次是機器學(xué)習(xí),稍晚一點;最內(nèi)側(cè),是深度學(xué)習(xí),當(dāng)今人工智能大爆炸的核心驅(qū)動。五十年代,人工智能曾一度被極為看好。
之后,人工智能的一些較小的子集發(fā)展了起來。先是機器學(xué)習(xí),然后是深度學(xué)習(xí)。深度學(xué)習(xí)又是機器學(xué)習(xí)的子集。深度學(xué)習(xí)造成了前所未有的巨大的影響。
從概念的提出到走向繁榮1956年,幾個計算機科學(xué)家相聚在達(dá)特茅斯會議(DartmouthConferences),提出了“人工智能”的概念。
其后,人工智能就一直縈繞于人們的腦海之中,并在科研實驗室中慢慢孵化。之后的幾十年,人工智能一直在兩極反轉(zhuǎn),或被稱作人類文明耀眼未來的預(yù)言;或者被當(dāng)成技術(shù)瘋子的狂想扔到垃圾堆里。
坦白說,直到2012年之前,這兩種聲音還在同時存在。過去幾年,尤其是2015年以來,人工智能開始大爆發(fā)。很大一部分是由于GPU的廣泛應(yīng)用,使得并行計算變得更快、更便宜、更有效。
當(dāng)然,無限拓展的存儲能力和驟然爆發(fā)的數(shù)據(jù)洪流(大數(shù)據(jù))的組合拳,也使得圖像數(shù)據(jù)、文本數(shù)據(jù)、交易數(shù)據(jù)、映射數(shù)據(jù)全面海量爆發(fā)。
讓我們慢慢梳理一下計算機科學(xué)家們是如何將人工智能從最早的一點點苗頭,發(fā)展到能夠支撐那些每天被數(shù)億用戶使用的應(yīng)用的。
|?人工智能(ArtificialIntelligence)——為機器賦予人的智能早在1956年夏天那次會議,人工智能的先驅(qū)們就夢想著用當(dāng)時剛剛出現(xiàn)的計算機來構(gòu)造復(fù)雜的、擁有與人類智慧同樣本質(zhì)特性的機器。
這就是我們現(xiàn)在所說的“強人工智能”(GeneralAI)。這個無所不能的機器,它有著我們所有的感知(甚至比人更多),我們所有的理性,可以像我們一樣思考。
人們在電影里也總是看到這樣的機器:友好的,像星球大戰(zhàn)中的C-3PO;邪惡的,如終結(jié)者。強人工智能現(xiàn)在還只存在于電影和科幻小說中,原因不難理解,我們還沒法實現(xiàn)它們,至少目前還不行。
我們目前能實現(xiàn)的,一般被稱為“弱人工智能”(NarrowAI)。弱人工智能是能夠與人一樣,甚至比人更好地執(zhí)行特定任務(wù)的技術(shù)。例如,Pinterest上的圖像分類;或者Facebook的人臉識別。
這些是弱人工智能在實踐中的例子。這些技術(shù)實現(xiàn)的是人類智能的一些具體的局部。但它們是如何實現(xiàn)的?這種智能是從何而來?這就帶我們來到同心圓的里面一層,機器學(xué)習(xí)。
|?機器學(xué)習(xí)——一種實現(xiàn)人工智能的方法機器學(xué)習(xí)最基本的做法,是使用算法來解析數(shù)據(jù)、從中學(xué)習(xí),然后對真實世界中的事件做出決策和預(yù)測。
與傳統(tǒng)的為解決特定任務(wù)、硬編碼的軟件程序不同,機器學(xué)習(xí)是用大量的數(shù)據(jù)來“訓(xùn)練”,通過各種算法從數(shù)據(jù)中學(xué)習(xí)如何完成任務(wù)。機器學(xué)習(xí)直接來源于早期的人工智能領(lǐng)域。
傳統(tǒng)算法包括決策樹學(xué)習(xí)、推導(dǎo)邏輯規(guī)劃、聚類、強化學(xué)習(xí)和貝葉斯網(wǎng)絡(luò)等等。眾所周知,我們還沒有實現(xiàn)強人工智能。早期機器學(xué)習(xí)方法甚至都無法實現(xiàn)弱人工智能。
機器學(xué)習(xí)最成功的應(yīng)用領(lǐng)域是計算機視覺,雖然也還是需要大量的手工編碼來完成工作。
人們需要手工編寫分類器、邊緣檢測濾波器,以便讓程序能識別物體從哪里開始,到哪里結(jié)束;寫形狀檢測程序來判斷檢測對象是不是有八條邊;寫分類器來識別字母“ST-O-P”。
使用以上這些手工編寫的分類器,人們總算可以開發(fā)算法來感知圖像,判斷圖像是不是一個停止標(biāo)志牌。這個結(jié)果還算不錯,但并不是那種能讓人為之一振的成功。
特別是遇到云霧天,標(biāo)志牌變得不是那么清晰可見,又或者被樹遮擋一部分,算法就難以成功了。這就是為什么前一段時間,計算機視覺的性能一直無法接近到人的能力。它太僵化,太容易受環(huán)境條件的干擾。
隨著時間的推進(jìn),學(xué)習(xí)算法的發(fā)展改變了一切。
|?深度學(xué)習(xí)——一種實現(xiàn)機器學(xué)習(xí)的技術(shù)人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetworks)是早期機器學(xué)習(xí)中的一個重要的算法,歷經(jīng)數(shù)十年風(fēng)風(fēng)雨雨。
神經(jīng)網(wǎng)絡(luò)的原理是受我們大腦的生理結(jié)構(gòu)——互相交叉相連的神經(jīng)元啟發(fā)。但與大腦中一個神經(jīng)元可以連接一定距離內(nèi)的任意神經(jīng)元不同,人工神經(jīng)網(wǎng)絡(luò)具有離散的層、連接和數(shù)據(jù)傳播的方向。
例如,我們可以把一幅圖像切分成圖像塊,輸入到神經(jīng)網(wǎng)絡(luò)的第一層。在第一層的每一個神經(jīng)元都把數(shù)據(jù)傳遞到第二層。第二層的神經(jīng)元也是完成類似的工作,把數(shù)據(jù)傳遞到第三層,以此類推,直到最后一層,然后生成結(jié)果。
每一個神經(jīng)元都為它的輸入分配權(quán)重,這個權(quán)重的正確與否與其執(zhí)行的任務(wù)直接相關(guān)。最終的輸出由這些權(quán)重加總來決定。我們?nèi)砸酝V?#xff08;Stop)標(biāo)志牌為例。
將一個停止標(biāo)志牌圖像的所有元素都打碎,然后用神經(jīng)元進(jìn)行“檢查”:八邊形的外形、救火車般的紅顏色、鮮明突出的字母、交通標(biāo)志的典型尺寸和靜止不動運動特性等等。
神經(jīng)網(wǎng)絡(luò)的任務(wù)就是給出結(jié)論,它到底是不是一個停止標(biāo)志牌。神經(jīng)網(wǎng)絡(luò)會根據(jù)所有權(quán)重,給出一個經(jīng)過深思熟慮的猜測——“概率向量”。
這個例子里,系統(tǒng)可能會給出這樣的結(jié)果:86%可能是一個停止標(biāo)志牌;7%的可能是一個限速標(biāo)志牌;5%的可能是一個風(fēng)箏掛在樹上等等。然后網(wǎng)絡(luò)結(jié)構(gòu)告知神經(jīng)網(wǎng)絡(luò),它的結(jié)論是否正確。
即使是這個例子,也算是比較超前了。直到前不久,神經(jīng)網(wǎng)絡(luò)也還是為人工智能圈所淡忘。其實在人工智能出現(xiàn)的早期,神經(jīng)網(wǎng)絡(luò)就已經(jīng)存在了,但神經(jīng)網(wǎng)絡(luò)對于“智能”的貢獻(xiàn)微乎其微。
主要問題是,即使是最基本的神經(jīng)網(wǎng)絡(luò),也需要大量的運算。神經(jīng)網(wǎng)絡(luò)算法的運算需求難以得到滿足。
不過,還是有一些虔誠的研究團(tuán)隊,以多倫多大學(xué)的GeoffreyHinton為代表,堅持研究,實現(xiàn)了以超算為目標(biāo)的并行算法的運行與概念證明。但也直到GPU得到廣泛應(yīng)用,這些努力才見到成效。
我們回過頭來看這個停止標(biāo)志識別的例子。神經(jīng)網(wǎng)絡(luò)是調(diào)制、訓(xùn)練出來的,時不時還是很容易出錯的。它最需要的,就是訓(xùn)練。
需要成百上千甚至幾百萬張圖像來訓(xùn)練,直到神經(jīng)元的輸入的權(quán)值都被調(diào)制得十分精確,無論是否有霧,晴天還是雨天,每次都能得到正確的結(jié)果。
只有這個時候,我們才可以說神經(jīng)網(wǎng)絡(luò)成功地自學(xué)習(xí)到一個停止標(biāo)志的樣子;或者在Facebook的應(yīng)用里,神經(jīng)網(wǎng)絡(luò)自學(xué)習(xí)了你媽媽的臉;又或者是2012年吳恩達(dá)(AndrewNg)教授在Google實現(xiàn)了神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到貓的樣子等等。
吳教授的突破在于,把這些神經(jīng)網(wǎng)絡(luò)從基礎(chǔ)上顯著地增大了。層數(shù)非常多,神經(jīng)元也非常多,然后給系統(tǒng)輸入海量的數(shù)據(jù),來訓(xùn)練網(wǎng)絡(luò)。在吳教授這里,數(shù)據(jù)是一千萬YouTube視頻中的圖像。
吳教授為深度學(xué)習(xí)(deeplearning)加入了“深度”(deep)。這里的“深度”就是說神經(jīng)網(wǎng)絡(luò)中眾多的層。
現(xiàn)在,經(jīng)過深度學(xué)習(xí)訓(xùn)練的圖像識別,在一些場景中甚至可以比人做得更好:從識別貓,到辨別血液中癌癥的早期成分,到識別核磁共振成像中的腫瘤。
Google的AlphaGo先是學(xué)會了如何下圍棋,然后與它自己下棋訓(xùn)練。它訓(xùn)練自己神經(jīng)網(wǎng)絡(luò)的方法,就是不斷地與自己下棋,反復(fù)地下,永不停歇。
|?深度學(xué)習(xí),給人工智能以璀璨的未來深度學(xué)習(xí)使得機器學(xué)習(xí)能夠?qū)崿F(xiàn)眾多的應(yīng)用,并拓展了人工智能的領(lǐng)域范圍。深度學(xué)習(xí)摧枯拉朽般地實現(xiàn)了各種任務(wù),使得似乎所有的機器輔助功能都變?yōu)榭赡堋?/p>
無人駕駛汽車,預(yù)防性醫(yī)療保健,甚至是更好的電影推薦,都近在眼前,或者即將實現(xiàn)。人工智能就在現(xiàn)在,就在明天。有了深度學(xué)習(xí),人工智能甚至可以達(dá)到我們暢想的科幻小說一般。
你的C-3PO我拿走了,你有你的終結(jié)者就好了。
深度學(xué)習(xí)是不是一定就比機器學(xué)習(xí)好
1、機器學(xué)習(xí)是一種實現(xiàn)人工智能的方法,深度學(xué)習(xí)是一種實現(xiàn)機器學(xué)習(xí)的技術(shù)。2、深度學(xué)習(xí)本來并不是一種獨立的學(xué)習(xí)方法,其本身也會用到有監(jiān)督和無監(jiān)督的學(xué)習(xí)方法來訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)。
但由于近幾年該領(lǐng)域發(fā)展迅猛,一些特有的學(xué)習(xí)手段相繼被提出(如殘差網(wǎng)絡(luò)),因此越來越多的人將其單獨看作一種學(xué)習(xí)的方法。
3、機器學(xué)習(xí)最基本的做法,是使用算法來解析數(shù)據(jù)、從中學(xué)習(xí),然后對真實世界中的事件做出決策和預(yù)測。
與傳統(tǒng)的為解決特定任務(wù)、硬編碼的軟件程序不同,機器學(xué)習(xí)是用大量的數(shù)據(jù)來“訓(xùn)練”,通過各種算法從數(shù)據(jù)中學(xué)習(xí)如何完成任務(wù)。
拓展資料:1、機器學(xué)習(xí)直接來源于早期的人工智能領(lǐng)域,傳統(tǒng)的算法包括決策樹、聚類、貝葉斯分類、支持向量機、EM、Adaboost等等。
從學(xué)習(xí)方法上來分,機器學(xué)習(xí)算法可以分為監(jiān)督學(xué)習(xí)(如分類問題)、無監(jiān)督學(xué)習(xí)(如聚類問題)、半監(jiān)督學(xué)習(xí)、集成學(xué)習(xí)、深度學(xué)習(xí)和強化學(xué)習(xí)。
傳統(tǒng)的機器學(xué)習(xí)算法在指紋識別、基于Haar的人臉檢測、基于HoG特征的物體檢測等領(lǐng)域的應(yīng)用基本達(dá)到了商業(yè)化的要求或者特定場景的商業(yè)化水平,但每前進(jìn)一步都異常艱難,直到深度學(xué)習(xí)算法的出現(xiàn)。
2、最初的深度學(xué)習(xí)是利用深度神經(jīng)網(wǎng)絡(luò)來解決特征表達(dá)的一種學(xué)習(xí)過程。深度神經(jīng)網(wǎng)絡(luò)本身并不是一個全新的概念,可大致理解為包含多個隱含層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。
為了提高深層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果,人們對神經(jīng)元的連接方法和激活函數(shù)等方面做出相應(yīng)的調(diào)整。其實有不少想法早年間也曾有過,但由于當(dāng)時訓(xùn)練數(shù)據(jù)量不足、計算能力落后,因此最終的效果不盡如人意。
深度學(xué)習(xí)摧枯拉朽般地實現(xiàn)了各種任務(wù),使得似乎所有的機器輔助功能都變?yōu)榭赡堋o人駕駛汽車,預(yù)防性醫(yī)療保健,甚至是更好的電影推薦,都近在眼前,或者即將實現(xiàn)。
人工智能、機器學(xué)習(xí)和深度學(xué)習(xí)的區(qū)別?
現(xiàn)在也是隨著互聯(lián)網(wǎng)的發(fā)展和壯大,人工智能的已經(jīng)得到非常廣泛的作用,還有就是人工智能的機器學(xué)習(xí)和深度學(xué)習(xí)已經(jīng)吸引非常多的人前來學(xué)習(xí),還有就是他的發(fā)展趨勢還是非常的不錯的。
人工智能從廣義上講,人工智能描述一種機器與周圍世界交互的各種方式。通過先進(jìn)的、像人類一樣的智能——軟件和硬件結(jié)合的結(jié)果——一臺人工智能機器或設(shè)備就可以模仿人類的行為或像人一樣執(zhí)行任務(wù)。
機器學(xué)習(xí)機器學(xué)習(xí)是人工智能的一種途徑或子集,它強調(diào)“學(xué)習(xí)”而不是計算機程序。一臺機器使用復(fù)雜的算法來分析大量的數(shù)據(jù),識別數(shù)據(jù)中的模式,并做出一個預(yù)測——不需要人在機器的軟件中編寫特定的指令。
在錯誤地將奶油泡芙當(dāng)成橙子之后,系統(tǒng)的模式識別會隨著時間的推移而不斷改進(jìn),因為它會像人一樣從錯誤中吸取教訓(xùn)并糾正自己。深度學(xué)習(xí)深度學(xué)習(xí)是機器學(xué)習(xí)的一個子集,推動計算機智能取得長足進(jìn)步。
它用大量的數(shù)據(jù)和計算能力來模擬深度神經(jīng)網(wǎng)絡(luò)。從本質(zhì)上說,這些網(wǎng)絡(luò)模仿人類大腦的連通性,對數(shù)據(jù)集進(jìn)行分類,并發(fā)現(xiàn)它們之間的相關(guān)性。如果有新學(xué)習(xí)的知識(無需人工干預(yù)),機器就可以將其見解應(yīng)用于其他數(shù)據(jù)集。
機器處理的數(shù)據(jù)越多,它的預(yù)測就越準(zhǔn)確。總結(jié):人工智能是一類非常廣泛的問題,機器學(xué)習(xí)是解決這類問題的一個重要手段。深度學(xué)習(xí)則是機器學(xué)習(xí)的一個分支。
在很多人工智能問題上,深度學(xué)習(xí)的方法突破了傳統(tǒng)機器學(xué)習(xí)方法的瓶頸,推動了人工智能領(lǐng)域的發(fā)展。深度學(xué)習(xí)使得機器學(xué)習(xí)能夠?qū)崿F(xiàn)眾多的應(yīng)用,并拓展了人工智能的領(lǐng)域范圍。
深度學(xué)習(xí)摧枯拉朽般地實現(xiàn)了各種任務(wù),使得似乎所有的機器輔助功能都變?yōu)榭赡堋o人駕駛汽車,預(yù)防性醫(yī)療保健,甚至是更好的電影推薦,都近在眼前,或者即將實現(xiàn)。
一篇文章講清楚人工智能,機器學(xué)習(xí)和深度學(xué)習(xí)的區(qū)別
先看一下三者的關(guān)系:對于人工智能,我們可以從廣義和狹義兩個層面來理解。廣義層面來講,AI應(yīng)該具備人類智力的所有特征,包括上述的能力。
狹義層面的人工智能則只具備部分人類智力某些方面的能力,并且能在這些領(lǐng)域內(nèi)做的非常出眾,但可能缺乏其他領(lǐng)域的能力。
比如說,一個人工智能機器可能擁有強大的圖像識別功能,但除此之外并無他用,這就是狹義層面AI的例子。從核心上來說,機器學(xué)習(xí)是實現(xiàn)人工智能的一種途徑。
實際上,機器學(xué)習(xí)是一種“訓(xùn)練”算法的方式,目的是使機器能夠向算法傳送大量的數(shù)據(jù),并允許算法進(jìn)行自我調(diào)整和改進(jìn),而不是利用具有特定指令的編碼軟件例程來完成指定的任務(wù)。
舉個例子,機器學(xué)習(xí)已經(jīng)被用于計算機視覺(機器具備識別圖像或視頻中的對象的能力)方面,并已經(jīng)有了顯著的進(jìn)步。你可以收集數(shù)十萬甚至數(shù)百萬張圖片,然后讓人標(biāo)記它們。例如,讓人標(biāo)記出其中含有貓的圖片。
對于算法,它也能夠嘗試建立一個模型,可以像人一樣準(zhǔn)確地標(biāo)記出含有貓的圖片。一旦精度水平足夠高,機器就相當(dāng)于“掌握”了貓的樣子。深度學(xué)習(xí)是機器學(xué)習(xí)的眾多方法之一。
其他方法包括決策樹學(xué)習(xí)、歸納邏輯編程、聚類、強化學(xué)習(xí)和貝葉斯網(wǎng)絡(luò)等。深度學(xué)習(xí)的靈感來自大腦的結(jié)構(gòu)和功能,即許多神經(jīng)元的互連。人工神經(jīng)網(wǎng)絡(luò)(ANN)是模擬大腦生物結(jié)構(gòu)的算法。
在ANN中,存在具有離散層和與其他“神經(jīng)元”連接的“神經(jīng)元”。每個圖層挑選出一個要學(xué)習(xí)的特征,如圖像識別中的曲線/邊緣。
正是這種分層賦予了“深度學(xué)習(xí)”這樣的名字,深度就是通過使用多層創(chuàng)建的,而不是單層。人工智能和物聯(lián)網(wǎng)密不可分我認(rèn)為人工智能和物聯(lián)網(wǎng)之間的關(guān)系類似于人類的大腦和身體之間的關(guān)系。
我們的身體收集感官輸入,如視覺、聲音和觸摸。我們的大腦接收、處理這些數(shù)據(jù)并尋求它們的意義,比如:把光變成可識別的對象、把聲音變成可以理解的語言。
然后大腦會做出決定、向身體發(fā)送信號,命令身體執(zhí)行一些運動,例如撿起物品或?qū)λ苏f話。構(gòu)成物聯(lián)網(wǎng)的所有傳感器都像我們的身體,它們提供了來自世界各處的原始數(shù)據(jù)。
人工智能就像我們的大腦,需要能夠了解這些數(shù)據(jù)并決定要執(zhí)行的操作。同時,物聯(lián)網(wǎng)的連接設(shè)備又像是我們的身體,能夠進(jìn)行物理動作或與他人進(jìn)行交流,以釋放彼此的潛力。
總結(jié)
以上是生活随笔為你收集整理的贝叶斯网络是神经网络吗,贝叶斯网络和神经网络的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 联发科MT6763处理器参数MT6763
- 下一篇: X5Webview TbsReaderV