机器学习(Machine Learning)深度学习(Deep Learning)资料(下)
該資源的github地址:Qix
《Statistical foundations of machine learning》
介紹:《機(jī)器學(xué)習(xí)的統(tǒng)計(jì)基礎(chǔ)》在線版,該手冊(cè)希望在理論與實(shí)踐之間找到平衡點(diǎn),各主要內(nèi)容都伴有實(shí)際例子及數(shù)據(jù),書中的例子程序都是用R語言編寫的。
《A Deep Learning Tutorial: From Perceptrons to Deep Networks》
介紹:IVAN VASILEV寫的深度學(xué)習(xí)導(dǎo)引:從淺層感知機(jī)到深度網(wǎng)絡(luò)。高可讀
《Research priorities for robust and beneficial artificial intelligence》
介紹:魯棒及有益的人工智能優(yōu)先研究計(jì)劃:一封公開信,目前已經(jīng)有Stuart Russell, Tom Dietterich, Eric Horvitz, Yann LeCun, Peter Norvig, Tom Mitchell, Geoffrey Hinton, Elon Musk等人簽署The Future of Life Institute (FLI).這封信的背景是最近霍金和Elon Musk提醒人們注意AI的潛在威脅。公開信的內(nèi)容是AI科學(xué)家們站在造福社會(huì)的角度,展望人工智能的未來發(fā)展方向,提出開發(fā)AI系統(tǒng)的Verification,Validity, Security, Control四點(diǎn)要求,以及需要注意的社會(huì)問題。畢竟當(dāng)前AI在經(jīng)濟(jì)領(lǐng)域,法律,以及道德領(lǐng)域相關(guān)研究較少。其實(shí)還有一部美劇《疑犯追蹤》,介紹了AI的演進(jìn)從一開始的自我學(xué)習(xí),過濾,圖像識(shí)別,語音識(shí)別等判斷危險(xiǎn),到第四季的時(shí)候出現(xiàn)了機(jī)器通過學(xué)習(xí)成長之后想控制世界的狀態(tài)。說到這里推薦收看。
《metacademy》
介紹:里面根據(jù)詞條提供了許多資源,還有相關(guān)知識(shí)結(jié)構(gòu),路線圖,用時(shí)長短等。號(hào)稱是”機(jī)器學(xué)習(xí)“搜索引擎
《FAIR open sources deep-learning modules for Torch》
介紹:Facebook人工智能研究院(FAIR)開源了一系列軟件庫,以幫助開發(fā)者建立更大、更快的深度學(xué)習(xí)模型。開放的軟件庫在 Facebook 被稱作模塊。用它們替代機(jī)器學(xué)習(xí)領(lǐng)域常用的開發(fā)環(huán)境 Torch 中的默認(rèn)模塊,可以在更短的時(shí)間內(nèi)訓(xùn)練更大規(guī)模的神經(jīng)網(wǎng)絡(luò)模型。
《淺析人臉檢測(cè)之Haar分類器方法》
介紹:本文雖然是寫于2012年,但是這篇文章完全是作者的經(jīng)驗(yàn)之作。
《如何成為一位數(shù)據(jù)科學(xué)家》
介紹:本文是對(duì)《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》作者Peter Harrington做的一個(gè)訪談。包含了書中部分的疑問解答和一點(diǎn)個(gè)人學(xué)習(xí)建議
《Deep learning from the bottom up》
介紹:非常好的深度學(xué)習(xí)概述,對(duì)幾種流行的深度學(xué)習(xí)模型都進(jìn)行了介紹和討論
《Hands-On Data Science with R Text Mining》
介紹:主要是講述了利用R語言進(jìn)行數(shù)據(jù)挖掘
《Understanding Convolutions》
介紹:幫你理解卷積神經(jīng)網(wǎng)絡(luò),講解很清晰,此外還有兩篇Conv Nets: A Modular Perspective,Groups & Group Convolutions. 作者的其他的關(guān)于神經(jīng)網(wǎng)絡(luò)文章也很棒
《Introduction to Deep Learning Algorithms》
介紹:Deep Learning算法介紹,里面介紹了06年3篇讓deep learning崛起的論文
《Learning Deep Architectures for AI》
介紹:一本學(xué)習(xí)人工智能的書籍,作者是Yoshua Bengio,相關(guān)國內(nèi)報(bào)道
《Geoffrey E. Hinton個(gè)人主頁》
介紹:Geoffrey Hinton是Deep Learning的大牛,他的主頁放了一些介紹性文章和課件值得學(xué)習(xí)
《PROBABILITY THEORY: THE LOGIC OF SCIENCE》
介紹:概率論:數(shù)理邏輯書籍
《H2O》
介紹:一個(gè)用來快速的統(tǒng)計(jì),機(jī)器學(xué)習(xí)并且對(duì)于數(shù)據(jù)量大的數(shù)學(xué)庫
《ICLR 2015會(huì)議的arXiv稿件合集》
介紹:在這里你可以看到最近深度學(xué)習(xí)有什么新動(dòng)向。
《Introduction to Information Retrieval》
介紹:此書在信息檢索領(lǐng)域家喻戶曉, 除提供該書的免費(fèi)電子版外,還提供一個(gè)IR資源列表,收錄了信息檢索、網(wǎng)絡(luò)信息檢索、搜索引擎實(shí)現(xiàn)等方面相關(guān)的圖書、研究中心、相關(guān)課程、子領(lǐng)域、會(huì)議、期刊等等,堪稱全集,值得收藏
《Information Geometry and its Applications to Machine Learning》
介紹:信息幾何學(xué)及其在機(jī)器學(xué)習(xí)中的應(yīng)用
《Legal Analytics – Introduction to the Course》
介紹:課程《法律分析》介紹幻燈片。用機(jī)器學(xué)習(xí)解決法律相關(guān)分析和預(yù)測(cè)問題,相關(guān)的法律應(yīng)用包括預(yù)測(cè)編碼、早期案例評(píng)估、案件整體情況的預(yù)測(cè),定價(jià)和工作人員預(yù)測(cè),司法行為預(yù)測(cè)等。法律領(lǐng)域大家可能都比較陌生,不妨了解下。
《文本上的算法》
介紹: 文中提到了最優(yōu),模型,最大熵等等理論,此外還有應(yīng)用篇。推薦系統(tǒng)可以說是一本不錯(cuò)的閱讀稿,關(guān)于模型還推薦一篇Generative Model 與 Discriminative Model
《NeuralTalk》
介紹: NeuralTalk is a Python+numpy project for learning Multimodal Recurrent Neural Networks that describe images with sentences.NeuralTalk是一個(gè)Python的從圖像生成自然語言描述的工具。它實(shí)現(xiàn)了Google (Vinyals等,卷積神經(jīng)網(wǎng)絡(luò)CNN + 長短期記憶LSTM) 和斯坦福 (Karpathy and Fei-Fei, CNN + 遞歸神經(jīng)網(wǎng)絡(luò)RNN)的算法。NeuralTalk自帶了一個(gè)訓(xùn)練好的動(dòng)物模型,你可以拿獅子大象的照片來試試看
《Deep Learning on Hadoop 2.0》
介紹:本文主要介紹了在Hadoop2.0上使用深度學(xué)習(xí),文章來自paypal
《Practical recommendations for gradient-based training of deep architectures》
介紹:用基于梯度下降的方法訓(xùn)練深度框架的實(shí)踐推薦指導(dǎo),作者是Yoshua Bengio.感謝@xuewei4d 推薦
《Machine Learning With Statistical And Causal Methods》
介紹: 用統(tǒng)計(jì)和因果方法做機(jī)器學(xué)習(xí)(視頻報(bào)告)
《Machine Learning Course 180’》
介紹: 一個(gè)講機(jī)器學(xué)習(xí)的Youtube視頻教程。160集。系統(tǒng)程度跟書可比擬。
《回歸(regression)、梯度下降(gradient descent)》
介紹: 機(jī)器學(xué)習(xí)中的數(shù)學(xué),作者的研究方向是機(jī)器學(xué)習(xí),并行計(jì)算如果你還想了解一點(diǎn)其他的可以看看他博客的其他文章
《美團(tuán)推薦算法實(shí)踐》
介紹: 美團(tuán)推薦算法實(shí)踐,從框架,應(yīng)用,策略,查詢等分析
《Deep Learning for Answer Sentence Selection》
介紹: 深度學(xué)習(xí)用于問答系統(tǒng)答案句的選取
《Learning Semantic Representations Using Convolutional Neural Networks for Web Search 》
介紹: CNN用于WEB搜索,深度學(xué)習(xí)在文本計(jì)算中的應(yīng)用
《Awesome Public Datasets》
介紹: Awesome系列中的公開數(shù)據(jù)集
《Search Engine & Community》
介紹: 一個(gè)學(xué)術(shù)搜索引擎
《spaCy》
介紹: 用Python和Cython寫的工業(yè)級(jí)自然語言處理庫,號(hào)稱是速度最快的NLP庫,快的原因一是用Cython寫的,二是用了個(gè)很巧妙的hash技術(shù),加速系統(tǒng)的瓶頸,NLP中稀松特征的存取
《Collaborative Filtering with Spark》
介紹:Fields是個(gè)數(shù)學(xué)研究中心,上面的這份ppt是來自Fields舉辦的活動(dòng)中Russ Salakhutdinov帶來的《大規(guī)模機(jī)器學(xué)習(xí)》分享
《Topic modeling 的經(jīng)典論文》
介紹: Topic modeling 的經(jīng)典論文,標(biāo)注了關(guān)鍵點(diǎn)
《Move Evaluation in Go Using Deep Convolutional Neural Networks》
介紹: 多倫多大學(xué)與Google合作的新論文,深度學(xué)習(xí)也可以用來下圍棋,據(jù)說能達(dá)到六段水平
《機(jī)器學(xué)習(xí)周刊第二期》
介紹: 新聞,paper,課程,book,system,CES,Roboot,此外還推薦一個(gè)深度學(xué)習(xí)入門與綜述資料
《Learning more like a human: 18 free eBooks on Machine Learning》
介紹: 18 free eBooks on Machine Learning
《Recommend :Hang Li Home》
介紹:Chief scientist of Noah's Ark Lab of Huawei Technologies.He worked at the Research Laboratories of NEC Corporation during 1990 and 2001 and Microsoft Research Asia during 2001 and 2012.Paper
《DEEPLEARNING.UNIVERSITY – AN ANNOTATED DEEP LEARNING BIBLIOGRAPHY》
介紹: DEEPLEARNING.UNIVERSITY的論文庫已經(jīng)收錄了963篇經(jīng)過分類的深度學(xué)習(xí)論文了,很多經(jīng)典論文都已經(jīng)收錄
《MLMU.cz - Radim ?eh??ek - Word2vec & friends (7.1.2015)》
介紹: Radim ?eh??ek(Gensim開發(fā)者)在一次機(jī)器學(xué)習(xí)聚會(huì)上的報(bào)告,關(guān)于word2vec及其優(yōu)化、應(yīng)用和擴(kuò)展,很實(shí)用.國內(nèi)網(wǎng)盤
《Introducing streaming k-means in Spark 1.2》
介紹:很多公司都用機(jī)器學(xué)習(xí)來解決問題,提高用戶體驗(yàn)。那么怎么可以讓機(jī)器學(xué)習(xí)更實(shí)時(shí)和有效呢?Spark MLlib 1.2里面的Streaming K-means,由斑馬魚腦神經(jīng)研究的Jeremy Freeman腦神經(jīng)科學(xué)家編寫,最初是為了實(shí)時(shí)處理他們每半小時(shí)1TB的研究數(shù)據(jù),現(xiàn)在發(fā)布給大家用了。
《LDA入門與Java實(shí)現(xiàn)》
介紹: 這是一篇面向工程師的LDA入門筆記,并且提供一份開箱即用Java實(shí)現(xiàn)。本文只記錄基本概念與原理,并不涉及公式推導(dǎo)。文中的LDA實(shí)現(xiàn)核心部分采用了arbylon的LdaGibbsSampler并力所能及地注解了,在搜狗分類語料庫上測(cè)試良好,開源在GitHub上。
《AMiner - Open Science Platform》
介紹: AMiner是一個(gè)學(xué)術(shù)搜索引擎,從學(xué)術(shù)網(wǎng)絡(luò)中挖掘深度知識(shí)、面向科技大數(shù)據(jù)的挖掘。收集近4000萬作者信息、8000萬論文信息、1億多引用關(guān)系、鏈接近8百萬知識(shí)點(diǎn);支持專家搜索、機(jī)構(gòu)排名、科研成果評(píng)價(jià)、會(huì)議排名。
《What are some interesting Word2Vec results?》
介紹: Quora上的主題,討論Word2Vec的有趣應(yīng)用,Omer Levy提到了他在CoNLL2014最佳論文里的分析結(jié)果和新方法,Daniel Hammack給出了找特異詞的小應(yīng)用并提供了(Python)代碼
《機(jī)器學(xué)習(xí)公開課匯總》
介紹: 機(jī)器學(xué)習(xí)公開課匯總,雖然里面的有些課程已經(jīng)歸檔過了,但是還有個(gè)別的信息沒有。感謝課程圖譜的小編
《A First Course in Linear Algebra》
介紹: 【A First Course in Linear Algebra】Robert Beezer 有答案 有移動(dòng)版、打印版 使用GNU自由文檔協(xié)議 引用了杰弗遜1813年的信
《libfacedetection》
介紹:libfacedetection是深圳大學(xué)開源的一個(gè)人臉圖像識(shí)別庫。包含正面和多視角人臉檢測(cè)兩個(gè)算法.優(yōu)點(diǎn):速度快(OpenCV haar+adaboost的2-3倍), 準(zhǔn)確度高 (FDDB非公開類評(píng)測(cè)排名第二),能估計(jì)人臉角度。
《Inverting a Steady-State》
介紹:WSDM2015最佳論文 把馬爾可夫鏈理論用在了圖分析上面,比一般的propagation model更加深刻一些。通過全局的平穩(wěn)分布去求解每個(gè)節(jié)點(diǎn)影響系數(shù)模型。假設(shè)合理(轉(zhuǎn)移受到相鄰的影響系數(shù)影響)。可以用來反求每個(gè)節(jié)點(diǎn)的影響系數(shù)
《機(jī)器學(xué)習(xí)入門書單》
介紹:機(jī)器學(xué)習(xí)入門書籍,具體介紹
《The Trouble with SVMs》
介紹: 非常棒的強(qiáng)調(diào)特征選擇對(duì)分類器重要性的文章。情感分類中,根據(jù)互信息對(duì)復(fù)雜高維特征降維再使用樸素貝葉斯分類器,取得了比SVM更理想的效果,訓(xùn)練和分類時(shí)間也大大降低——更重要的是,不必花大量時(shí)間在學(xué)習(xí)和優(yōu)化SVM上——特征也一樣no free lunch
《Rise of the Machines》
介紹:CMU的統(tǒng)計(jì)系和計(jì)算機(jī)系知名教授Larry Wasserman 在《機(jī)器崛起》,對(duì)比了統(tǒng)計(jì)和機(jī)器學(xué)習(xí)的差異
《實(shí)例詳解機(jī)器學(xué)習(xí)如何解決問題》
介紹:隨著大數(shù)據(jù)時(shí)代的到來,機(jī)器學(xué)習(xí)成為解決問題的一種重要且關(guān)鍵的工具。不管是工業(yè)界還是學(xué)術(shù)界,機(jī)器學(xué)習(xí)都是一個(gè)炙手可熱的方向,但是學(xué)術(shù)界和工業(yè)界對(duì)機(jī)器學(xué)習(xí)的研究各有側(cè)重,學(xué)術(shù)界側(cè)重于對(duì)機(jī)器學(xué)習(xí)理論的研究,工業(yè)界側(cè)重于如何用機(jī)器學(xué)習(xí)來解決實(shí)際問題。這篇文章是美團(tuán)的實(shí)際環(huán)境中的實(shí)戰(zhàn)篇
《Gaussian Processes for Machine Learning》
介紹:面向機(jī)器學(xué)習(xí)的高斯過程,章節(jié)概要:回歸、分類、協(xié)方差函數(shù)、模型選擇與超參優(yōu)化、高斯模型與其他模型關(guān)系、大數(shù)據(jù)集的逼近方法等,微盤下載
《FuzzyWuzzy: Fuzzy String Matching in Python》
介紹:Python下的文本模糊匹配庫,老庫新推,可計(jì)算串間ratio(簡單相似系數(shù))、partial_ratio(局部相似系數(shù))、token_sort_ratio(詞排序相似系數(shù))、token_set_ratio(詞集合相似系數(shù))等github
《Blocks》
介紹:Blocks是基于Theano的神經(jīng)網(wǎng)絡(luò)搭建框架,集成相關(guān)函數(shù)、管道和算法,幫你更快地創(chuàng)建和管理NN模塊.
《Introduction to Machine Learning》
介紹:機(jī)器學(xué)習(xí)大神Alex Smola在CMU新一期的機(jī)器學(xué)習(xí)入門課程”Introduction to Machine Learning“近期剛剛開課,課程4K高清視頻同步到Y(jié)outube上,目前剛剛更新到 2.4 Exponential Families,課程視頻playlist, 感興趣的同學(xué)可以關(guān)注,非常適合入門.
《Collaborative Feature Learning from Social Media》
介紹:用社交用戶行為學(xué)習(xí)圖片的協(xié)同特征,可更好地表達(dá)圖片內(nèi)容相似性。由于不依賴于人工標(biāo)簽(標(biāo)注),可用于大規(guī)模圖片處理,難在用戶行為數(shù)據(jù)的獲取和清洗;利用社會(huì)化特征的思路值得借鑒.
《Introducing practical and robust anomaly detection in a time series》
介紹:Twitter技術(shù)團(tuán)隊(duì)對(duì)前段時(shí)間開源的時(shí)間序列異常檢測(cè)算法(S-H-ESD)R包的介紹,其中對(duì)異常的定義和分析很值得參考,文中也提到——異常是強(qiáng)針對(duì)性的,某個(gè)領(lǐng)域開發(fā)的異常檢測(cè)在其他領(lǐng)域直接用可不行.
《Empower Your Team to Deal with Data-Quality Issues》
介紹:聚焦數(shù)據(jù)質(zhì)量問題的應(yīng)對(duì),數(shù)據(jù)質(zhì)量對(duì)各種規(guī)模企業(yè)的性能和效率都至關(guān)重要,文中總結(jié)出(不限于)22種典型數(shù)據(jù)質(zhì)量問題顯現(xiàn)的信號(hào),以及典型的數(shù)據(jù)質(zhì)量解決方案(清洗、去重、統(tǒng)一、匹配、權(quán)限清理等)
《中文分詞入門之資源》
介紹:中文分詞入門之資源.
《Deep Learning Summit, San Francisco, 2015》
介紹:15年舊金山深度學(xué)習(xí)峰會(huì)視頻集萃,國內(nèi)云盤
《Introduction to Conditional Random Fields》
介紹:很好的條件隨機(jī)場(chǎng)(CRF)介紹文章,作者的學(xué)習(xí)筆記
《A Fast and Accurate Dependency Parser using Neural Networks》
介紹: 來自Stanford,用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)快速準(zhǔn)確的依存關(guān)系解析器
《Which GPU(s) to Get for Deep Learning: My Experience and Advice for Using GPUs in Deep Learning》
介紹:做深度學(xué)習(xí)如何選擇GPU的建議
《Sparse Linear Models》
介紹: Stanford的Trevor Hastie教授在H2O.ai Meet-Up上的報(bào)告,講稀疏線性模型——面向“寬數(shù)據(jù)”(特征維數(shù)超過樣本數(shù))的線性模型,13年同主題報(bào)告、講義.
《Awesome Computer Vision》
介紹: 分類整理的機(jī)器視覺相關(guān)資源列表,秉承Awesome系列風(fēng)格,有質(zhì)有量!作者的更新頻率也很頻繁
《Adam Szeidl》
介紹: social networks course
《Building and deploying large-scale machine learning pipelines》
介紹: 大規(guī)模機(jī)器學(xué)習(xí)流程的構(gòu)建與部署.
《人臉識(shí)別開發(fā)包》
介紹: 人臉識(shí)別二次開發(fā)包,免費(fèi),可商用,有演示、范例、說明書.
《Understanding Natural Language with Deep Neural Networks Using Torch》
介紹: 采用Torch用深度學(xué)習(xí)網(wǎng)絡(luò)理解NLP,來自Facebook 人工智能的文章.
《The NLP Engine: A Universal Turing Machine for NLP》
介紹: 來自CMU的Ed Hovy和Stanford的Jiwei Li一篇有意思的Arxiv文章,作者用Shannon Entropy來刻畫NLP中各項(xiàng)任務(wù)的難度.
《TThe Probabilistic Relevance Framework: BM25 and Beyond》
介紹: 信息檢索排序模型BM25(Besting Matching)。1)從經(jīng)典概率模型演變而來 2)捕捉了向量空間模型中三個(gè)影響索引項(xiàng)權(quán)重的因子:IDF逆文檔頻率;TF索引項(xiàng)頻率;文檔長度歸一化。3)并且含有集成學(xué)習(xí)的思想:組合了BM11和BM15兩個(gè)模型。4)作者是BM25的提出者和Okapi實(shí)現(xiàn)者Robertson.
《Introduction to ARMA Time Series Models – simplified》
介紹: 自回歸滑動(dòng)平均(ARMA)時(shí)間序列的簡單介紹,ARMA是研究時(shí)間序列的重要方法,由自回歸模型(AR模型)與滑動(dòng)平均模型(MA模型)為基礎(chǔ)“混合”構(gòu)成.
《Encoding Source Language with Convolutional Neural Network for Machine Translation》
介紹: 把來自target的attention signal加入source encoding CNN的輸入,得到了比BBN的模型好的多neural network joint model
《Spices form the basis of food pairing in Indian cuisine》
介紹: 揭開印度菜的美味秘訣——通過對(duì)大量食譜原料關(guān)系的挖掘,發(fā)現(xiàn)印度菜美味的原因之一是其中的味道互相沖突,很有趣的文本挖掘研究
《HMM相關(guān)文章索引》
介紹: HMM相關(guān)文章
《Zipf's and Heap's law》
介紹: 1)詞頻與其降序排序的關(guān)系,最著名的是語言學(xué)家齊夫(Zipf,1902-1950)1949年提出的Zipf‘s law,即二者成反比關(guān)系. 曼德勃羅(Mandelbrot,1924- 2010)引入?yún)?shù)修正了對(duì)甚高頻和甚低頻詞的刻畫 2)Heaps' law: 詞匯表與語料規(guī)模的平方根(這是一個(gè)參數(shù),英語0.4-0.6)成正比
《I am Jürgen Schmidhuber, AMA》
介紹: Jürgen Schmidhuber在Reddit上的AMA(Ask Me Anything)主題,有不少RNN和AI、ML的干貨內(nèi)容,關(guān)于開源&思想&方法&建議……耐心閱讀,相信你也會(huì)受益匪淺.
《學(xué)術(shù)種子網(wǎng)站:AcademicTorrents》
介紹: 成G上T的學(xué)術(shù)數(shù)據(jù),HN近期熱議話題,主題涉及機(jī)器學(xué)習(xí)、NLP、SNA等。下載最簡單的方法,通過BT軟件,RSS訂閱各集合即可
《機(jī)器學(xué)習(xí)交互速查表》
介紹: Scikit-Learn官網(wǎng)提供,在原有的Cheat Sheet基礎(chǔ)上加上了Scikit-Learn相關(guān)文檔的鏈接,方便瀏覽
《A Full Hardware Guide to Deep Learning》
介紹: 深度學(xué)習(xí)的全面硬件指南,從GPU到RAM、CPU、SSD、PCIe
《行人檢測(cè)(Pedestrian Detection)資源》
介紹:Pedestrian Detection paper & data
《A specialized face-processing network consistent with the representational geometry of monkey face patches》
介紹: 【神經(jīng)科學(xué)碰撞人工智能】在臉部識(shí)別上你我都是專家,即使細(xì)微的差別也能辨認(rèn)。研究已證明人類和靈長類動(dòng)物在面部加工上不同于其他物種,人類使用梭狀回面孔區(qū)(FFA)。Khaligh-Razavi等通過計(jì)算機(jī)模擬出人臉識(shí)別的FFA活動(dòng),堪稱神經(jīng)科學(xué)與人工智能的完美結(jié)合。
《Neural Net in C++ Tutorial》
介紹: 神經(jīng)網(wǎng)絡(luò)C++教程,本文介紹了用可調(diào)節(jié)梯度下降和可調(diào)節(jié)動(dòng)量法設(shè)計(jì)和編碼經(jīng)典BP神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)經(jīng)過訓(xùn)練可以做出驚人和美妙的東西出來。此外作者博客的其他文章也很不錯(cuò)。
《How to Choose a Neural Network》
介紹:deeplearning4j官網(wǎng)提供的實(shí)際應(yīng)用場(chǎng)景NN選擇參考表,列舉了一些典型問題建議使用的神經(jīng)網(wǎng)絡(luò)
《Deep Learning (Python, C/C++, Java, Scala, Go)》
介紹:一個(gè)深度學(xué)習(xí)項(xiàng)目,提供了Python, C/C++, Java, Scala, Go多個(gè)版本的代碼
《Deep Learning Tutorials》
介紹:深度學(xué)習(xí)教程
《自然語言處理的發(fā)展趨勢(shì)——訪卡內(nèi)基梅隆大學(xué)愛德華·霍威教授》
介紹:自然語言處理的發(fā)展趨勢(shì)——訪卡內(nèi)基梅隆大學(xué)愛德華·霍威教授.
《FaceNet: A Unified Embedding for Face Recognition and Clustering》
介紹:Google對(duì)Facebook DeepFace的有力回?fù)簟?FaceNet,在LFW(Labeled Faces in the Wild)上達(dá)到99.63%準(zhǔn)確率(新紀(jì)錄),FaceNet embeddings可用于人臉識(shí)別、鑒別和聚類.
《MLlib中的Random Forests和Boosting》
介紹:本文來自Databricks公司網(wǎng)站的一篇博客文章,由Joseph Bradley和Manish Amde撰寫,文章主要介紹了Random Forests和Gradient-Boosted Trees(GBTs)算法和他們?cè)贛Llib中的分布式實(shí)現(xiàn),以及展示一些簡單的例子并建議該從何處上手.中文版.
《Sum-Product Networks(SPN) 》
介紹:華盛頓大學(xué)Pedro Domingos團(tuán)隊(duì)的DNN,提供論文和實(shí)現(xiàn)代碼.
《Neural Network Dependency Parser》
介紹:基于神經(jīng)網(wǎng)絡(luò)的自然語言依存關(guān)系解析器(已集成至Stanford CoreNLP),特點(diǎn)是超快、準(zhǔn)確,目前可處理中英文語料,基于《A Fast and Accurate Dependency Parser Using Neural Networks》思路實(shí)現(xiàn).
文/ty4z2008(簡書作者)
原文鏈接:http://www.jianshu.com/p/b73b6953e849
著作權(quán)歸作者所有,轉(zhuǎn)載請(qǐng)聯(lián)系作者獲得授權(quán),并標(biāo)注“簡書作者”。
總結(jié)
以上是生活随笔為你收集整理的机器学习(Machine Learning)深度学习(Deep Learning)资料(下)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 数据结构c语言版李冬梅PDF,数据结构(
- 下一篇: Code For Better 谷歌开发