普通程序员,几个月如何成功转型AI?
動輒50萬的畢業(yè)生年薪,動輒100萬起步價的海歸AI高級人才,普通員到底應(yīng)不應(yīng)該轉(zhuǎn)型AI工程師,普通程序員到底應(yīng)該如何轉(zhuǎn)型AI工程師?
?
以下,精選了三個特別典型的普通程序員成功轉(zhuǎn)型AI的案例,也是知乎上點贊量相當(dāng)高的案例:
?
第一案例為普通程序員,經(jīng)過六個月從接觸機器學(xué)習(xí)到頗有心得的切身體會。
?
第二個案例為只懂 ACM 競賽相關(guān)算法的普通程序員,誤打誤撞接觸到了數(shù)據(jù)挖掘,之后開始系統(tǒng)地了解機器學(xué)習(xí)相關(guān)的知識,如今已經(jīng)基本走上了數(shù)據(jù)科學(xué)家之路的經(jīng)驗分享。
?
第三個案例為其他行業(yè)的普通程序員,具有計算機專業(yè)的人所沒有的專業(yè)知識和行業(yè)大數(shù)據(jù),他們只是想把深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)當(dāng)作工具,知道它們能做什么,如何去做。這類程序員經(jīng)過4個月的轉(zhuǎn)型學(xué)習(xí),他們的經(jīng)驗和體會。
?
你是屬于哪類程序員呢?他們的經(jīng)驗?zāi)阌质欠衲苡蒙夏?#xff1f;
?
本文的案例來自知乎,已向相關(guān)作者申請轉(zhuǎn)載來源。
?
?
案例一
?
作者 | 子實(某科研院程序員)
?
?
本人碼農(nóng),從六月開始正式接觸機器學(xué)習(xí)(其實五年前的本科畢設(shè)就是在生物信息領(lǐng)域應(yīng)用神經(jīng)網(wǎng)絡(luò)的項目,但是非常淺薄),深吸一口氣,先要聲明“人之患在好為人師”,我用的步驟只是適合我,下面的內(nèi)容僅供參考。
?
第一步:復(fù)習(xí)線性代數(shù)。(學(xué)渣的線代忘了好多-_-||)
?
懶得看書就直接用了著名的——麻省理工公開課:線性代數(shù),深入淺出效果拔群,以后會用到的SVD、希爾伯特空間等都有介紹 -?http://open.163.com/special/opencourse/daishu.html
?
廣告:邊看邊總結(jié)了一套筆記?GitHub - zlotus/notes-linear-algebra: 線性代數(shù)筆記 -?https://github.com/zlotus/notes-linear-algebra
?
第二步:入門機器學(xué)習(xí)算法。
?
還是因為比較懶,也就直接用了著名的——斯坦福大學(xué)公開課 :機器學(xué)習(xí)課程(http://open.163.com/special/opencourse/machinelearning.html),吳恩達教授的老版cs229的視頻,講的非常細(算法的目標(biāo)->數(shù)學(xué)推演->偽代碼)。這套教程唯一的缺點在于沒有介紹最近大火的神經(jīng)網(wǎng)絡(luò),但其實這也算是優(yōu)點,讓我明白了算法都有各自的應(yīng)用領(lǐng)域,并不是所有問題都需要用神經(jīng)網(wǎng)絡(luò)來解決。
?
多說一點,這個課程里詳細介紹的內(nèi)容有:一般線性模型、高斯系列模型、SVM理論及實現(xiàn)、聚類算法以及EM算法的各種相關(guān)應(yīng)用、PCA/ICA、學(xué)習(xí)理論、馬爾可夫系列模型。課堂筆記在:CS 229: Machine Learning (Course handouts) -http://cs229.stanford.edu/syllabus.html,同樣非常詳細。
?
廣告:邊看邊總結(jié)了一套筆記?GitHub - zlotus/notes-LSJU-machine-learning: 機器學(xué)習(xí)筆記 -?https://github.com/zlotus/notes-LSJU-machine-learning
?
第三步:嘗試用代碼實現(xiàn)算法。
?
依然因為比較懶,繼續(xù)直接使用了著名的——機器學(xué)習(xí) | Coursera(https://www.coursera.org/learn/machine-learning),還是吳恩達教授的課程,只不過這個是極簡版的cs229,幾乎就是教怎么在matlab里快速實現(xiàn)一個模型(這套教程里有神經(jīng)網(wǎng)絡(luò)基本概念及實現(xiàn))。這套課程的缺點是難度比較低,推導(dǎo)過程非常簡略,但是這也是它的優(yōu)點——讓我專注于把理論轉(zhuǎn)化成代碼。
?
廣告:作業(yè)參考?GitHub - zlotus/Coursera_Machine_Learning_Exercises: Machine Learning by Andrew Ng from Coursera(https://github.com/zlotus/Coursera_Machine_Learning_Exercises)
?
第四步:自己實現(xiàn)功能完整的模型——進行中。
?
還是因為比較懶,搜到了cs231n的課程視頻?CS231n Winter 2016 - YouTube(https://www.youtube.com/playlist?list=PLkt2uSq6rBVctENoVBg1TpCC7OQi31AlC)?,李飛飛教授的課,主講還有Andrej Karpathy和Justin Johnson,主要介紹卷積神經(jīng)網(wǎng)絡(luò)在圖像識別/機器視覺領(lǐng)域的應(yīng)用(前面神經(jīng)網(wǎng)絡(luò)的代碼沒寫夠?這門課包你嗨到爆~到處都是從零手寫~)。這門課程的作業(yè)就更貼心了,直接用Jupyter Notebook布置的,可以本地運行并自己檢查錯誤。主要使用Python以及Python系列的科學(xué)計算庫(Scipy/Numpy/Matplotlib)。課堂筆記的翻譯可以參考?智能單元 - 知乎專欄(https://zhuanlan.zhihu.com/p/22339097),主要由知友杜客翻譯,寫的非常好~
?
在多說一點,這門課對程序員來說比較走心,因為這個不像上一步中用matlab實現(xiàn)的作業(yè)那樣偏向算法和模型,這門課用Python實現(xiàn)的模型同時注重軟件工程,包括常見的封裝layer的forward/backward、自定義組合layer、如何將layer組成網(wǎng)絡(luò)、如何在網(wǎng)絡(luò)中集成batch-normalization及dropout等功能、如何在復(fù)雜模型下做梯度檢查等等;最后一個作業(yè)中還有手動實現(xiàn)RNN及其基友LSTM、編寫有助于調(diào)試的CNN可視化功能、Google的DeepDream等等。(做完作業(yè)基本就可以看懂現(xiàn)在流行的各種圖片風(fēng)格變換程序了,如?cysmith/neural-style-tf -?https://github.com/cysmith/neural-style-tf)另外,這門課的作業(yè)實現(xiàn)非常推崇computational graph,不知道是不是我的幻覺……要注意的是講師A.K的語速奇快無比,好在YouTube有自動生成解說詞的功能,準(zhǔn)確率還不錯,可以當(dāng)字幕看。
?
廣告:作業(yè)參考?GitHub - zlotus/cs231n: CS231n Convolutional Neural Networks for Visual Recognition (winter 2016) -?https://github.com/zlotus/cs231n,(我的在作業(yè)的notebook上加了一些推導(dǎo)演算哦~可以用來參考:D)
?
因為最近手頭有論文要撕,時間比較緊,第四步做完就先告一段落。后面打算做繼續(xù)業(yè)界傳奇Geoffrey Hinton教授的Neural Networks for Machine Learning | Coursera(https://www.coursera.org/learn/neural-networks),再看看NLP的課程 Stanford University CS224d: Deep Learning for Natural Language Processing(http://cs224d.stanford.edu),先把基礎(chǔ)補完,然后在東瞅瞅西逛逛看看有什么好玩的……
?
PS:一直沒提諸如TensorFlow之類的神器,早就裝了一個(可以直接在conda中為Tensorflow新建一個env,然后再裝上Jupyter、sklearn等常用的庫,把這些在學(xué)習(xí)和實踐ML時所用到的庫都放在一個環(huán)境下管理,會方便很多),然而一直沒時間學(xué)習(xí)使用,還是打算先忍著把基礎(chǔ)部分看完,抖M總是喜歡把最好的留在最后一個人偷偷享受2333333(手動奸笑
PS**2:關(guān)于用到的系統(tǒng)性知識,主要有:
?
線性代數(shù),非常重要,模型計算全靠它~一定要復(fù)習(xí)扎實,如果平常不用可能忘的比較多;
?
高數(shù)+概率,這倆只要掌握基礎(chǔ)就行了,比如積分和求導(dǎo)、各種分布、參數(shù)估計等等。(評論中有知友提到概率與數(shù)理統(tǒng)計的重要性,我舉四肢贊成,因為cs229中幾乎所有算法的推演都是從參數(shù)估計及其在概率模型中的意義起手的,參數(shù)的更新規(guī)則具有概率上的可解釋性。對于算法的設(shè)計和改進工作,概統(tǒng)是核心課程,沒有之一。答主這里想要說的是,當(dāng)拿到現(xiàn)成的算法時,僅需要概率基礎(chǔ)知識就能看懂,然后需要比較多的線代知識才能讓模型高效的跑起來。比如最近做卷積的作業(yè), 我手寫的比作業(yè)里給出的帶各種trick的fast函數(shù)慢幾個數(shù)量級,作業(yè)還安慰我不要在意效率,豈可修!)
?
需要用到的編程知識也就是Matlab和Numpy了吧,Matlab是可以現(xiàn)學(xué)現(xiàn)賣的;至于Python,就看題主想用來做什么了,如果就是用來做機器學(xué)習(xí),完全可以一天入門,如果想要做更多好玩的事,一天不行那就兩天。(貼一個Python/Numpy的簡要教程:Python Numpy Tutorial -?http://cs231n.github.io/python-numpy-tutorial/,是cs231n的課堂福利。)
?
我感覺機器學(xué)習(xí)的先修就這么點,記得Adobe的馮東大神也說過機器學(xué)習(xí)簡直是21世界的黑科技——因為理論非常簡單但是效果驚人的好。
====
既然提到好玩的,墻裂推薦 Kaggle: Your Home for Data Science(https://www.kaggle.com)?,引用維基上的介紹:
?
Kaggle是一個數(shù)據(jù)建模和數(shù)據(jù)分析競賽平臺。企業(yè)和研究者可在其上發(fā)布數(shù)據(jù),統(tǒng)計學(xué)者和數(shù)據(jù)挖掘?qū)<铱稍谄渖线M行競賽以產(chǎn)生最好的模型。這一眾包模式依賴于這一事實,即有眾多策略可以用于解決幾乎所有預(yù)測建模的問題,而研究者不可能在一開始就了解什么方法對于特定問題是最為有效的。Kaggle的目標(biāo)則是試圖通過眾包的形式來解決這一難題,進而使數(shù)據(jù)科學(xué)成為一場運動。
?
原文:https://www.zhihu.com/question/51039416/answer/126821822
?
?
案例二
?
作者 | SimonS
?
?
我曾經(jīng)也只是一個只懂 ACM 競賽相關(guān)算法的普通程序員,誤打誤撞接觸到了數(shù)據(jù)挖掘,之后才開始系統(tǒng)地了解機器學(xué)習(xí)相關(guān)的知識,如今已經(jīng)基本走上了正軌,開始了走向 Data Scientist 的征途。
?
首先作為一個普通程序員,C++ / Java / Python 這樣的語言技能棧應(yīng)該是必不可少的,其中 Python 需要重點關(guān)注爬蟲、數(shù)值計算、數(shù)據(jù)可視化方面的應(yīng)用,主要是:
?
?
?
?
可以參考:怎么用最短時間高效而踏實地學(xué)習(xí) Python?-https://www.zhihu.com/question/28530832/answer/41170900
?
如果日常只編寫增刪改查的代碼的話,那可能數(shù)學(xué)已經(jīng)忘得差不多了,需要重溫線性代數(shù)和微積分的基礎(chǔ)知識,這會為之后的學(xué)習(xí)立下汗馬功勞。
?
再然后就是統(tǒng)計學(xué)相關(guān)基礎(chǔ):我在知乎專欄——BI學(xué)習(xí)大綱中寫過,貼過來僅供參考:https://zhuanlan.zhihu.com/p/22543073
?
相關(guān)性分析(相關(guān)系數(shù)r、皮爾遜相關(guān)系數(shù)、余弦相似度、互信息)
?
-
回歸分析(線性回歸、L1/L2正則、PCA/LDA降維)
-
聚類分析(K-Means)
-
分布(正態(tài)分布、t分布、密度函數(shù))
-
指標(biāo)(協(xié)方差、ROC曲線、AUC、變異系數(shù)、F1-Score)
-
顯著性檢驗(t檢驗、z檢驗、卡方檢驗)
-
A/B測試
?
推薦閱讀:李航 —《統(tǒng)計學(xué)習(xí)方法》
?
如果以上知識都具備了,再往后的路就可以開得很快了,可以一直沖刺到 Deep Learning。但在這之前我們還是需要了解不少機器學(xué)習(xí)的基礎(chǔ):
?
-
關(guān)聯(lián)規(guī)則(Apriori、FP-Growth)
-
回歸(Linear Regression、Logistics Regression)
-
決策樹(ID3、C4.5、CART、GBDT、RandomForest)
-
SVM(各種核函數(shù))
-
推薦(User-CF、Item-CF)
?
推薦閱讀:《集體智慧編程》、Andrew Ng — Machine Learning Coursera from Stanford
此時的你或許已經(jīng)有一塊可以用的敲門磚了,但離工業(yè)界實際應(yīng)用還有比較大的距離,主要差距就在于 Feature Engineering,這也是我在面試考察有經(jīng)驗的人面前比較注重的點。這一塊中有一些比較基礎(chǔ)的知識點,簡單羅列如下:
?
-
可用性評估:獲取難度、覆蓋率、準(zhǔn)確率
-
特征清洗:清洗異常樣本
-
采樣:數(shù)據(jù)不均衡、樣本權(quán)重
-
單個特征:無量綱化(標(biāo)準(zhǔn)化、歸一化)、二值化、離散化、缺失值(均值)、啞編碼(一個定性特征擴展為N個定量特征)
-
數(shù)據(jù)變換:log、指數(shù)、Box-Cox
-
降維:主成分分析PCA、線性判別分析LDA、SVD分解
-
特征選擇:Filter(相關(guān)系數(shù)、卡方檢驗)、Wrapper(AUC、設(shè)計評價函數(shù)A*、Embedded(L1-Lasso、L2-Ridge、決策樹、DL)
-
衍生變量:組合特征
-
特征監(jiān)控:監(jiān)控重要特征,fa特征質(zhì)量下降
?
我放一張公司內(nèi)部算法培訓(xùn)關(guān)于特征工程的 PPT,僅供學(xué)習(xí)參考:
再往后你就可以在技能樹上點幾個酷炫的了:
-
提升
-
Adaboost
-
加法模型
-
xgboost
-
-
SVM
-
軟間隔
-
損失函數(shù)
-
核函數(shù)
-
SMO算法
-
libSVM
-
-
聚類
-
K-Means
-
并查集
-
K-Medoids
-
聚譜類SC
-
-
EM算法
-
Jensen不等式
-
混合高斯分布
-
pLSA
-
-
主題模型
-
共軛先驗分布
-
貝葉斯
-
停止詞和高頻詞
-
TF-IDF
-
-
詞向量
-
word2vec
-
n-gram
-
-
HMM
-
前向/后向算法
-
Baum-Welch
-
Viterbi
-
中文分詞
-
-
數(shù)據(jù)計算平臺
-
Spark
-
Caffe
-
Tensorflow
-
?
推薦閱讀:周志華——《機器學(xué)習(xí)》
?
可以看到,不管你是用 TensorFlow 還是用 Caffe 還是用 MXNET 等等一系列平臺來做高大上的 Deep Learning,在我看來都是次要的。想要在這個行業(yè)長久地活下去,內(nèi)功的修煉要比外功重要得多,不然會活得很累,也很難獲得一個優(yōu)秀的晉升空間。
?
最后,關(guān)注你所在行業(yè)的最新 paper,對最近的算法理論體系發(fā)展有一個大致印象,譬如計算廣告領(lǐng)域的幾大經(jīng)典問題:
?
相關(guān) paper 的 gitlist 僅供參考:wnzhang/rtb-papers -?https://github.com/wnzhang/rtb-papers
?
最最后,也要時刻關(guān)注能幫你偷懶的工具,它將讓你擁有更多的時間去調(diào)參: Python 網(wǎng)頁爬蟲 & 文本處理 & 科學(xué)計算 & 機器學(xué)習(xí) & 數(shù)據(jù)挖掘兵器譜 - Python - 伯樂在線 -?http://python.jobbole.com/81153/
?
原文鏈接:https://www.zhihu.com/question/51039416/answer/126821822
?
?
案例三
?
作者 | hahakity
?
說說我學(xué)習(xí)深度學(xué)習(xí)的經(jīng)歷吧,從開始學(xué)習(xí)到現(xiàn)在大概有4個月,剛好可以回答新手問題。
?
先說編程:自認會用C++, 熟悉Python
?
英語水平:中等,能很快讀懂英文科學(xué)文獻
?
最開始對人工智能/深度學(xué)習(xí)感興趣是因為想用它試一試自然語言生成,后來想到一個物理方面的題目,預(yù)計可以用深度學(xué)習(xí)技術(shù)解決,開始接觸深度神經(jīng)網(wǎng)絡(luò)。記錄一下學(xué)習(xí)歷程,
?
1. 安裝 Tensorflow(google 開源的深度學(xué)習(xí)程序), 嘗試?yán)锩孀詈唵蔚睦覯NIST 獲得激勵。
?
2. 之后嘗試通過讀書(看視頻)理解最簡單的全連接神經(jīng)網(wǎng)絡(luò)
?
先搜索找到答案:為什么要Go Deep?
?
(1) 神經(jīng)網(wǎng)絡(luò)中輸入層,隱藏層,輸出層之間矩陣乘積的維度變化。
?
(2) Weight, Bias 這些是什么,改變它們有什么結(jié)果。
?
(3) 激勵函數(shù)是什么,有什么作用,有哪些常用的激勵函數(shù)
?
(4)誤差如何向后傳遞,網(wǎng)絡(luò)如何通過最小化誤差函數(shù)更新,有哪些常用的優(yōu)化方法
?
以上這些在一本交互式電子書中可以找到答案:
Neural networks and deep learning
https://link.zhihu.com/?target=http%3A//neuralnetworksanddeeplearning.com/index.html
?
(5) 如何對權(quán)重正規(guī)化,L1, L2, BatchNormalization, (這些在以后真正應(yīng)用的時候再看)
?
-
Deep Learning chapter 7 for L1, L2 regulation.
-
http://www.deeplearningbook.org
-
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift (2015) original paper for BN
-
https://arxiv.org/abs/1502.03167
-
why does batch normalization help? Quora
-
https://www.quora.com/Why-does-batch-normalization-help
-
Note for BN in Chinese
-
http://blog.csdn.net/happynear/article/details/44238541
-
Implementing Batch Normalization in Tensorflow from R2RT
-
https://r2rt.com/implementing-batch-normalization-in-tensorflow.html
-
Layer normalization (2016) Replace Batch Normalization in RNN
-
https://arxiv.org/pdf/1607.06450v1.pdf
-
Why Does Unsupervised Pre-training Help Deep Learning?
-
http://www.jmlr.org/papers/volume11/erhan10a/erhan10a.pdf
-
Summary and discussion on pre training
-
http://www.stat.cmu.edu/~ryantibs/journalclub/deep.pdf
?
3. 選擇一種比較比較底層的神經(jīng)網(wǎng)絡(luò)開源庫,tensorflow 或 theano
?
(1) 讀官方文檔 https://www.tensorflow.org/versions/r0.11/tutorials/index.html
https://www.tensorflow.org/tutorials/
(2) 看周莫凡的網(wǎng)絡(luò)教程 https://www.youtube.com/user/MorvanZhou
https://www.youtube.com/user/MorvanZhou
(3) 重復(fù)敲代碼,重復(fù)實現(xiàn)例子程序
?
4. 開始理解各種不同神經(jīng)網(wǎng)絡(luò)架構(gòu)所能處理的問題
?
CNN 圖像識別,圖像處理,語音處理
RNN,LSTM 自然語言理解與生成
增強學(xué)習(xí),玩游戲?
?
5. 嘗試各種開源的有意思的神經(jīng)網(wǎng)絡(luò)項目,新手可以從下面這個列表開始
?
Andrej Karpathy blog char-rnn, Deep Reinforcement Learning: Pong from Pixels- http://karpathy.github.io
Neural Style In tensorflow -?https://github.com/anishathalye/neural-style
?
6. 如果能翻墻,注冊 twitter, facebook 賬號,follow 那些文章中經(jīng)常出現(xiàn)的大牛的名字。他們每天提供很多新動向及最新技術(shù),很多時候有很 Fancy的應(yīng)用。試試從這個大牛follow的人開始follow -?https://twitter.com/karpathy
?
當(dāng)你對這些都很熟悉的時候,開始閱讀艱深的文獻:
?
1. CNN 的原始文獻
2. RNN 和 LSTM 的原始文獻
3. Reinforcement Learning 的原始文獻
4. Google DeepMind 發(fā)表在 Nature 上的幾篇經(jīng)典
?
最后推薦一個高級點的庫: Keras Documentation -?https://keras.io
?
雖然這個庫還在發(fā)展階段,里面仍有不少bug,但前途不可限量,可以很容易實現(xiàn)你之前讀文章時候見到的那些復(fù)雜的構(gòu)架。作為例子,這里有個教程:
?
Deep learning book in ipython-notebook and Keras Many example code in Keras -?http://ml4a.github.io/guides/
?
這些學(xué)習(xí)歷程中遇到的資料都記錄在了我的個人note里,希望大家共勉:
http://web-docs.gsi.de/~lpang/ -?http://web-docs.gsi.de/~lpang/
?
最后強調(diào)一個最最重要的事情:要有自己的想法,有將這種新技術(shù)用到自己項目中的強烈愿望,從開始就要Coding,不斷嘗試才能不斷進步。
?
(看了很多其他的回答,在這里想補充一段)
?
說實話,作為一個其他行業(yè)(物理,工程,化學(xué),醫(yī)學(xué),農(nóng)業(yè),衛(wèi)星地圖識別,網(wǎng)絡(luò)安全領(lǐng)域,社會科學(xué))的普通程序員,在本行業(yè)有比較深的理論和實驗背景,能接觸到海量數(shù)據(jù)(無論是傳感器數(shù)據(jù),互聯(lián)網(wǎng)數(shù)據(jù)還是蒙特卡洛模擬數(shù)據(jù)),想做處一些創(chuàng)新性,交叉性的工作,這一輪人工智能的風(fēng)絕對是要跟的。
?
作為一個計算機專業(yè)的人,可能覺得機器學(xué)習(xí),人工智能,深度學(xué)習(xí)已經(jīng)炒的過熱了。但是對于其他領(lǐng)域,可能大部分人還沒有想到把最基本的機器學(xué)習(xí)算法如:PCA,SVM,k-means...運用到本行業(yè)積累的大數(shù)據(jù)上, 更不要說最近的深度學(xué)習(xí)。
?
作為其他行業(yè)的普通程序員(除了數(shù)學(xué)與理論物理),我們不要指望從理論上徹底解決深度學(xué)習(xí)現(xiàn)存的問題。我們的優(yōu)勢不在這里,我們的優(yōu)勢是計算機專業(yè)的人所沒有的專業(yè)知識,行業(yè)大數(shù)據(jù)。我們需要做的是把機器學(xué)習(xí),深度神經(jīng)網(wǎng)絡(luò)當(dāng)作工具,知道它們能做什么,如何去做。參考Andrew Ng 的機器學(xué)習(xí)筆記:Machine Learning - complete course notes -?http://www.holehouse.org/mlclass/
?
舉幾個簡單的例子:
?
1. 使用深度學(xué)習(xí)中生成風(fēng)格化圖片的技術(shù),制備具有特定功能的抗癌藥物
The cornucopia of meaningful leads: Applying deep adversarial autoencoders for new molecule development in oncology -?http://www.oncotarget.com/index.php?journal=oncotarget&page=article&op=view&path%5B%5D=14073&path%5B%5D=44886
?
2. 使用反常探測,尋找網(wǎng)絡(luò)攻擊 Cyber-attacks prediction
?
3. 對于國家來說,更加聰明的互聯(lián)網(wǎng)關(guān)鍵詞過濾
?
4. 自動探測衛(wèi)星地圖上道路,建筑,車輛,河流。
?
5. 環(huán)境科學(xué)中尋找霧霾與眾多可能因素的非線性關(guān)聯(lián)
?
安利我們最近放到預(yù)印文本庫的文章,
?
我們用卷積神經(jīng)網(wǎng)絡(luò)來區(qū)分量子色動力學(xué)相變是crossover還是一階相變。
?
?
?
paper:?https://arxiv.org/pdf/1612.04262.pdf
talk:?http://starmeetings.physics.ucla.edu/sites/default/files/pang.pdf
?
原文:https://www.zhihu.com/question/51039416/answer/126717678
總結(jié)
以上是生活随笔為你收集整理的普通程序员,几个月如何成功转型AI?的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 批评“古风”歌词“狗屁不通”就是不尊重?
- 下一篇: 财讯传媒集团首席战略官段永朝:AI等技术