tensorflow源码编译教程_极简入门TensorFlow C++源码
前一段時(shí)間,一直在忙框架方面的工作,偶爾也會(huì)幫業(yè)務(wù)同學(xué)去優(yōu)化優(yōu)化使用TensorFlow的代碼,也加上之前看了dmlc/relay,nnvm的代碼,覺(jué)得蠻有意思,也想分別看下TensorFlow的Graph IR、PaddlePaddle的Graph IR,上周五,看代碼看的正津津有味的時(shí)候,看到某個(gè)數(shù)據(jù)競(jìng)賽群里面討論東西,不記得具體內(nèi)容,大概說(shuō)的是框架的代碼實(shí)現(xiàn), 有幾位算法大佬說(shuō)看底層源碼比較麻煩,因?yàn)楸容^早從框架,這塊代碼通常都還能看,問(wèn)題都不大,和群里小伙伴吹水了半天之后,感覺(jué)是可以寫(xiě)篇如何看TensorFlow或者其他框架底層源碼的勸退文了。
利其器
首先,一定是要找個(gè)好工作來(lái)看源碼,很多人推薦vs code、sublime,我試過(guò)vs code+bazel的,好像也不錯(cuò),但是后面做c++適應(yīng)了clion之后,除了資源要求比較多,還是蠻不錯(cuò)的,使用c++一般推薦使用cmake來(lái)看編譯項(xiàng)目,但是TensorFlow是bazel的,無(wú)法直接支持,最開(kāi)始,這邊是自己寫(xiě)簡(jiǎn)單的cmake,能夠?qū)崿F(xiàn)簡(jiǎn)單的代碼跳轉(zhuǎn),但是涉及到比如protobuf之類的編譯過(guò)后產(chǎn)生的文件無(wú)法跳轉(zhuǎn),比較麻煩,不夠純粹,很早之前知道clion有bazel的組件,但是不知道為啥一直搞不通,上周找時(shí)間再試了試,發(fā)現(xiàn)竟然通了,使用之后,這才是看tf源碼的真正方式:
首先,選擇合適版本的bazel,千萬(wàn)不能太高,也不能太低,這里我拉的是TF2.0的代碼,使用bazel 0.24.0剛剛好,切記千萬(wàn)別太高也比太低, 千萬(wàn)別太高也比太低,千萬(wàn)別太高也比太低。

其次,clion上選擇bazel的插件

第三步,./configure,然后按你的意圖選擇合適的編譯配置

第四步,導(dǎo)入bazel項(xiàng)目:File=>Import Bazel Project
經(jīng)過(guò)上面幾步之后,接下來(lái)就要經(jīng)過(guò)比較長(zhǎng)時(shí)間的等待,clion會(huì)導(dǎo)入bazel項(xiàng)目,然后編譯整個(gè)項(xiàng)目,這個(gè)耗時(shí)視你機(jī)器和網(wǎng)絡(luò)而定(順便提一句,最好保證比較暢通的訪問(wèn)github的網(wǎng)絡(luò),另外由于上面targets:all,會(huì)編譯TensorFlow所有的項(xiàng)目,如果你知道是什么意思,可以自己修改,如果不知道的話我先不提了,默認(rèn)就好,期間會(huì)有很多Error出現(xiàn),放心,問(wèn)題不大,因?yàn)闀?huì)默認(rèn)編譯所有的模塊)
經(jīng)過(guò)上面之后,我們就可以愉快的看代碼啦,連protobuf生成的文件都很開(kāi)心的跳轉(zhuǎn)啦

極簡(jiǎn)版c++入門
TensorFlow大部分人都知道,底層是c++寫(xiě)的,然后外面包了一層python的api,既然底層是c++寫(xiě)的,那么用c++也是可以用來(lái)訓(xùn)練模型的,大部分人應(yīng)該都用過(guò)c++或者java去載入frozen的模型,然后做serving應(yīng)用在業(yè)務(wù)系統(tǒng)上,應(yīng)該很少人去使用c++來(lái)訓(xùn)練模型,既然我們這里要讀代碼,我們先嘗試看看用c++寫(xiě)模型,文件路徑如下圖:

主要函數(shù)就那么幾個(gè):CreateGraphDef, ConcurrentSteps, ConcurrentSessions:
CreateGraphDef 構(gòu)造計(jì)算圖
GraphDef CreateGraphDef() {// TODO(jeff,opensource): This should really be a more interesting// computation. Maybe turn this into an mnist model instead?Scope root = Scope::NewRootScope();using namespace ::tensorflow::ops; // NOLINT(build/namespaces)// A = [3 2; -1 0]. Using Const<float> means the result will be a// float tensor even though the initializer has integers.auto a = Const<float>(root, {{3, 2}, {-1, 0}});// x = [1.0; 1.0]auto x = Const(root.WithOpName("x"), {{1.f}, {1.f}});// y = A * xauto y = MatMul(root.WithOpName("y"), a, x);// y2 = y.^2auto y2 = Square(root, y);// y2_sum = sum(y2). Note that you can pass constants directly as// inputs. Sum() will automatically create a Const node to hold the// 0 value.auto y2_sum = Sum(root, y2, 0);// y_norm = sqrt(y2_sum)auto y_norm = Sqrt(root, y2_sum);// y_normalized = y ./ y_normDiv(root.WithOpName("y_normalized"), y, y_norm);GraphDef def;TF_CHECK_OK(root.ToGraphDef(&def));return def; }定義graph 節(jié)點(diǎn) root, 然后定義常數(shù)變量a (shape為2*2), x (shape為2* 1),然后 y = A * x, y2 = y.2, y2_sum = sum(y2), y_norm = sqrt(y2_sum), y_normlized = y ./ y_norm。代碼很簡(jiǎn)潔, 看起來(lái)一目了然,
然后是ConcurrentSteps
新建一個(gè)session,然后設(shè)置10個(gè)線程來(lái)計(jì)算,來(lái)執(zhí)行:
std::vector<Tensor> outputs;for (int iter = 0; iter < opts->num_iterations; ++iter) {outputs.clear();TF_CHECK_OK(session->Run({{"x", x}}, {"y:0", "y_normalized:0"}, {}, &outputs));CHECK_EQ(size_t{2}, outputs.size());const Tensor& y = outputs[0];const Tensor& y_norm = outputs[1];// Print out lambda, x, and y.std::printf("%06d/%06d %sn", session_index, step,DebugString(x, y).c_str());// Copies y_normalized to x.x = y_norm;}每次計(jì)算之后,x=y_norm,這里的邏輯其實(shí)就是為了計(jì)算矩陣A的最大eigenvalue, 重復(fù)執(zhí)行x = y/y_norm; y= A*x;
編譯:
執(zhí)行結(jié)果,前面不用太care是我打印的一些調(diào)試輸出:
簡(jiǎn)單的分析
上面簡(jiǎn)單的c++入門實(shí)例之后,可以抽象出TensorFlow的邏輯:
GraphDef這一套,太過(guò)復(fù)雜,不適合演示如何看TF源碼,建議大家先有一定的基礎(chǔ)知識(shí)之后,再看,這里我們摘出一些算法同學(xué)感興趣的,比如Square這個(gè)怎么在TF當(dāng)中實(shí)現(xiàn)以及綁定到對(duì)應(yīng)操作
2.很明顯看到Square類的定義,其構(gòu)造函數(shù),接收一個(gè)scope還有一個(gè)input, 然后我們找下具體實(shí)現(xiàn),如下圖:
3.同目錄下, http://math_ops.cc,看實(shí)現(xiàn)邏輯,我們是構(gòu)造一個(gè)名為Square的op,然后往scope里更新,既然如此,肯定是預(yù)先有保存名為Square的op,接下來(lái)我們看下圖:
4.這里講functor::square注冊(cè)到"Square"下,且為UnaryOp,這個(gè)我不知道怎么解釋,相信用過(guò)eigen的人都知道,不知道的話去google下,很容易理解,且支持各種數(shù)據(jù)類型;
5.那么看起來(lái),square的實(shí)現(xiàn)就在functor::square,我們?cè)龠M(jìn)去看看,集成base模板類,且看起來(lái)第二個(gè)模板參數(shù)為其實(shí)現(xiàn)的op,再跳轉(zhuǎn)看看:
 6.最后,我們到達(dá)了最終的實(shí)現(xiàn)邏輯:operator()和packetOp,也看到了最終的實(shí)現(xiàn),是不是沒(méi)有想象的那么難。
更重要一點(diǎn)
看完了上面那些,基本上會(huì)知道怎么去看TensorFlow的一些基礎(chǔ)的代碼,如果你了解graph ir這套,可以更深入去理解下,這個(gè)過(guò)程中,如果對(duì)TensorFlow各個(gè)文件邏輯感興趣,不妨去寫(xiě)寫(xiě)測(cè)試用例,TensorFlow很多源碼文件都有對(duì)應(yīng)的test用例,我們可以通過(guò)Build文件來(lái)查看,比如我想跑下http://client_session_test.cc這里的測(cè)試用例

我們看一下Build文件中
這里表明了對(duì)應(yīng)的編譯規(guī)則,然后我們只需要
然后運(yùn)行相應(yīng)的測(cè)試程序即可
更更重要的一點(diǎn)
上面把如何看TensorFlow代碼的小經(jīng)驗(yàn)教給各位,但是其實(shí)這個(gè)只是真正的開(kāi)始,無(wú)論TensorFlow、MXNet、PaddlePaddle異或是TVM這些,單純?nèi)タ创a,很難理解深刻其中原理,需要去找相關(guān)行業(yè)的paper,以及找到行業(yè)的精英去請(qǐng)教,去學(xué)習(xí)。目前網(wǎng)上ml system的資料還是蠻多的,有點(diǎn)『亂花迷人眼』的感覺(jué),也沒(méi)有太多的課程來(lái)分享這塊的工作,十分期望這些框架的官方分享這些框架的干貨,之后我也會(huì)在學(xué)習(xí)中總結(jié)一些資料,有機(jī)會(huì)的話分享給大家。最后,這些東西確實(shí)是很復(fù)雜,作者在這塊也是還是懵懵懂懂,希望能花時(shí)間把這些內(nèi)在的東西搞清楚,真的還蠻有意思的。
也歡迎大家關(guān)注我的同名微信公眾號(hào) 小石頭的碼瘋窩(xiaoshitou_ml_tech),或者通過(guò)公眾號(hào)加我的個(gè)人微信進(jìn)行討論
總結(jié)
以上是生活随笔為你收集整理的tensorflow源码编译教程_极简入门TensorFlow C++源码的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: android 外文期刊_AndroSi
- 下一篇: 打印机更换感光鼓单元k_SOHO打印机基