日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Tensorflow快餐教程(1) - 30行代码搞定手写识别

發布時間:2024/8/23 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Tensorflow快餐教程(1) - 30行代码搞定手写识别 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

摘要:?Tensorflow入門教程1

去年買了幾本講tensorflow的書,結果今年看的時候發現有些樣例代碼所用的API已經過時了??磥碜约壕S護一個保持更新的Tensorflow的教程還是有意義的。這是寫這一系列的初心。


快餐教程系列希望能夠盡可能降低門檻,少講,講透。


為了讓大家在一開始就看到一個美好的場景,而不是停留在漫長的基礎知識積累上,參考網上的一些教程,我們直接一開始就直接展示用tensorflow實現MNIST手寫識別的例子。然后基礎知識我們再慢慢講。

Tensorflow安裝速成教程

由于Python是跨平臺的語言,所以在各系統上安裝tensorflow都是一件相對比較容易的事情。GPU加速的事情我們后面再說。

Linux平臺安裝tensorflow

我們以Ubuntu 16.04版為例,首先安裝python3和pip3。pip是python的包管理工具。

sudo apt install python3 sudo apt install python3-pip

然后就可以通過pip3來安裝tensorflow:

pip3 install tensorflow --upgrade

MacOS安裝tensorflow

建議使用Homebrew來安裝python。

brew install python3

安裝python3之后,還是通過pip3來安裝tensorflow.

pip3 install tensorflow --upgrade

Windows平臺安裝Tensorflow

Windows平臺上建議通過Anaconda來安裝tensorflow,下載地址在:https://www.anaconda.com/download/#windows

然后打開Anaconda Prompt,輸入:

conda create -n tensorflow pip activate tensorflow pip install --ignore-installed --upgrade tensorflow

這樣就安裝好了Tensorflow。

我們迅速來個例子試下好不好用:

import tensorflow as tf a = tf.constant(1) b = tf.constant(2)c = a * bsess = tf.Session()print(sess.run(c))

輸出結果為2.?
Tensorflow顧名思義,是一些Tensor張量的流組成的運算。
運算需要一個Session來運行。如果print(c)的話,會得到

Tensor("mul_1:0", shape=(), dtype=int32)

就是說這是一個乘法運算的Tensor,需要通過Session.run()來執行。

入門捷徑:線性回歸

我們首先看一個最簡單的機器學習模型,線性回歸的例子。
線性回歸的模型就是一個矩陣乘法:

tf.multiply(X, w)

然后我們通過調用Tensorflow計算梯度下降的函數tf.train.GradientDescentOptimizer來實現優化。
我們看下這個例子代碼,只有30多行,邏輯還是很清晰的。例子來自github上大牛的工作:https://github.com/nlintz/TensorFlow-Tutorials,不是我的原創。

import tensorflow as tf import numpy as nptrX = np.linspace(-1, 1, 101) trY = 2 * trX + np.random.randn(*trX.shape) * 0.33 # 創建一些線性值附近的隨機值X = tf.placeholder("float") Y = tf.placeholder("float")def model(X, w):return tf.multiply(X, w) # X*w線性求值,非常簡單w = tf.Variable(0.0, name="weights") y_model = model(X, w)cost = tf.square(Y - y_model) # 用平方誤差做為優化目標train_op = tf.train.GradientDescentOptimizer(0.01).minimize(cost) # 梯度下降優化# 開始創建Session干活! with tf.Session() as sess:# 首先需要初始化全局變量,這是Tensorflow的要求tf.global_variables_initializer().run()for i in range(100):for (x, y) in zip(trX, trY):sess.run(train_op, feed_dict={X: x, Y: y})print(sess.run(w))

最終會得到一個接近2的值,比如我這次運行的值為1.9183811

多種方式搞定手寫識別

線性回歸不過癮,我們直接一步到位,開始進行手寫識別。

我們采用深度學習三巨頭之一的Yann Lecun教授的MNIST數據為例。如上圖所示,MNIST的數據是28x28的圖像,并且標記了它的值應該是什么。

線性模型:logistic回歸

我們首先不管三七二十一,就用線性模型來做分類。
算上注釋和空行,一共加起來30行左右,我們就可以解決手寫識別這么困難的問題啦!請看代碼:

import tensorflow as tf import numpy as np from tensorflow.examples.tutorials.mnist import input_datadef init_weights(shape):return tf.Variable(tf.random_normal(shape, stddev=0.01))def model(X, w):return tf.matmul(X, w) # 模型還是矩陣乘法mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) trX, trY, teX, teY = mnist.train.images, mnist.train.labels, mnist.test.images, mnist.test.labelsX = tf.placeholder("float", [None, 784]) Y = tf.placeholder("float", [None, 10])w = init_weights([784, 10]) py_x = model(X, w)cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=py_x, labels=Y)) # 計算誤差 train_op = tf.train.GradientDescentOptimizer(0.05).minimize(cost) # construct optimizer predict_op = tf.argmax(py_x, 1) with tf.Session() as sess:tf.global_variables_initializer().run()for i in range(100):for start, end in zip(range(0, len(trX), 128), range(128, len(trX)+1, 128)):sess.run(train_op, feed_dict={X: trX[start:end], Y: trY[start:end]})print(i, np.mean(np.argmax(teY, axis=1) ==sess.run(predict_op, feed_dict={X: teX})))

經過100輪的訓練,我們的準確率是92.36%。

無腦的淺層神經網絡

用了最簡單的線性模型,我們換成經典的神經網絡來實現這個功能。神經網絡的圖如下圖所示。


我們還是不管三七二十一,建立一個隱藏層,用最傳統的sigmoid函數做激活函數。其核心邏輯還是矩陣乘法,這里面沒有任何技巧。

h = tf.nn.sigmoid(tf.matmul(X, w_h)) return tf.matmul(h, w_o)

完整代碼如下,仍然是40多行,不長:

import tensorflow as tf import numpy as np from tensorflow.examples.tutorials.mnist import input_data# 所有連接隨機生成權值 def init_weights(shape):return tf.Variable(tf.random_normal(shape, stddev=0.01))def model(X, w_h, w_o):h = tf.nn.sigmoid(tf.matmul(X, w_h)) return tf.matmul(h, w_o) mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) trX, trY, teX, teY = mnist.train.images, mnist.train.labels, mnist.test.images, mnist.test.labelsX = tf.placeholder("float", [None, 784]) Y = tf.placeholder("float", [None, 10])w_h = init_weights([784, 625]) w_o = init_weights([625, 10])py_x = model(X, w_h, w_o)cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=py_x, labels=Y)) # 計算誤差損失 train_op = tf.train.GradientDescentOptimizer(0.05).minimize(cost) # construct an optimizer predict_op = tf.argmax(py_x, 1)with tf.Session() as sess:tf.global_variables_initializer().run()for i in range(100):for start, end in zip(range(0, len(trX), 128), range(128, len(trX)+1, 128)):sess.run(train_op, feed_dict={X: trX[start:end], Y: trY[start:end]})print(i, np.mean(np.argmax(teY, axis=1) ==sess.run(predict_op, feed_dict={X: teX})))

第一輪運行,我這次的準確率只有69.11%?,第二次就提升到了82.29%。最終結果是95.41%,比Logistic回歸的強!
請注意我們模型的核心那兩行代碼,完全就是無腦地全連接做了一個隱藏層而己,這其中沒有任何的技術。完全是靠神經網絡的模型能力。

深度學習時代的方案 - ReLU和Dropout顯神通

上一個技術含量有點低,現在是深度學習的時代了,我們有很多進步。比如我們知道要將sigmoid函數換成ReLU函數。我們還知道要做Dropout了。于是我們還是一個隱藏層,寫個更現代一點的模型吧:

X = tf.nn.dropout(X, p_keep_input)h = tf.nn.relu(tf.matmul(X, w_h))h = tf.nn.dropout(h, p_keep_hidden)h2 = tf.nn.relu(tf.matmul(h, w_h2))h2 = tf.nn.dropout(h2, p_keep_hidden)return tf.matmul(h2, w_o)

除了ReLU和dropout這兩個技巧,我們仍然只有一個隱藏層,表達能力沒有太大的增強。并不能算是深度學習。

import tensorflow as tf import numpy as np from tensorflow.examples.tutorials.mnist import input_datadef init_weights(shape):return tf.Variable(tf.random_normal(shape, stddev=0.01))def model(X, w_h, w_h2, w_o, p_keep_input, p_keep_hidden): X = tf.nn.dropout(X, p_keep_input)h = tf.nn.relu(tf.matmul(X, w_h))h = tf.nn.dropout(h, p_keep_hidden)h2 = tf.nn.relu(tf.matmul(h, w_h2))h2 = tf.nn.dropout(h2, p_keep_hidden)return tf.matmul(h2, w_o)mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) trX, trY, teX, teY = mnist.train.images, mnist.train.labels, mnist.test.images, mnist.test.labelsX = tf.placeholder("float", [None, 784]) Y = tf.placeholder("float", [None, 10])w_h = init_weights([784, 625]) w_h2 = init_weights([625, 625]) w_o = init_weights([625, 10])p_keep_input = tf.placeholder("float") p_keep_hidden = tf.placeholder("float") py_x = model(X, w_h, w_h2, w_o, p_keep_input, p_keep_hidden)cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=py_x, labels=Y)) train_op = tf.train.RMSPropOptimizer(0.001, 0.9).minimize(cost) predict_op = tf.argmax(py_x, 1)with tf.Session() as sess:# you need to initialize all variablestf.global_variables_initializer().run()for i in range(100):for start, end in zip(range(0, len(trX), 128), range(128, len(trX)+1, 128)):sess.run(train_op, feed_dict={X: trX[start:end], Y: trY[start:end],p_keep_input: 0.8, p_keep_hidden: 0.5})print(i, np.mean(np.argmax(teY, axis=1) ==sess.run(predict_op, feed_dict={X: teX,p_keep_input: 1.0,p_keep_hidden: 1.0})))

從結果看到,第二次就達到了96%以上的正確率。后來就一直在98.4%左右游蕩。僅僅是ReLU和Dropout,就把準確率從95%提升到了98%以上。

卷積神經網絡出場

真正的深度學習利器CNN,卷積神經網絡出場。這次的模型比起前面幾個無腦型的,的確是復雜一些。涉及到卷積層和池化層。這個是需要我們后面詳細講一講了。

import tensorflow as tf import numpy as np from tensorflow.examples.tutorials.mnist import input_databatch_size = 128 test_size = 256def init_weights(shape):return tf.Variable(tf.random_normal(shape, stddev=0.01))def model(X, w, w2, w3, w4, w_o, p_keep_conv, p_keep_hidden):l1a = tf.nn.relu(tf.nn.conv2d(X, w, # l1a shape=(?, 28, 28, 32)strides=[1, 1, 1, 1], padding='SAME'))l1 = tf.nn.max_pool(l1a, ksize=[1, 2, 2, 1], # l1 shape=(?, 14, 14, 32)strides=[1, 2, 2, 1], padding='SAME')l1 = tf.nn.dropout(l1, p_keep_conv)l2a = tf.nn.relu(tf.nn.conv2d(l1, w2, # l2a shape=(?, 14, 14, 64)strides=[1, 1, 1, 1], padding='SAME'))l2 = tf.nn.max_pool(l2a, ksize=[1, 2, 2, 1], # l2 shape=(?, 7, 7, 64)strides=[1, 2, 2, 1], padding='SAME')l2 = tf.nn.dropout(l2, p_keep_conv)l3a = tf.nn.relu(tf.nn.conv2d(l2, w3, # l3a shape=(?, 7, 7, 128)strides=[1, 1, 1, 1], padding='SAME'))l3 = tf.nn.max_pool(l3a, ksize=[1, 2, 2, 1], # l3 shape=(?, 4, 4, 128)strides=[1, 2, 2, 1], padding='SAME')l3 = tf.reshape(l3, [-1, w4.get_shape().as_list()[0]]) # reshape to (?, 2048)l3 = tf.nn.dropout(l3, p_keep_conv)l4 = tf.nn.relu(tf.matmul(l3, w4))l4 = tf.nn.dropout(l4, p_keep_hidden)pyx = tf.matmul(l4, w_o)return pyxmnist = input_data.read_data_sets("MNIST_data/", one_hot=True) trX, trY, teX, teY = mnist.train.images, mnist.train.labels, mnist.test.images, mnist.test.labels trX = trX.reshape(-1, 28, 28, 1) # 28x28x1 input img teX = teX.reshape(-1, 28, 28, 1) # 28x28x1 input imgX = tf.placeholder("float", [None, 28, 28, 1]) Y = tf.placeholder("float", [None, 10])w = init_weights([3, 3, 1, 32]) # 3x3x1 conv, 32 outputs w2 = init_weights([3, 3, 32, 64]) # 3x3x32 conv, 64 outputs w3 = init_weights([3, 3, 64, 128]) # 3x3x32 conv, 128 outputs w4 = init_weights([128 * 4 * 4, 625]) # FC 128 * 4 * 4 inputs, 625 outputs w_o = init_weights([625, 10]) # FC 625 inputs, 10 outputs (labels)p_keep_conv = tf.placeholder("float") p_keep_hidden = tf.placeholder("float") py_x = model(X, w, w2, w3, w4, w_o, p_keep_conv, p_keep_hidden)cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=py_x, labels=Y)) train_op = tf.train.RMSPropOptimizer(0.001, 0.9).minimize(cost) predict_op = tf.argmax(py_x, 1)with tf.Session() as sess:# you need to initialize all variablestf.global_variables_initializer().run()for i in range(100):training_batch = zip(range(0, len(trX), batch_size),range(batch_size, len(trX)+1, batch_size))for start, end in training_batch:sess.run(train_op, feed_dict={X: trX[start:end], Y: trY[start:end],p_keep_conv: 0.8, p_keep_hidden: 0.5})test_indices = np.arange(len(teX)) # Get A Test Batchnp.random.shuffle(test_indices)test_indices = test_indices[0:test_size]print(i, np.mean(np.argmax(teY[test_indices], axis=1) ==sess.run(predict_op, feed_dict={X: teX[test_indices],p_keep_conv: 1.0,p_keep_hidden: 1.0})))

我們看下這次的運行數據:

0 0.95703125 1 0.9921875 2 0.9921875 3 0.98046875 4 0.97265625 5 0.98828125 6 0.99609375

在第6輪的時候,就跑出了99.6%的高分值,比ReLU和Dropout的一個隱藏層的神經網絡的98.4%大大提高。因為難度是越到后面越困難。
在第16輪的時候,竟然跑出了100%的正確率:

7 0.99609375 8 0.99609375 9 0.98828125 10 0.98828125 11 0.9921875 12 0.98046875 13 0.99609375 14 0.9921875 15 0.99609375 16 1.0

綜上,借助Tensorflow和機器學習工具,我們只有幾十行代碼,就解決了手寫識別這樣級別的問題,而且準確度可以達到如此程度。


本文作者:lusing

原文鏈接

總結

以上是生活随笔為你收集整理的Tensorflow快餐教程(1) - 30行代码搞定手写识别的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 一二区在线视频 | 黄色性大片| 国产精品九九 | 久久久久亚洲色欲AV无码网站 | 欧美日本色 | 成年人黄网站 | 久久婷婷五月综合色国产香蕉 | 国产激情自拍视频 | 精品视频在线一区 | h亚洲| 国产三级精品在线观看 | 大地资源中文在线观看免费版 | 三级全黄的视频 | 性少妇xxxxx 亚洲一卡二卡在线观看 | 久久精品无码一区二区三区免费 | 宅男午夜影院 | 在线观看亚洲免费视频 | 国产又粗又长又大视频 | 欧美三级小视频 | 一区二区久久精品66国产精品 | 亚洲AV综合色区国产精品天天 | 欧美日本一区 | 精品视频在线一区二区 | 成人羞羞在线观看网站 | 天天综合91 | 用我的手指扰乱你 | 香蕉久久网站 | 在线亚洲一区 | 久久精品小视频 | 深夜福利视频导航 | 亚洲成人免费电影 | 亚洲国产精品系列 | 我要看一级片 | 亚洲精品国产精品乱码不卡√香蕉 | 欧美国产91 | 亚洲国产精品久久 | 8mav在线| av在线中文 | 加勒比一区二区三区 | 国产精品高潮AV无码 | 欧美三级一区二区三区 | 高清日韩一区二区 | 国产精品传媒在线观看 | 另类天堂网 | 青娱乐97| 国产盗摄一区二区三区 | 91桃色免费视频 | 日韩一级成人 | 国产精品丝袜 | 精品人妻在线播放 | 视频国产在线 | 视频免费1区二区三区 | 日韩一区二区在线观看 | 亚洲欧美一区二区三区四区 | 性色av一区二区三区在线观看 | 国产粉嫩白浆 | 日本999视频 | 日韩 在线| 国产成人午夜精品无码区久久 | 在线看污片 | 免费网站黄色 | 老熟妇精品一区二区三区 | 精品福利影院 | 在线观看亚洲专区 | 清草视频 | 亚洲成人中文字幕在线 | 免费看的黄色小视频 | 日韩在线视频你懂的 | 看av免费毛片手机播放 | 波多野42部无码喷潮 | 岛国av免费在线观看 | 91黑丝视频 | 咪咪色影院 | 成人欧美在线观看 | 欧美在线一卡 | 亚洲欧美自拍视频 | 天堂а√在线中文在线鲁大师 | 插骚 | 国产精品美女久久久 | 91亚洲成人 | 欧美视频一区二区三区 | 胖女人毛片 | 好吊妞视频在线观看 | 青娱乐伊人 | 欧美性猛交xxxx乱大交3 | 国产精品一品二区三区的使用体验 | 色婷婷国产 | av在线成人| 男插女青青影院 | 精品久久久久久久久久久久 | 国产免费91| 欧美成年人视频在线观看 | 女人扒开双腿让男人捅 | 无码熟妇αⅴ人妻又粗又大 | 国产又黄又粗又猛又爽的视频 | 天堂av中文字幕 | 亚洲日本欧美 | 在线观看国产免费av | 欧美激情亚洲综合 |