日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

tensorflow学习笔记-bili莫烦

發布時間:2024/3/12 编程问答 51 豆豆
生活随笔 收集整理的這篇文章主要介紹了 tensorflow学习笔记-bili莫烦 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

bilibili莫煩tensorflow視頻教程學習筆記

?

1.初次使用Tensorflow實現一元線性回歸

# 屏蔽警告 import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'import numpy as np import tensorflow as tf# create dataset x_data = np.random.rand(100).astype(np.float32) y_data = x_data * 2 + 5### create tensorflow structure Start # 初始化Weights變量,由于是一元變量,所以w也只有一個 Weights = tf.Variable(tf.random_uniform([1],-1.0,1.0)) # 初始化bias,即截距b biases = tf.Variable(tf.zeros([1]))# 計算預測的y值,即y hat y = Weights*x_data+biases# 計算損失值 loss = tf.reduce_mean(tf.square(y-y_data))# 優化器,這里采用普通的梯度下降,學習率alpha=0.5(0,1范圍) optimizer = tf.train.GradientDescentOptimizer(0.5) # 使用優化器開始訓練loss train = optimizer.minimize(loss)# tensorflow初始化變量 init = tf.global_variables_initializer()# create tensorflow structure End# 創建tensorflow的Session sess = tf.Session() # 激活initialize,很重要 sess.run(init)# 運行兩百輪 for step in range(201):# 執行一次訓練 sess.run(train)# 每20輪打印一次Wights和biases,看其變化if step % 20 ==0:print(step,sess.run(Weights),sess.run(biases)) os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' 解釋:   TF_CPP_MIN_LOG_LEVEL = 0:0為默認值,輸出所有的信息,包含info,warning,error,fatal四種級別   TF_CPP_MIN_LOG_LEVEL = 1:1表示屏蔽info,只顯示warning及以上級別   TF_CPP_MIN_LOG_LEVEL = 2:2表示屏蔽info和warning,顯示error和fatal(最常用的取值)   TF_CPP_MIN_LOG_LEVEL = 3:3表示只顯示fatal

2.tensorflow基礎 基本流程 # 導入tensorflow,安裝的GPU版本,則默認使用GPU import tensorflow as tf# 定義兩個矩陣常量 matrix1 = tf.constant([[3, 3], [2, 4]]) matrix2 = tf.constant([[1, 2], [5, 5]]) # 矩陣乘法,相當于np.dot(mat1,mat2) product = tf.matmul(matrix1, matrix2) # 初始化 init = tf.global_variables_initializer() # 使用with來定義Session,這樣使用完畢后會自動sess.close() with tf.Session() as sess:# 執行初始化 sess.run(init)# 打印結果result = sess.run(product)print(result)

3.tensorflow基礎 變量、常量、傳值

import tensorflow as tfstate = tf.Variable(0, name='counter') one = tf.constant(1)# 變量state和常量one相加 new_value = tf.add(state, one) # 將new_value賦值給state update = tf.assign(state, new_value) # 初始化全局變量 init = tf.global_variables_initializer() # 打開Session with tf.Session() as sess:# 執行初始化,很重要 sess.run(init)# 運行三次updatefor _ in range(3):sess.run(update)print(sess.run(state))

?4.,使用placeholder

import tensorflow as tf# 使用placeholder定義兩個空間,用于存放float32的數據 input1 = tf.placeholder(tf.float32) input2 = tf.placeholder(tf.float32) # 計算input1和input2的乘積 output = tf.matmul(input1, input2)# 定義sess with tf.Session() as sess:# 運行output,并在run的時候喂入數據print(sess.run(output, feed_dict={input1: [[2.0, 3.0]], input2: [[4.0], [2.0]]}))

5.定義一個層(Layer)

import tensorflow as tf# inputs是上一層的輸出,insize是上一層的節點數,outsize是本層節點數,af是激活函數,默認 # 為線性激活函數,即f(x)=X def add_layer(inputs, in_size, out_size, activation_function=None):# 定義權重w,并且用隨機值填充,大小為in_size*out_sizeWeights = tf.Variable(tf.random_normal([in_size, out_size]))# 定義變差bias,大小為1*out_sizebiases = tf.Variable(tf.zeros([1, out_size]) + 0.1)# 算出z=wx+bWx_plus_b = tf.matmul(inputs, Weights) + biases# 如果激勵函數為空,則使用線性激勵函數if activation_function is None:outputs = Wx_plus_belse:# 如果不為空,則使用激勵方程activation_function()outputs = activation_function(Wx_plus_b)# 返回輸出值return outputs

6.手動創建一個簡單的神經網絡

(包含一個輸入層、一個隱藏層、一個輸出層)

import numpy as np import tensorflow as tf# 添加一個隱藏層 def add_layer(inputs, in_size, out_size, activation_function=None):Weights = tf.Variable(tf.random_normal([in_size, out_size]))biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)Wx_plus_b = tf.matmul(inputs, Weights) + biasesif activation_function is None:outputs = Wx_plus_belse:outputs = activation_function(Wx_plus_b)return outputs### 準備數據 # 創建x_data,從-1到1,分成300份,然后添加維度,讓其編程一個300*1的矩陣 x_data = np.linspace(-1, 1, 300)[:, np.newaxis] # 定義一個噪聲矩陣,大小和x_data一樣,數據均值為0,方差為0.05 noise = np.random.normal(0, 0.05, x_data.shape) # 按公式x^2-0.5計算y_data,并加上噪聲 y_data = np.square(x_data) - 0.5 + noise# 定義兩個placeholder分別用于傳入x_data和y_data xs = tf.placeholder(tf.float32, [None, 1]) ys = tf.placeholder(tf.float32, [None, 1])# 創建一個隱藏層,輸入為xs,輸入層只有一個節點,本層有10個節點,激勵函數為relu l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu) # 創建輸出層 prediction = add_layer(l1, 10, 1, activation_function=None)# 定義損失 loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),reduction_indices=[1])) # 使用梯度下降對loss進行最小化,學習率為0.01 train_step = tf.train.GradientDescentOptimizer(0.01).minimize(loss) # 初始化全局變量 init = tf.global_variables_initializer() # 創建Session with tf.Session() as sess:# 初始化 sess.run(init)# 運行10000輪梯度下降for _ in range(10001):sess.run(train_step, feed_dict={xs: x_data, ys: y_data})# 每50輪打印一下loss看是否在減小if _ % 50 == 0:print(sess.run(loss, feed_dict={xs: x_data, ys: y_data}))

?7.使用matplotlib可視化擬合情況、Loss曲線

?

import numpy as np import tensorflow as tf import matplotlib.pyplot as plt# 添加一個隱藏層 def add_layer(inputs, in_size, out_size, activation_function=None):Weights = tf.Variable(tf.random_normal([in_size, out_size]))biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)Wx_plus_b = tf.matmul(inputs, Weights) + biasesif activation_function is None:outputs = Wx_plus_belse:outputs = activation_function(Wx_plus_b)return outputs### 準備數據 # 創建x_data,從-1到1,分成300份,然后添加維度,讓其編程一個300*1的矩陣 x_data = np.linspace(-1, 1, 300)[:, np.newaxis] # 定義一個噪聲矩陣,大小和x_data一樣,數據均值為0,方差為0.05 noise = np.random.normal(0, 0.05, x_data.shape) # 按公式x^2-0.5計算y_data,并加上噪聲 y_data = np.square(x_data) - 0.5 + noise# 定義兩個placeholder分別用于傳入x_data和y_data xs = tf.placeholder(tf.float32, [None, 1]) ys = tf.placeholder(tf.float32, [None, 1])# 創建一個隱藏層,輸入為xs,輸入層只有一個節點,本層有10個節點,激勵函數為relu l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu) # 創建輸出層 prediction = add_layer(l1, 10, 1, activation_function=None)# 定義損失 loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),reduction_indices=[1])) # 使用梯度下降對loss進行最小化,學習率為0.01 train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) # 初始化全局變量 init = tf.global_variables_initializer() # 創建Session with tf.Session() as sess:# 初始化 sess.run(init)# 創建圖形fig = plt.figure()# 創建子圖,上下兩個圖的第一個(行,列,子圖編號),用于畫擬合圖a1 = fig.add_subplot(2, 1, 1)# 使用x_data,y_data畫散點圖 plt.scatter(x_data, y_data)plt.xlabel('x_data')plt.ylabel('y_data')# 修改圖形x,y軸上下限x limit,y limit# plt.xlim(-2, 2)# plt.ylim(-1, 1)# 也可以用一行代碼修改plt.axis([-2,2,-1,1])plt.axis('tight') # 可以按內容自動收縮,不留空白# 創建第二個子圖,用于畫Loss曲線a2 = fig.add_subplot(2, 1, 2)# 可以使用這種方式來一次性設置子圖的屬性,和使用plt差不多a2.set(xlim=(0, 10000), ylim=(0.0, 0.02), xlabel='Iterations', ylabel='Loss')# 使用plt.ion使其運行show()后不暫停 plt.ion()# 展示圖片,必須使用show() plt.show()loss_list = []index_list = []# 運行10000輪梯度下降for _ in range(10001):sess.run(train_step, feed_dict={xs: x_data, ys: y_data})# 每50輪打印一下loss看是否在減小if _ % 50 == 0:index_list.append(_)loss_list.append(sess.run(loss, feed_dict={xs: x_data, ys: y_data}))# 避免在圖中重復的畫線,線嘗試刪除已經存在的線try:a1.lines.remove(lines_in_a1[0])a2.lines.remove(lines_in_a2[0])except Exception:passprediction_value = sess.run(prediction, feed_dict={xs: x_data})# 在a1子圖中畫擬合線,黃色,寬度5lines_in_a1 = a1.plot(x_data, prediction_value, 'y-', lw=5)# 在a2子圖中畫Loss曲線,紅色,寬度3lines_in_a2 = a2.plot(index_list, loss_list, 'r-', lw=3)# 暫停一下,否則會卡plt.pause(0.1)

?

注意:如果在pycharm運行上述代碼,不能展示動態圖片刷新,則需要進入File->setting,搜索Python Scientific,然后右側去掉對勾(默認是勾選的),然后Apply,OK即可。

8.常用優化器Optimizers

train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) train_step = tf.train.AdamOptimizer(learning_rate=0.01, beta1=0.9, beta2=0.999, epsilon=1e-8).minimize(loss) train_step = tf.train.MomentumOptimizer(learning_rate=0.01,momentum=0.9).minimize(loss) train_step = tf.train.RMSPropOptimizer(learning_rate=0.01).minimize(loss)

?其中Adam效果比較好,但都可以嘗試使用。

9.使用tensorboard繪網絡結構圖

import numpy as np import tensorflow as tfdef add_layer(inputs, in_size, out_size, activation_function=None):# 每使用該函數創建一層,則生成一個名為Layer_n的外層框with tf.name_scope('Layer'):# 內層權重框with tf.name_scope('Wights'):Weights = tf.Variable(tf.random_normal([in_size, out_size]))# 內層Bias框with tf.name_scope('Biases'):biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)# 內層z(x,w,b)框with tf.name_scope('Wx_plus_b'):Wx_plus_b = tf.matmul(inputs, Weights) + biasesif activation_function is None:outputs = Wx_plus_belse:outputs = activation_function(Wx_plus_b)return outputs# 準備數據 x_data = np.linspace(-1, 1, 300)[:, np.newaxis] noise = np.random.normal(0, 0.05, x_data.shape) y_data = np.square(x_data) - 0.5 + noise# 使用tensorboard畫inputs層 with tf.name_scope('inputs'): # 一個名為inputs的外層框# x_input和y_inputxs = tf.placeholder(tf.float32, [None, 1], name='x_input')ys = tf.placeholder(tf.float32, [None, 1], name='y_input')l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu) prediction = add_layer(l1, 10, 1, activation_function=None)# Loss框,其中包含計算Loss的各個步驟,例如sub,square,sum,mean等 with tf.name_scope("Loss"):loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),reduction_indices=[1])) # train框,其中包含梯度下降步驟和權重更新步驟 with tf.name_scope('train'):train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)init = tf.global_variables_initializer()with tf.Session() as sess:# 將圖寫入文件夾logswriter = tf.summary.FileWriter('logs/')# 寫入文件,名為events.out.tfevents.1561191707.06P2GHW85CAH236 writer.add_graph(sess.graph)sess.run(init)

注意:在運行代碼后,在logs文件夾下生成?events.out.tfevents.1561191707.06P2GHW85CAH236 文件。

然后進入windows cmd,進入logs的上層文件夾,使用tensorboard --logdir logs即可打開web服務,然后復制給出的url地址進行訪問。如圖:

10.其他可視化,例如Weight、bias、loss等

import numpy as np import tensorflow as tfdef add_layer(inputs, in_size, out_size, n_layer, activation_function=None):layer_name = 'layer_%d' % n_layer# 每使用該函數創建一層,則生成一個名為Layer_n的外層框with tf.name_scope('Layer'):# 內層權重框with tf.name_scope('Wights'):Weights = tf.Variable(tf.random_normal([in_size, out_size]), name='W')tf.summary.histogram(layer_name + '/weights', Weights)# 內層Bias框with tf.name_scope('Biases'):biases = tf.Variable(tf.zeros([1, out_size]) + 0.1, name='B')tf.summary.histogram(layer_name + '/biases', biases)# 內層z(x,w,b)框with tf.name_scope('Wx_plus_b'):Wx_plus_b = tf.matmul(inputs, Weights) + biasesif activation_function is None:outputs = Wx_plus_belse:outputs = activation_function(Wx_plus_b)return outputs# 準備數據 x_data = np.linspace(-1, 1, 300)[:, np.newaxis] noise = np.random.normal(0, 0.05, x_data.shape) y_data = np.square(x_data) - 0.5 + noise# 使用tensorboard畫inputs層 with tf.name_scope('inputs'): # 一個名為inputs的外層框# x_input和y_inputxs = tf.placeholder(tf.float32, [None, 1], name='x_input')ys = tf.placeholder(tf.float32, [None, 1], name='y_input')l1 = add_layer(xs, 1, 10, 1, activation_function=tf.nn.relu) prediction = add_layer(l1, 10, 1, 2, activation_function=None)# Loss框,其中包含計算Loss的各個步驟,例如sub,square,sum,mean等 with tf.name_scope("Loss"):loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),reduction_indices=[1]))tf.summary.scalar('Loss', loss) # train框,其中包含梯度下降步驟和權重更新步驟 with tf.name_scope('train'):train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)init = tf.global_variables_initializer()merged = tf.summary.merge_all()with tf.Session() as sess:# 將圖寫入文件夾logswriter = tf.summary.FileWriter('logs/')# 寫入文件,名為events.out.tfevents.1561191707.06P2GHW85CAH236 writer.add_graph(sess.graph)sess.run(init)# 運行10000輪梯度下降for _ in range(10001):sess.run(train_step, feed_dict={xs: x_data, ys: y_data})# 每50步在loss曲線中記一個點if _ % 50 == 0:# 將merged和步數加入到總結中result = sess.run(merged, feed_dict={xs: x_data, ys: y_data})writer.add_summary(result, _)

?11.使用tensorflow進行Mnist分類

import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets('MNIST_data', one_hot=True)# 添加一個隱藏層 def add_layer(inputs, in_size, out_size, activation_function=None):Weights = tf.Variable(tf.random_normal([in_size, out_size]))biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)Wx_plus_b = tf.matmul(inputs, Weights) + biasesif activation_function is None:outputs = Wx_plus_belse:outputs = activation_function(Wx_plus_b)return outputs# 測試準確度accuracy def compute_accuracy(v_xs, v_ys):# 引入全局變量prediction層global prediction# 用v_xs輸入數據跑一次prediction層,得到輸出y_pre = sess.run(prediction, feed_dict={xs: v_xs})# 對比輸出和數據集label,相同的為1,不同的為0correct_prediction = tf.equal(tf.argmax(y_pre, 1), tf.argmax(v_ys, 1))# 計算比對結果,可得到準確率百分比accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))# 獲取result,并返回result = sess.run(accuracy, feed_dict={xs: v_xs, ys: v_ys})return result# define placeholder for inputs on network xs = tf.placeholder(tf.float32, [None, 784]) # 手寫數字的圖片大小為28*28 ys = tf.placeholder(tf.float32, [None, 10]) # 輸出為1*10的Onehot熱獨# 只有一個輸出層,輸入為m*784的數據,輸出為m*10的數據,m=100,因為batch_size取的是100 prediction = add_layer(xs, 784, 10, activation_function=tf.nn.softmax)# 使用交叉熵損失函數g(x)=-E[y*log(y_hat)],y為ys,例如[0,1,0,0,0,0,0,0,0,0],即數字為1, # 假設y_hat=[0.05,0.81,0.05,0.003,0.012,0.043,0.012,0.009,0.006,0.005], # 則g(x) = -(0*log0.05+1*log0.81+...+0*log0.005)=-log0.81=0.0915 # g(x)就是-tf.reduce_sum(ys * tf.log(prediction) # tf.reduce_mean(g(x),reduction_indices=[1])是對一個batch_size的樣本取平均損失 # 相當于1/m * E(1 to m) [g(x)] cross_entropy = tf.reduce_mean(-tf.reduce_sum(ys * tf.log(prediction),reduction_indices=[1])) # 使用梯度下降,學習率為0.5來最小化cross_entropy train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)# 定義Session sess = tf.Session() # 初始化 sess.run(tf.global_variables_initializer()) # 跑10000輪 for i in range(10001):# 使用SGD,batch_size=100batch_x, batch_y = mnist.train.next_batch(100)# 執行一輪sess.run(train_step, feed_dict={xs: batch_x, ys: batch_y})# 每跑50輪打印一次準確度if i % 50 == 0:# 訓練集準確度print('TRAIN acc:', compute_accuracy(batch_x, batch_y))# 測試集準確度print('TEST acc:', compute_accuracy(mnist.test.images, mnist.test.labels))

重點:關注代碼中交叉熵損失函數的使用,多分類時的交叉熵損失函數為L(y_hat,y)=-E(j=1 to k) yj*log y_hatj,成本函數為J = 1/m E(i=1 to m) L(y_hati,yi)

12.使用Dropout避免過擬合

import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets('MNIST_data', one_hot=True)# 添加一個隱藏層 def add_layer(inputs, in_size, out_size, activation_function=None, keep_prob=1):Weights = tf.Variable(tf.random_normal([in_size, out_size]))biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)Wx_plus_b = tf.matmul(inputs, Weights) + biases# 這里使用Dropout處理計算結果,默認keep_prob為1,具體drop比例按1-keep_prob執行Wx_plus_b = tf.nn.dropout(Wx_plus_b, keep_prob)if activation_function is None:outputs = Wx_plus_belse:outputs = activation_function(Wx_plus_b)return outputs# 測試準確度accuracy def compute_accuracy(v_xs, v_ys):# 引入全局變量prediction層global prediction# 用v_xs輸入數據跑一次prediction層,得到輸出y_pre = sess.run(prediction, feed_dict={xs: v_xs})# 對比輸出和數據集label,相同的為1,不同的為0correct_prediction = tf.equal(tf.argmax(y_pre, 1), tf.argmax(v_ys, 1))# 計算比對結果,可得到準確率百分比accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))# 獲取result,并返回result = sess.run(accuracy, feed_dict={xs: v_xs, ys: v_ys})return result# define placeholder for inputs on network xs = tf.placeholder(tf.float32, [None, 784]) # 手寫數字的圖片大小為28*28 ys = tf.placeholder(tf.float32, [None, 10]) # 輸出為1*10的Onehot熱獨# 創建一個隱層,有50個節點,使用Dropout 30%來避免過擬合 l1 = add_layer(xs, 784, 50, activation_function=tf.nn.tanh, keep_prob=0.7) # 創建輸出層,輸入為m*784的數據,輸出為m*10的數據,m=100,因為batch_size取的是100 prediction = add_layer(l1, 50, 10, activation_function=tf.nn.softmax)# 使用交叉熵損失函數g(x)=-E[y*log(y_hat)],y為ys,例如[0,1,0,0,0,0,0,0,0,0],即數字為1, # 假設y_hat=[0.05,0.81,0.05,0.003,0.012,0.043,0.012,0.009,0.006,0.005], # 則g(x) = -(0*log0.05+1*log0.81+...+0*log0.005)=-log0.81=0.0915 # g(x)就是-tf.reduce_sum(ys * tf.log(prediction) # tf.reduce_mean(g(x),reduction_indices=[1])是對一個batch_size的樣本取平均損失 # 相當于1/m * E(1 to m) [g(x)] cross_entropy = tf.reduce_mean(-tf.reduce_sum(ys * tf.log(prediction),reduction_indices=[1])) tf.summary.scalar('Loss', cross_entropy)# 使用梯度下降,學習率為0.5來最小化cross_entropy train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)# 定義Session sess = tf.Session()# 創建連個graph,圖是重合的,即可以再loss曲線中同時畫出train和test數據集的loss曲線,從而看是否存在過擬合 train_writer = tf.summary.FileWriter('logs/train', sess.graph) test_writer = tf.summary.FileWriter('logs/test', sess.graph)merged = tf.summary.merge_all()# 初始化 sess.run(tf.global_variables_initializer()) # 跑10000輪 for i in range(20001):# 使用SGD,batch_size=100batch_x, batch_y = mnist.train.next_batch(100)# 執行一輪sess.run(train_step, feed_dict={xs: batch_x, ys: batch_y})# 每跑50輪打印一次準確度if i % 50 == 0:train_res = sess.run(merged, feed_dict={xs: mnist.train.images, ys: mnist.train.labels})test_res = sess.run(merged, feed_dict={xs: mnist.test.images, ys: mnist.test.labels})train_writer.add_summary(train_res, i)test_writer.add_summary(test_res, i)

?重點:在創建每個層時,如果需要Dropout,就給他一個keep_prob,然后使用tf.nn.dropout(result,keep_prob)來執行Dropout。

13.tensorflow中使用卷積網絡分類Mnist

import osimport tensorflow as tf from tensorflow.examples.tutorials.mnist import input_dataos.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' mnist = input_data.read_data_sets('MNIST_data', one_hot=True)# 添加一個隱藏層 def add_layer(inputs, in_size, out_size, activation_function=None, keep_prob=1):Weights = tf.Variable(tf.random_normal([in_size, out_size]))biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)Wx_plus_b = tf.matmul(inputs, Weights) + biases# 這里使用Dropout處理計算結果,默認keep_prob為1,具體drop比例按1-keep_prob執行Wx_plus_b = tf.nn.dropout(Wx_plus_b, keep_prob)if activation_function is None:outputs = Wx_plus_belse:outputs = activation_function(Wx_plus_b)return outputs# 測試準確度accuracy def compute_accuracy(v_xs, v_ys):# 引入全局變量prediction層global prediction# 用v_xs輸入數據跑一次prediction層,得到輸出y_pre = sess.run(prediction, feed_dict={xs: v_xs})# argmax(y,1)按行獲取最大值的index# 對比輸出和數據集label,相同的為1,不同的為0correct_prediction = tf.equal(tf.argmax(y_pre, 1), tf.argmax(v_ys, 1))# 計算比對結果,可得到準確率百分比accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))# 獲取result,并返回result = sess.run(accuracy, feed_dict={xs: v_xs, ys: v_ys})return result# 按shape參數創建參數W矩陣 def weight_variable(shape):initial = tf.truncated_normal(shape, stddev=0.1)return tf.Variable(initial)# 按shape參數創建bias矩陣 def bias_variable(shape):initial = tf.constant(0.1, shape=shape)return tf.Variable(initial)# 創建2d卷積層,直接調用tf.nn.conv2d,x為輸入,W為參數矩陣,strides=[1,y_step,x_step,1] # padding有兩個取值'SAME'和'VALID',對應一個填充,一個不填充 def conv2d(x, W):return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')# 創建最大池化層,ksize=[1,y_size,x_size,1],strides同上,padding同上 def max_pool_2x2(x):return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')# define placeholder for inputs on network xs = tf.placeholder(tf.float32, [None, 784]) # 手寫數字的圖片大小為28*28 ys = tf.placeholder(tf.float32, [None, 10]) # 輸出為1*10的Onehot熱獨 # 將數據的維度變化為圖片的形式,[-1,28,28,1],-1表示樣本數m(根據每輪訓練的輸入大小batch_size=100),28*28表示圖片大小,1表示channel x_data = tf.reshape(xs, [-1, 28, 28, 1])###### 下面定義網絡結構,大致根據Lenet的結構修改 ###### ### 定義conv1層 # 定義conv layer1的Weights,[5,5,1,6]中得5*5表示核的大小,1表示核的channel,16表示核的個數 # 該矩陣為5*5*1*16的矩陣 W_conv1 = weight_variable([5, 5, 1, 16]) # 定義conv1的bias矩陣 b_conv1 = bias_variable([16]) # 定義conv1的激活函數 h_conv1 = tf.nn.relu(conv2d(x_data, W_conv1) + b_conv1) # 定義池化層 h_pool1 = max_pool_2x2(h_conv1)### 定義conv2層,參數參照conv1 W_conv2 = weight_variable([5, 5, 16, 32]) b_conv2 = bias_variable([32]) h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2) h_pool2 = max_pool_2x2(h_conv2) # 池化后要輸入給后面的全連接層,所以要把7*7*32的矩陣壓扁成[1568]的向量 h_pool2_flat = tf.reshape(h_pool2, [-1, 7 * 7 * 32]) # 檢查一下矩陣維度,確認為(100,1568),其中100是batch_size # h_shape = tf.shape(h_pool2_flat)### 定義fc1層節點為200 # 定義fc1的weight矩陣,維度為1568*200 W_fc1 = weight_variable([7 * 7 * 32, 200]) # 200個bias b_fc1 = bias_variable([200]) # fc層激活函數 h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1) # 是否啟用dropout # h_fc1_drop = tf.nn.dropout(h_fc1)### 定義fc2層,參數參照fc1 W_fc2 = weight_variable([200, 100]) b_fc2 = bias_variable([100]) h_fc2 = tf.nn.relu(tf.matmul(h_fc1, W_fc2) + b_fc2)### 定義輸出層,激勵函數不同 w_fc3 = weight_variable([100, 10]) b_fc3 = bias_variable([10]) # 輸出層使用多分類softmax激勵函數 prediction = tf.nn.softmax(tf.matmul(h_fc2, w_fc3) + b_fc3)# 交叉熵損失 cross_entropy = tf.reduce_mean(-tf.reduce_sum(ys * tf.log(prediction),reduction_indices=[1])) tf.summary.scalar('Loss', cross_entropy)# 使用Adam優化算法,學習率為0.0001來最小化cross_entropy train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)# 定義Session sess = tf.Session()# 創建連個graph,圖是重合的,即可以再loss曲線中同時畫出train和test數據集的loss曲線,從而看是否存在過擬合 train_writer = tf.summary.FileWriter('logs2/train', sess.graph) test_writer = tf.summary.FileWriter('logs2/test', sess.graph)merged = tf.summary.merge_all()# 初始化 sess.run(tf.global_variables_initializer()) # 跑10000輪 for i in range(20001):# 使用SGD,batch_size=100batch_x, batch_y = mnist.train.next_batch(100)# 執行一輪sess.run(train_step, feed_dict={xs: batch_x, ys: batch_y})# 每跑50輪打印一次準確度if i % 100 == 0:train_res = sess.run(merged, feed_dict={xs: batch_x, ys: batch_y})test_res = sess.run(merged, feed_dict={xs: mnist.test.images, ys: mnist.test.labels})train_writer.add_summary(train_res, i)test_writer.add_summary(test_res, i)print('Acc on loop ', i, ':', compute_accuracy(mnist.test.images, mnist.test.labels))

在tensorflow 1.14.0下的代碼如下(API更改較多):

# -*- coding:utf-8 -*- __author__ = 'Leo.Z'import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_dataimport osos.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'mnist = input_data.read_data_sets('MNIST_data', one_hot=True)# 添加一個隱藏層 def add_layer(inputs, in_size, out_size, activation_function=None, keep_prob=1):Weights = tf.Variable(tf.random_normal([in_size, out_size]))biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)Wx_plus_b = tf.matmul(inputs, Weights) + biases# 這里使用Dropout處理計算結果,默認keep_prob為1,具體drop比例按1-keep_prob執行Wx_plus_b = tf.nn.dropout(Wx_plus_b, keep_prob)if activation_function is None:outputs = Wx_plus_belse:outputs = activation_function(Wx_plus_b)return outputs# 測試準確度accuracy def compute_accuracy(v_xs, v_ys):# 引入全局變量prediction層global prediction# 用v_xs輸入數據跑一次prediction層,得到輸出y_pre = sess.run(prediction, feed_dict={xs: v_xs})# argmax(y,1)按行獲取最大值的index# 對比輸出和數據集label,相同的為1,不同的為0correct_prediction = tf.equal(tf.argmax(y_pre, 1), tf.argmax(v_ys, 1))# 計算比對結果,可得到準確率百分比accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))# 獲取result,并返回result = sess.run(accuracy, feed_dict={xs: v_xs, ys: v_ys})return result# 按shape參數創建參數W矩陣 def weight_variable(shape):initial = tf.random.truncated_normal(shape, stddev=0.1)return tf.Variable(initial)# 按shape參數創建bias矩陣 def bias_variable(shape):initial = tf.constant(0.1, shape=shape)return tf.Variable(initial)# 創建2d卷積層,直接調用tf.nn.conv2d,x為輸入,W為參數矩陣,strides=[1,y_step,x_step,1] # padding有兩個取值'SAME'和'VALID',對應一個填充,一個不填充 def conv2d(x, W):return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')# 創建最大池化層,ksize=[1,y_size,x_size,1],strides同上,padding同上 def max_pool_2x2(x):return tf.nn.max_pool2d(x, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')# define placeholder for inputs on network xs = tf.compat.v1.placeholder(tf.float32, [None, 784]) # 手寫數字的圖片大小為28*28 ys = tf.compat.v1.placeholder(tf.float32, [None, 10]) # 輸出為1*10的Onehot熱獨 # 將數據的維度變化為圖片的形式,[-1,28,28,1],-1表示樣本數m(根據每輪訓練的輸入大小batch_size=100),28*28表示圖片大小,1表示channel x_data = tf.reshape(xs, [-1, 28, 28, 1])###### 下面定義網絡結構,大致根據Lenet的結構修改 ###### ### 定義conv1層 # 定義conv layer1的Weights,[5,5,1,6]中得5*5表示核的大小,1表示核的channel,16表示核的個數 # 該矩陣為5*5*1*16的矩陣 W_conv1 = weight_variable([5, 5, 1, 16]) # 定義conv1的bias矩陣 b_conv1 = bias_variable([16]) # 定義conv1的激活函數 h_conv1 = tf.nn.relu(conv2d(x_data, W_conv1) + b_conv1) # 定義池化層 h_pool1 = max_pool_2x2(h_conv1)### 定義conv2層,參數參照conv1 W_conv2 = weight_variable([5, 5, 16, 32]) b_conv2 = bias_variable([32]) h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2) h_pool2 = max_pool_2x2(h_conv2) # 池化后要輸入給后面的全連接層,所以要把7*7*32的矩陣壓扁成[1568]的向量 h_pool2_flat = tf.reshape(h_pool2, [-1, 7 * 7 * 32]) # 檢查一下矩陣維度,確認為(100,1568),其中100是batch_size # h_shape = tf.shape(h_pool2_flat)### 定義fc1層節點為200 # 定義fc1的weight矩陣,維度為1568*200 W_fc1 = weight_variable([7 * 7 * 32, 200]) # 200個bias b_fc1 = bias_variable([200]) # fc層激活函數 h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1) # 是否啟用dropout # h_fc1_drop = tf.nn.dropout(h_fc1)### 定義fc2層,參數參照fc1 W_fc2 = weight_variable([200, 100]) b_fc2 = bias_variable([100]) h_fc2 = tf.nn.relu(tf.matmul(h_fc1, W_fc2) + b_fc2)### 定義輸出層,激勵函數不同 w_fc3 = weight_variable([100, 10]) b_fc3 = bias_variable([10]) # 輸出層使用多分類softmax激勵函數 prediction = tf.nn.softmax(tf.matmul(h_fc2, w_fc3) + b_fc3)# 交叉熵損失 cross_entropy = tf.reduce_mean(-tf.reduce_sum(ys * tf.math.log(prediction),reduction_indices=[1])) tf.compat.v1.summary.scalar('Loss', cross_entropy)# 使用Adam優化算法,學習率為0.0001來最小化cross_entropy train_step = tf.compat.v1.train.AdamOptimizer(1e-4).minimize(cross_entropy)# 定義Session sess = tf.compat.v1.Session()# 創建連個graph,圖是重合的,即可以再loss曲線中同時畫出train和test數據集的loss曲線,從而看是否存在過擬合 train_writer = tf.compat.v1.summary.FileWriter('logs2/train', sess.graph) test_writer = tf.compat.v1.summary.FileWriter('logs2/test', sess.graph)merged = tf.compat.v1.summary.merge_all()# 初始化 sess.run(tf.compat.v1.global_variables_initializer()) # 跑10000輪 for i in range(20001):# 使用SGD,batch_size=100batch_x, batch_y = mnist.train.next_batch(100)# 執行一輪sess.run(train_step, feed_dict={xs: batch_x, ys: batch_y})# 每跑50輪打印一次準確度if i % 100 == 0:train_res = sess.run(merged, feed_dict={xs: batch_x, ys: batch_y})test_res = sess.run(merged, feed_dict={xs: mnist.test.images, ys: mnist.test.labels})train_writer.add_summary(train_res, i)test_writer.add_summary(test_res, i)print('Acc on loop ', i, ':', compute_accuracy(mnist.test.images, mnist.test.labels))

14.使用tensorflow的Saver存放模型參數

import tensorflow as tfW = tf.Variable([[1, 2, 3], [4, 5, 6]], dtype=tf.float32, name='wrights') b = tf.Variable([1, 2, 3], dtype=tf.float32, name='biases')init = tf.global_variables_initializer() saver = tf.train.Saver()with tf.Session() as sess:sess.run(init)save_path = saver.save(sess, "my_net/save_net.ckpt")print('save_path: ', save_path)

15.使用Saver載入模型參數

import tensorflow as tf import numpy as np# 創建一個和保存時一樣的W,b矩陣,什么內容無所謂,shape和dtype必須一致 W = tf.Variable(tf.zeros([2, 3]), dtype=tf.float32, name='wrights') # 使用numpy也可以 # W = tf.Variable(np.zeros((2,3)), dtype=tf.float32, name='wrights') b = tf.Variable(tf.zeros(3), dtype=tf.float32, name='biases')init = tf.global_variables_initializer() saver = tf.train.Saver()with tf.Session() as sess:sess.run(init)saver.restore(sess, "my_net/save_net.ckpt")print('Weights:', sess.run(W))print('biased:', sess.run(b))

16.結束語

當擼完深度學習基礎理論,不知道如何選擇和使用繁多的框架時,真真感覺方得一P。無意在bilibili發現了莫煩的tensorflow教程,雖然這門視頻課程示例都非常簡單,但也足夠讓我初窺其貌,以至于又有了前進的方向,從而在框架的學習上不在迷茫。在此感謝莫煩同學的無私奉獻(^。^)。33歲還在路上的程序猿記于深夜......為終身學習這個偉大目標加油.....

轉載于:https://www.cnblogs.com/leokale-zz/p/11064741.html

總結

以上是生活随笔為你收集整理的tensorflow学习笔记-bili莫烦的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

91色在线观看视频 | 久久99精品久久久久蜜臀 | 最近最新mv字幕免费观看 | 国产视频一区二区在线播放 | 亚洲伦理电影在线 | 久久免费视频7 | 91网站观看 | 成人在线观看av | 四虎国产精品成人免费4hu | 99 色| 天天舔天天射天天操 | 久久午夜电影 | 国产中文字幕一区二区三区 | 日本爱爱免费视频 | 国产婷婷一区二区 | 九七视频在线观看 | 东方av在| 国内精品久久久精品电影院 | 国产资源在线免费观看 | 国产成人综合图片 | 国产精品综合久久久久 | 成人小电影在线看 | 亚洲综合射 | 四虎成人在线 | 欧美日韩视频一区二区 | 日本黄色免费在线 | 免费人做人爱www的视 | 亚洲精品综合在线 | 日韩精品一区二区三区第95 | 成人午夜影院在线观看 | 亚洲成a人片77777潘金莲 | 精品91视频 | 亚洲精品视频免费观看 | 免费手机黄色网址 | av电影在线观看完整版一区二区 | 91一区啪爱嗯打偷拍欧美 | 亚洲另类在线视频 | 国产色在线观看 | 国产精品久久久久久久久久了 | 欧美亚洲精品在线观看 | 亚洲综合小说 | av在线之家电影网站 | 欧美成人日韩 | 成人黄色小说在线观看 | 久久精品国产成人精品 | 视频福利在线观看 | 五月天电影免费在线观看一区 | 欧美日韩一区二区三区在线观看视频 | 91九色蝌蚪视频 | 亚洲色图27p | 亚洲精品久久久久www | 日韩中文字幕在线观看 | 有码中文在线 | 国产精品免费视频观看 | 国产精品无 | 久久精品免费观看 | 中文字幕乱在线伦视频中文字幕乱码在线 | 国产成人精品福利 | 精品亚洲视频在线 | 成人激情开心网 | 丰满少妇在线观看 | 九九导航 | 色视频网站在线观看一=区 a视频免费在线观看 | 激情婷婷久久 | 日韩精品免费一线在线观看 | 99精品在线观看视频 | 蜜臀久久99精品久久久久久网站 | 日韩va亚洲va欧美va久久 | 韩日电影在线 | 日韩三级在线观看 | 激情久久伊人 | 免费看片日韩 | 日韩大片在线看 | 久久社区视频 | 久久久久久久久久久影视 | 香蕉视频国产在线观看 | 国产精品久久久久久一区二区三区 | 国产区精品视频 | 91精品国产福利 | 免费av视屏 | 色婷婷亚洲 | 99r在线 | 成人免费共享视频 | 精品久久久久久综合日本 | 日韩av影片在线观看 | 悠悠av资源片 | 国产精品va在线播放 | 成年人在线免费看片 | 欧美analxxxx| 亚洲免费在线播放视频 | 中文字幕在线久一本久 | 日本久久综合网 | 91爱爱网址 | 亚洲精品456在线播放第一页 | 日韩免费高清在线观看 | 在线观看日韩精品视频 | 久久婷婷一区二区三区 | 欧美色综合天天久久综合精品 | 精品视频国产 | 日本精品va在线观看 | 99精品国产成人一区二区 | 久久免费视频一区 | 992tv又爽又黄的免费视频 | 国产亚洲综合性久久久影院 | 久久99国产精品二区护士 | 性色av香蕉一区二区 | 成人免费在线观看入口 | 亚洲欧美日本A∨在线观看 青青河边草观看完整版高清 | 久久优 | 国产精品成人久久久久久久 | 国产偷国产偷亚洲清高 | 国产免费一区二区三区最新6 | 黄色精品久久 | 在线黄色免费 | 欧美午夜a | 亚洲h在线播放在线观看h | 91精品国产成人www | 国产在线播放一区二区 | 草久久久久久 | 天天干天天操天天拍 | 久热电影| 国产又粗又硬又爽的视频 | 黄p在线播放 | 欧美 亚洲 另类 激情 另类 | 久久久久久久久久久久影院 | 国产精品乱看 | 天天射天天搞 | 五月精品 | 夜色资源站wwwcom | 欧美国产日韩一区二区三区 | 国产高清免费观看 | 日韩丝袜在线观看 | 国产喷水在线 | 在线观看日本高清mv视频 | 成人h电影 | 国产理伦在线 | 91av在线视频免费观看 | 欧美性生交大片免网 | 精品国产免费一区二区三区五区 | 九色91av | 国内视频一区二区 | 日韩试看 | 香蕉网在线| 99综合久久| 欧美日韩啪啪 | 欧美永久视频 | 99免费精品视频 | 91色在线观看 | 天堂av在线网站 | 国产精品网站 | 中文字幕在线人 | 日本3级在线观看 | 欧美 日韩 国产 中文字幕 | 国产精品第一 | av福利超碰网站 | 免费观看黄色12片一级视频 | 久久涩视频 | 少妇bbbb揉bbbb日本 | 久久久www成人免费精品 | 亚洲高清色综合 | 午夜久久久久久久久久久 | 麻豆超碰 | 4438全国亚洲精品观看视频 | 天天骚夜夜操 | 亚洲黄色在线看 | 综合久久五月天 | 伊香蕉大综综综合久久啪 | 久草在线免费新视频 | www.夜色.com| 免费观看性生活大片 | 亚洲成人国产精品 | 91爱看片| 天天射天天干天天 | 99精品国产福利在线观看免费 | 99久久婷婷国产 | av超碰免费在线 | 国产裸体无遮挡 | 国产免费小视频 | 99精品国产在热久久 | 国产精品欧美久久久久久 | 欧美日韩另类在线观看 | 免费看v片 | 深爱激情亚洲 | 激情网站网址 | 伊人成人久久 | 国产一区国产二区在线观看 | 搡bbbb搡bbb视频 | 人人澡超碰碰 | 成人国产精品久久久春色 | 国产精品女人久久久久久 | 日产乱码一二三区别在线 | 国产精品18久久久久久vr | 国产精品一区免费看8c0m | 国产不卡在线视频 | 久草在线视频在线观看 | 久草免费手机视频 | 婷五月天激情 | 伊人天天干 | 欧美乱淫视频 | 黄色a级片在线观看 | 又爽又黄又无遮挡网站动态图 | www.99av | 91色网址 | 激情五月婷婷综合网 | 免费在线观看国产精品 | 欧美激情视频久久 | 精品日韩在线一区 | 一区二区三区在线电影 | 天天射射天天 | 色黄久久久久久 | 国产一区二区三区在线 | 国产精品v欧美精品 | 久久99热这里只有精品 | 欧美日本三级 | 91久久精品一区二区三区 | 欧美精品三级在线观看 | 日韩在线电影一区 | 国产福利在线免费观看 | 97激情影院 | 91精品啪在线观看国产81旧版 | av888.com| 天天插狠狠干 | 亚洲欧美乱综合图片区小说区 | 在线观看91久久久久久 | 国产精品久久嫩一区二区免费 | 综合铜03| 亚洲日本一区二区在线 | 国内视频在线观看 | 久久久精品国产一区二区 | 蜜桃传媒一区二区 | 色婷婷在线观看视频 | a天堂最新版中文在线地址 久久99久久精品国产 | 91久久精| 久久精品日韩 | 黄色av免费 | 精品国产一区二区三区久久久蜜月 | 91一区啪爱嗯打偷拍欧美 | 91av在线不卡 | 日韩欧美一区二区在线播放 | 超碰成人av | h视频在线看 | 欧美精品国产综合久久 | 亚洲精品国精品久久99热 | av在线短片 | 91免费高清观看 | 国产 视频 高清 免费 | 在线激情影院一区 | 亚洲精品456在线播放乱码 | 99久久免费看 | 国产精品18久久久久久久网站 | 久久成人资源 | 日韩免费b | 性色av一区二区三区在线观看 | 欧美伊人网 | 久久精品2 | 色九九在线 | 欧美一二三区在线播放 | 欧美人操人 | 日韩精品久久久久久久电影竹菊 | 精品黄色视| 国产中文在线字幕 | 国产精品一区二区吃奶在线观看 | 久久这里只有精品23 | 免费黄色网址大全 | 特级西西444www大胆高清无视频 | 亚洲一区二区精品在线 | 91九色在线视频观看 | 精品影院| 色婷婷激情网 | 天天天色综合 | 高清免费在线视频 | 久久久久久久国产精品影院 | 综合精品久久 | 天天天干天天射天天天操 | 免费视频二区 | 综合伊人久久 | 久久久久亚洲天堂 | 亚洲日本精品视频 | 天天综合色天天综合 | www91在线| 亚洲一区日韩精品 | 成人免费xxx在线观看 | 国产精品久久久久久久久岛 | 国产视频网站在线观看 | 在线97| 99久久精品免费一区 | 中文字幕久久精品 | 欧美激情精品 | 免费看精品久久片 | 麻豆视频成人 | 97在线观看免费观看高清 | 久草综合在线观看 | 国产麻豆精品久久一二三 | 91精品啪在线观看国产81旧版 | 久久成人久久 | 五月婷婷精品 | 精品国产一区二区三区av性色 | 日韩视频免费 | 国色天香在线 | 久久人人爽人人片av | 天堂av免费 | 69国产盗摄一区二区三区五区 | 激情网在线视频 | 成人午夜片av在线看 | 精品久久综合 | 日韩在线视频免费观看 | 欧美日韩国产一区二区在线观看 | 天天躁天天躁天天躁婷 | 国产精品理论片在线观看 | 欧美另类xxx | 亚洲精品视频在线观看免费 | 日韩电影在线视频 | 中文字幕 第二区 | 99精品热视频 | 少妇bbw搡bbbb搡bbbb | 日韩免费小视频 | 午夜精品久久久久久久99水蜜桃 | 久久久亚洲麻豆日韩精品一区三区 | 91亚洲在线 | 亚洲精品久久久久www | 视频直播国产精品 | 六月激情久久 | 天天综合网入口 | 国产高清综合 | 国产精品久久久久久久久久久免费看 | 国产精品久久久久久久久久久久久 | 国产精品免费在线视频 | 91av视频免费在线观看 | 久久中文字幕导航 | 欧美韩国日本在线 | 精品亚洲成a人在线观看 | 亚洲在线精品视频 | 久久av免费电影 | 色婷婷精品 | 国产婷婷色 | 精品九九九 | 伊人色综合久久天天 | 久久大视频| 国产亚洲精品免费 | 午夜精品久久久久久久久久久久 | 国产91精品一区二区绿帽 | 国产.精品.日韩.另类.中文.在线.播放 | 国产一区二区三区久久久 | 丁香九月激情 | 国产精品xxxx18a99 | 怡红院av久久久久久久 | 日韩在线观看 | 亚洲精品美女久久久久 | 成人黄色短片 | 亚洲精品玖玖玖av在线看 | 一级免费看 | 国产v在线观看 | 911国产在线观看 | 久久久久久久久黄色 | 久久精品韩国 | 精品国产精品一区二区夜夜嗨 | 久久伊人精品天天 | 综合网成人 | 91在线蜜桃臀| 五月激情五月激情 | 麻豆高清免费国产一区 | 免费h在线观看 | 久久免费资源 | 国产精选在线 | www.夜夜爽| 国产伦精品一区二区三区照片91 | 狠狠干狠狠艹 | 国产精品视频 | 丁香久久五月 | 国产99久久久国产精品免费二区 | www91在线观看 | 免费黄色网址大全 | 麻豆91网站| 高清av免费观看 | 婷婷综合亚洲 | 亚洲欧洲一级 | 国产精品一区电影 | 久久色视频| 日精品 | 国产丝袜在线 | 97偷拍在线视频 | 黄色成品视频 | 婷婷丁香国产 | 国产精品毛片一区二区 | 久久草视频 | 天天射综合网视频 | 精品久久影院 | 成人毛片一区 | 国产一区福利 | 久久精品网站视频 | 日韩精品中文字幕在线观看 | 日韩一区二区三区不卡 | 天天射天天射 | aaa亚洲精品一二三区 | 免费福利在线 | 蜜臀av网址 | 人人爱天天操 | 中文av资源站 | 日韩 精品 一区 国产 麻豆 | 欧美 亚洲 另类 激情 另类 | 免费色视频在线 | 天天操天天谢 | 亚洲精品乱码白浆高清久久久久久 | 免费在线播放视频 | 玖玖精品视频 | www.com在线观看 | 久久激情五月激情 | 在线看中文字幕 | 国产欧美日韩精品一区二区免费 | 91探花在线| 亚洲综合视频在线 | 97视频人人免费看 | 美女福利视频在线 | 国内精品免费 | 天天操网站 | 日韩精品一区二区三区第95 | 中字幕视频在线永久在线观看免费 | 午夜精品久久久久 | www.天天操.com| 99在线精品视频观看 | 久久婷婷精品视频 | 欧美日韩国产二区三区 | 午夜精品福利在线 | 69国产精品视频免费观看 | 久久精品成人 | 色婷婷成人 | 超碰在线公开 | 国产在线观看午夜 | 色婷婷综合久久久久中文字幕1 | 亚洲欧美激情插 | 麻花豆传媒mv在线观看 | 亚洲伊人av | 97高清视频| 93久久精品日日躁夜夜躁欧美 | 人人干人人干人人干 | 香蕉在线影院 | 美女av在线免费 | 一区二区伦理 | 国产精品a久久久久 | 国产真实在线 | 天堂av在线网| 色婷婷综合久久久久中文字幕1 | 91在线中文| 有码中文字幕在线观看 | 九色精品免费永久在线 | 精品久久片 | 欧美最爽乱淫视频播放 | 国产一性一爱一乱一交 | 免费h视频| 久久论理 | 国产精品一区二区你懂的 | 亚洲视频电影在线 | 日韩最新在线视频 | 五月天六月丁香 | 黄a网站 | 一区三区视频 | 久草视频在线免费看 | 亚洲天堂香蕉 | 国产精品久久久久久久久久久久午夜片 | 中文字幕av免费观看 | 91九色精品国产 | 欧美一级片免费播放 | 五月天久久久 | 91精品国产综合久久婷婷香蕉 | 成人播放器 | 久久精品www人人爽人人 | 99久热在线精品 | 免费黄a| 一区二区三区中文字幕在线观看 | 久久综合导航 | 日韩视频免费在线 | 91成人欧美 | 日韩在线第一区 | 久久精品国产精品亚洲 | 1区2区视频 | 成人黄色短片 | 亚洲伊人色 | 色五月色开心色婷婷色丁香 | 91在线免费观看网站 | 最新午夜 | 久草视频视频在线播放 | v片在线播放 | aaa日本高清在线播放免费观看 | 一级一级一片免费 | 九九九在线观看 | 中文字幕一区二区三区在线播放 | 亚州精品在线视频 | 国产一区二区免费在线观看 | 日韩二区三区在线 | 国产视 | 丁香影院在线 | 午夜精品一区二区三区在线播放 | 成人在线观看免费 | 亚州成人av在线 | www色网站 | 日韩电影中文,亚洲精品乱码 | 欧美性生活一级片 | 一色av| 欧美aaa视频| 中文字幕亚洲情99在线 | 天天弄天天操 | 九色精品免费永久在线 | 99久久成人| 欧美色噜噜| 波多野结衣在线视频免费观看 | 97超碰在线久草超碰在线观看 | 免费久久久久久久 | 欧美国产日韩在线观看 | www日韩视频 | 久久国产午夜精品理论片最新版本 | 欧美日韩二区在线 | 精品国产免费一区二区三区五区 | 亚洲午夜精品福利 | 日本字幕网 | 国产精品久久久久久久久久久久午夜 | 欧美国产一区在线 | 超碰人人干人人 | 国产精品 9999 | 日韩欧美在线视频一区二区 | 婷婷www| 久草在线免费看视频 | 久久精品日本啪啪涩涩 | 成人全视频免费观看在线看 | 91色影院| 天天综合视频在线观看 | 亚洲综合视频在线观看 | 欧美日韩综合在线 | 波多野结衣电影一区二区 | 国产色 在线 | 插综合网| 在线黄色免费av | 干狠狠 | 亚洲欧洲美洲av | 中文字幕在线国产 | 黄色免费网站下载 | 精品久久久久国产免费第一页 | 中文字幕日韩精品有码视频 | 亚洲日韩欧美一区二区在线 | 黄色在线观看免费网站 | 免费污片 | 99热播精品 | 色偷偷av男人天堂 | 欧美日一级片 | 五月婷婷影院 | 欧美另类重口 | 91久久人澡人人添人人爽欧美 | 日韩天天操 | 久久久久久久网 | 亚洲jizzjizz日本少妇 | 午夜色婷婷 | 亚洲精品美女视频 | 国产精品国产三级国产专区53 | 中文在线资源 | 亚洲精品视频在线免费播放 | 久久99久久99精品免费看小说 | 成人av在线直播 | 91日韩在线 | av在线短片| 久久精品波多野结衣 | 爱干视频 | 国产精品久久久久久久久久免费 | 国产又粗又猛又黄又爽视频 | 久久丁香网 | 91在线中文 | 日本韩国欧美在线观看 | 国产亚洲人 | 国产精品免费看 | 在线免费看片 | 国产午夜麻豆影院在线观看 | 国产高清免费av | 91福利视频一区 | 精品久久久久久一区二区里番 | 青青久视频 | 日韩色在线观看 | 婷婷av色综合 | 久久午夜网 | 99热国产在线观看 | 久久99免费观看 | 开心激情婷婷 | 操操日日 | 精品一区二区三区香蕉蜜桃 | 狠狠色噜噜狠狠狠狠 | 天天操天天操天天操天天操 | a级国产乱理论片在线观看 伊人宗合网 | 黄色三级视频片 | 成人免费网站在线观看 | 亚洲电影第一页av | 亚洲精品成人网 | 免费a一级| 日韩在线二区 | 国产第一页福利影院 | 中文字幕在线免费看 | 成年人视频在线观看免费 | 久久精品国产精品亚洲精品 | 成人国产一区 | 久草网在线视频 | 黄色大全视频 | 欧美性免费 | 国产精成人品免费观看 | 天天操操操操操 | 精品欧美日韩 | 国产色视频网站 | 香蕉视频国产在线观看 | 天天干干 | av888.com| 国产精品一区二区av日韩在线 | 97视频免费在线 | 国内精品久久久久久中文字幕 | 在线观看国产区 | 日韩高清av在线 | 午夜精品一区二区三区在线播放 | 亚洲精品综合一区二区 | 国产不卡一二三区 | 久久刺激视频 | 精品国产一区二区三区久久久蜜月 | 国产精品九九热 | 亚洲国产伊人 | 亚洲伦理精品 | 99久视频| 亚洲视频一| 久久精品国产亚洲精品2020 | 911在线| 国产系列 在线观看 | 日韩xxxbbb | 午夜精品久久久久久久久久久 | 免费在线观看成人 | 亚洲国产日韩欧美 | 精品一二三四在线 | 日韩在线电影观看 | 国产精品欧美久久久久久 | 国产主播大尺度精品福利免费 | 在线岛国av | 99久久婷婷国产一区二区三区 | 色在线免费 | www.97色.com| 久99久在线视频 | 国产精品久久久久久久久婷婷 | 探花视频在线版播放免费观看 | 国产亚洲精品久久久久久久久久 | 免费看片网址 | 91亚洲精品久久久蜜桃 | a在线免费 | 91片网| 中文字幕黄色 | 免费在线国产精品 | 深爱激情亚洲 | 九月婷婷人人澡人人添人人爽 | 久久黄视频 | 最近中文字幕免费大全 | 日韩免费高清在线 | 外国av网| 99色免费 | 国产精品永久免费 | 欧美精品乱码99久久影院 | 国产黄色大片免费看 | 九色精品免费永久在线 | 久久爱资源网 | 伊人久久精品久久亚洲一区 | 蜜臀久久99静品久久久久久 | 欧美射射射 | 日韩av一区二区在线播放 | 日韩a在线 | 国产精品国产亚洲精品看不卡15 | 日韩专区在线观看 | 五月婷婷综合在线 | 国产精品欧美日韩 | 在线观看亚洲精品 | 午夜精品久久久久久久99无限制 | 91av在线播放视频 | 在线日韩| 91探花在线视频 | 亚洲综合色丁香婷婷六月图片 | 日本成人中文字幕在线观看 | 亚洲美女在线一区 | 青青河边草免费观看完整版高清 | 又爽又黄又无遮挡网站动态图 | 91精品国产亚洲 | 激情小说 五月 | 色视频在线 | 久久手机免费观看 | 成人h动漫在线看 | 中文字幕在线人 | 91日韩免费 | 国产精品一区二区三区在线免费观看 | 亚洲激情综合 | 97在线影视 | 国产一二区免费视频 | 久久视频免费在线观看 | 婷五月天激情 | 色综合咪咪久久网 | 91看片在线播放 | 国产免费黄色 | 少妇性bbb搡bbb爽爽爽欧美 | 免费观看国产精品 | 国产精品久久久久影视 | 在线 影视 一区 | 麻豆国产精品永久免费视频 | 人人插人人艹 | 天天骚夜夜操 | 九九热精 | 在线免费看黄色 | 丰满少妇高潮在线观看 | 亚洲精品视频免费观看 | 婷婷激情网站 | 香蕉影院在线播放 | 亚洲久草网| 久久午夜精品影院一区 | 在线观看视频99 | 成人天堂网| 在线免费观看黄色 | 国产91在线免费视频 | 国产热re99久久6国产精品 | 亚洲国产三级 | 丁香综合网 | 伊人五月 | 国产视频美女 | 玖玖玖精品 | 五月婷亚洲 | 日韩欧美一区二区三区视频 | 黄色一级在线免费观看 | 国产在线精品国自产拍影院 | 91精品国产高清自在线观看 | 亚洲欧美综合精品久久成人 | 午夜10000| 黄色一及电影 | 久久久久在线观看 | 久久久精品在线观看 | 亚洲人在线7777777精品 | 91精品区| 国产精品一区二区你懂的 | 亚在线播放中文视频 | 久久精品久久精品久久 | 久草视频在线看 | 久久综合免费 | 亚洲国产成人精品电影在线观看 | 亚洲 欧美 日韩 综合 | 免费亚洲精品视频 | 色综合人人 | 国产精品无 | 91在线看视频免费 | 久久不卡视频 | 国内久久久久 | 欧洲在线免费视频 | 五月天丁香视频 | 97超碰成人在线 | 国产精品99久久久久久有的能看 | 91爱爱中文字幕 | 2019中文| 免费亚洲视频 | 97在线免费观看视频 | 国产精品久久久久亚洲影视 | 亚洲综合在线播放 | 亚洲精品福利在线观看 | 国产高清视频在线观看 | 在线看一级片 | 国产成人精品国内自产拍免费看 | 成人aaa毛片| 香蕉网在线观看 | 精品资源在线 | 欧美亚洲国产精品久久高清浪潮 | 国产99久久久国产精品 | 成年人在线视频观看 | 伊人激情网 | 99精品国产一区二区 | 成 人 免费 黄 色 视频 | 国产精品99久久久久久久久 | 国产亚洲成人网 | 韩日av在线 | 国产视频一区二区三区在线 | 91成人免费观看视频 | 久久国产欧美日韩精品 | 欧美网址在线观看 | 久久综合色婷婷 | 欧美一级日韩三级 | 久久r精品 | 国产国产人免费人成免费视频 | 91你懂的 | 久草香蕉在线 | 色综合久久中文综合久久牛 | www.伊人网.com| 伊人va | 亚洲成a人片在线观看网站口工 | 久久在线免费 | 久久视频国产精品免费视频在线 | 69av久久 | 久久夜色网| 特级免费毛片 | 夜夜躁狠狠躁日日躁 | 国产精品嫩草影视久久久 | 久久久 激情 | 天天操天天吃 | 日韩簧片在线观看 | 成在人线av| 国产精品久久视频 | 狠狠干婷婷 | 成 人 免费 黄 色 视频 | 成人精品影视 | 久久公开视频 | 天天插狠狠插 | 久久精品久久久久电影 | 国产区av在线 | 免费视频 你懂的 | 亚洲成年人在线播放 | 中文字幕一区二区三区乱码在线 | 久热久草 | 国产精品一区二区三区久久 | 日韩黄色在线 | 波多野结衣视频在线 | 日日干日日色 | 亚洲专区中文字幕 | 久久视频国产 | 一级黄色片在线 | 日韩.com | 免费毛片一区二区三区久久久 | 亚洲粉嫩av| 国产91精品久久久久久 | 欧美日韩在线精品 | 久精品一区 | 免费在线观看一级片 | www·22com天天操| av线上看 | 日本色小说视频 | 五月天色综合 | 国产一区二区三区在线免费观看 | 麻豆国产精品va在线观看不卡 | 最近中文字幕国语免费av | 玖玖999| 成人一区二区在线观看 | 中文字幕免费观看全部电影 | 草久草久| 国产3p视频 | 手机av网站 | 精品在线一区二区三区 | 国产精品网址在线观看 | 久草av在线播放 | 婷婷六月综合亚洲 | 色七七亚洲影院 | 中文字幕在线观看1 | www.夜色321.com| 青青草在久久免费久久免费 | 午夜av激情 | 成人国产精品电影 | 黄色小说免费在线观看 | 91精彩在线视频 | 国产一卡二卡在线 | 天天天天天操 | 国产精品乱码一区二三区 | 狠狠做六月爱婷婷综合aⅴ 日本高清免费中文字幕 | 国产精品不卡在线播放 | 在线视频你懂得 | 国产日韩欧美中文 | 97国产超碰在线 | 五月婷婷在线综合 | 亚洲精品国产电影 | 波多野结衣一区二区三区中文字幕 | 伊人色综合久久天天网 | 亚洲国产精品va在线看黑人动漫 | 国产精品成久久久久 | 亚洲最新av在线 | 欧美日韩中文在线 | 欧美中文字幕久久 | 丰满少妇在线观看网站 | 欧美做受69 | 视频一区二区视频 | 亚洲精品福利在线 | 91久久精品日日躁夜夜躁国产 | 91视频91蝌蚪 | 亚洲精品午夜视频 | 在线视频观看成人 | 色吊丝在线永久观看最新版本 | 久久久免费网站 | 激情五月五月婷婷 | 视频在线在亚洲 | 韩日精品视频 | 精品久久久久久亚洲综合网站 | 少妇bbbb | 日韩手机视频 | 国产香蕉视频在线观看 | 精品美女视频 | 国产精品11| 丰满少妇高潮在线观看 | 综合国产在线观看 | 91伊人久久大香线蕉蜜芽人口 | 丝袜美腿亚洲 | 高清av在线 | 日韩成人xxxx| 国产三级精品在线 | 亚洲精品国产精品国自 | 欧美一区视频 | 久久久久国产精品一区 | 国产精品久久伊人 | 欧美一区二区精品在线 | 丰满少妇一级片 | 区一区二在线 | 欧美-第1页-屁屁影院 | 久草新在线| 国产精品综合在线 | 91黄色免费网站 | 久久午夜视频 | 亚洲精品国产精品久久99 | 91在线播放国产 | 日韩在线观看中文字幕 | 欧美亚洲成人xxx | 国产a级片免费观看 | 偷拍精偷拍精品欧洲亚洲网站 | 亚洲成人资源在线 | 国产高清在线精品 | av在线收看 | 国内精品久久久久久久久久清纯 | 免费观看mv大片高清 | 久久热首页 | 九色激情网 | a天堂最新版中文在线地址 久久99久久精品国产 | 亚洲激情网站免费观看 | 97视频中文字幕 | 亚洲午夜久久久久久久久久久 | www久久九 | 日韩成人黄色 | 欧美永久视频 | 亚洲区精品视频 | 国产午夜三级 | 色综合婷婷久久 | 亚洲专区欧美专区 | 成人免费看片网址 | 香蕉视频导航 | 在线视频国产区 | 午夜精品一区二区三区在线播放 | 精品a视频| 日韩在线第一 | 久草在线视频免费资源观看 | 国产一二区视频 | 九九热久久免费视频 | 亚洲欧美国产视频 | 激情电影在线观看 | 国产日本高清 | 国产一级在线看 | 亚洲精品美女久久久 | 久久综合欧美精品亚洲一区 | 日韩成人不卡 | 成人久久18免费 | 亚洲午夜精品久久久 | 日韩 在线观看 | 国内视频在线观看 | 久久精品中文字幕 | 精品不卡av | 亚洲一区日韩在线 | 欧美人人爱 | 色综合网| 国产精品毛片完整版 | 在线精品视频免费播放 | 国产成人一区二区啪在线观看 | 欧美亚洲国产日韩 | 日本成人黄色片 | 国产亚洲午夜高清国产拍精品 | 又黄又爽免费视频 | 在线午夜 | 人人爽人人看 | 日韩最新在线视频 | 午夜在线观看 | 欧美精品免费视频 | 日韩r级电影在线观看 | 国内少妇自拍视频一区 | 免费国产ww| 五月情婷婷 | 免费色视频网址 | 免费观看成人av | 精品美女久久久久久免费 | 在线观看中文字幕av | 三级黄色网络 | 久久丁香| 高清av网站| 国产在线色 | 久在线 | 亚洲精品网页 | 欧洲一区精品 | 免费亚洲片 | 亚洲欧美视频一区二区三区 | 久久人人爽人人爽 | 亚州精品在线视频 | 热久在线 | 久久69av| 97香蕉视频| 超碰97久久 | 亚洲精品久久久久久中文传媒 | 欧美性性网 | 在线观看电影av | 色网站免费在线观看 | 久久都是精品 | 美女久久网站 | 在线观看亚洲成人 | 亚洲精品一区二区三区高潮 | 精品国产乱码一区二区三区在线 | 成年人黄色大片在线 | 五月天激情婷婷 | 免费看十八岁美女 | 欧美日韩免费一区二区 | 99精品欧美一区二区 | 久草视频在线观 |