日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 循环神经网络 >内容正文

循环神经网络

RNN LSTM 循环神经网络 (分类例子)

發布時間:2025/3/15 循环神经网络 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 RNN LSTM 循环神经网络 (分类例子) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

學習資料:

  • 相關代碼
  • 為 TF 2017 打造的新版可視化教學代碼
  • 機器學習-簡介系列?什么是RNN
  • 機器學習-簡介系列?什么是LSTM RNN
  • 本代碼基于網上這一份代碼?code

設置 RNN 的參數

這次我們會使用 RNN 來進行分類的訓練 (Classification). 會繼續使用到手寫數字 MNIST 數據集. 讓 RNN 從每張圖片的第一行像素讀到最后一行, 然后再進行分類判斷. 接下來我們導入 MNIST 數據并確定 RNN 的各種參數(hyper-parameters):

import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data tf.set_random_seed(1) # set random seed# 導入數據 mnist = input_data.read_data_sets('MNIST_data', one_hot=True)# hyperparameters lr = 0.001 # learning rate training_iters = 100000 # train step 上限 batch_size = 128 n_inputs = 28 # MNIST data input (img shape: 28*28) n_steps = 28 # time steps n_hidden_units = 128 # neurons in hidden layer n_classes = 10 # MNIST classes (0-9 digits)

接著定義?x,?y?的?placeholder?和?weights,?biases?的初始狀況.

# x y placeholder x = tf.placeholder(tf.float32, [None, n_steps, n_inputs]) y = tf.placeholder(tf.float32, [None, n_classes])# 對 weights biases 初始值的定義 weights = {# shape (28, 128)'in': tf.Variable(tf.random_normal([n_inputs, n_hidden_units])),# shape (128, 10)'out': tf.Variable(tf.random_normal([n_hidden_units, n_classes])) } biases = {# shape (128, )'in': tf.Variable(tf.constant(0.1, shape=[n_hidden_units, ])),# shape (10, )'out': tf.Variable(tf.constant(0.1, shape=[n_classes, ])) }

定義 RNN 的主體結構

接著開始定義 RNN 主體結構, 這個 RNN 總共有 3 個組成部分 (?input_layer,?cell,?output_layer). 首先我們先定義?input_layer:

def RNN(X, weights, biases):# 原始的 X 是 3 維數據, 我們需要把它變成 2 維數據才能使用 weights 的矩陣乘法# X ==> (128 batches * 28 steps, 28 inputs)X = tf.reshape(X, [-1, n_inputs])# X_in = W*X + bX_in = tf.matmul(X, weights['in']) + biases['in']# X_in ==> (128 batches, 28 steps, 128 hidden) 換回3維X_in = tf.reshape(X_in, [-1, n_steps, n_hidden_units])

接著是?cell?中的計算, 有兩種途徑:

  • 使用?tf.nn.rnn(cell, inputs)?(不推薦原因). 但是如果使用這種方法, 可以參考原因;
  • 使用?tf.nn.dynamic_rnn(cell, inputs)?(推薦). 這次的練習將使用這種方式.
  • 因 Tensorflow 版本升級原因,?state_is_tuple=True?將在之后的版本中變為默認. 對于?lstm?來說,?state可被分為(c_state, h_state).

    # 使用 basic LSTM Cell.lstm_cell = tf.contrib.rnn.BasicLSTMCell(n_hidden_units, forget_bias=1.0, state_is_tuple=True)init_state = lstm_cell.zero_state(batch_size, dtype=tf.float32) # 初始化全零 state

    如果使用tf.nn.dynamic_rnn(cell, inputs), 我們要確定?inputs?的格式.?tf.nn.dynamic_rnn?中的?time_major?參數會針對不同?inputs?格式有不同的值.

  • 如果?inputs?為 (batches, steps, inputs) ==>?time_major=False;
  • 如果?inputs?為 (steps, batches, inputs) ==>?time_major=True;
  • outputs, final_state = tf.nn.dynamic_rnn(lstm_cell, X_in, initial_state=init_state, time_major=False)

    最后是?output_layer?和?return?的值. 因為這個例子的特殊性, 有兩種方法可以求得?results.

    方式一:?直接調用final_state?中的?h_state?(final_state[1]) 來進行運算:

    results = tf.matmul(final_state[1], weights['out']) + biases['out']

    方式二:?調用最后一個?outputs?(在這個例子中,和上面的final_state[1]是一樣的):

    # 把 outputs 變成 列表 [(batch, outputs)..] * stepsoutputs = tf.unstack(tf.transpose(outputs, [1,0,2]))results = tf.matmul(outputs[-1], weights['out']) + biases['out'] #選取最后一個 output

    在?def RNN()?的最后輸出?result

    return results

    定義好了 RNN 主體結構后, 我們就可以來計算?cost?和?train_op:

    pred = RNN(x, weights, biases) cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y)) train_op = tf.train.AdamOptimizer(lr).minimize(cost)

    訓練 RNN

    訓練時, 不斷輸出?accuracy, 觀看結果:

    correct_pred = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1)) accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))# init= tf.initialize_all_variables() # tf 馬上就要廢棄這種寫法 # 替換成下面的寫法: init = tf.global_variables_initializer()with tf.Session() as sess:sess.run(init)step = 0while step * batch_size < training_iters:batch_xs, batch_ys = mnist.train.next_batch(batch_size)batch_xs = batch_xs.reshape([batch_size, n_steps, n_inputs])sess.run([train_op], feed_dict={x: batch_xs,y: batch_ys,})if step % 20 == 0:print(sess.run(accuracy, feed_dict={x: batch_xs,y: batch_ys,}))step += 1

    最終?accuracy?的結果如下:

    0.1875 0.65625 0.726562 0.757812 0.820312 0.796875 0.859375 0.921875 0.921875 0.898438 0.828125 0.890625 0.9375 0.921875 0.9375 0.929688 0.953125 ....

    原文地址: https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/5-08-RNN2/

    總結

    以上是生活随笔為你收集整理的RNN LSTM 循环神经网络 (分类例子)的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 美女裸体网站久久久 | 中文字幕免费在线播放 | 亚洲日本久久 | 在线免费观看一区二区三区 | 亚洲石原莉奈一区二区在线观看 | 精品一区二区电影 | 国产精品二区三区 | www国产无套内射com | 中国毛片在线 | av日韩一区二区三区 | 国产传媒在线 | 国产高清不卡一区 | 日本成人在线一区 | 久操视频在线观看 | 97精品一区二区视频在线观看 | 亚洲精品乱码久久久久久麻豆不卡 | 亚洲狠狠 | 性欧美色图 | 国产精品99久久久久久www | 大吊av| 中国a一片一级一片 | 乌克兰少妇性做爰 | 欧美三级视频 | 日本高清免费aaaaa大片视频 | 无码人妻久久一区二区三区不卡 | 老司机在线观看视频 | 韩国三级bd高清中字2021 | 乱码av | 男人狂揉女人下部视频 | 久久av无码精品人妻出轨 | 国产九色91回来了 | av草逼| 亚洲熟女少妇一区二区 | 秘密基地电影免费版观看国语 | 日本久久视频 | 日日骑| 国产男男chinese网站 | 3o一40一50一6o女人毛片 | 台湾色综合| 一级做a爱片久久毛片 | 青青草原在线免费 | 奴性白洁会所调教 | 窝窝午夜精品一区二区 | 黄色一级片网站 | 亚洲精品国产美女 | 日本一二区视频 | 色优久久 | 色呦呦麻豆 | 中出白浆 | 中日黄色片 | 亚洲啪啪网站 | 亚洲一级成人 | 日本护士体内she精2xxx | 久草婷婷 | 影音先锋蜜桃 | 国产精品老女人 | 欧美日韩一区二区区 | 国产精品久久久久久久久久直播 | 亚洲第一在线播放 | 91视频亚洲| 黄视频网站在线看 | 疯狂揉花蒂控制高潮h | 久久久久无码国产精品一区李宗瑞 | 久久精品国产免费 | 男女黄床上色视频 | 在线中文天堂 | 日日夜夜精品视频免费 | 91国内精品久久久久 | 最好看的日本字幕mv视频大全 | 日韩av高清在线播放 | 久久久久久久久久久久久av | 亚洲高清视频网站 | 日本免费黄色大片 | 成年人黄国产 | 亚洲情在线 | 无码人妻精品一区二区三区99日韩 | 国产成人午夜高潮毛片 | 天天草天天爽 | 国产人妻777人伦精品hd | 日韩在线导航 | 九九热精品视频在线观看 | 在线观看你懂的网址 | 97影院| 国产免费大片 | 在线观看亚洲大片短视频 | 香蕉久热 | 人妻丰满熟妇av无码区免 | 日韩中文字幕第一页 | 动漫美女揉胸 | 亚洲吧 | 懂色av蜜臀av粉嫩av分享吧最新章节 | 在线你懂的 | 欧美另类视频在线 | 日本 在线 | 午夜成人影片 | 成人在线免费看视频 | 婷婷视频一区二区三区 | 狠狠综合网 | 少妇4p|