日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人工智能 > 循环神经网络 >内容正文

循环神经网络

RNN LSTM 循环神经网络 (分类例子)

發(fā)布時(shí)間:2025/3/15 循环神经网络 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 RNN LSTM 循环神经网络 (分类例子) 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

學(xué)習(xí)資料:

  • 相關(guān)代碼
  • 為 TF 2017 打造的新版可視化教學(xué)代碼
  • 機(jī)器學(xué)習(xí)-簡(jiǎn)介系列?什么是RNN
  • 機(jī)器學(xué)習(xí)-簡(jiǎn)介系列?什么是LSTM RNN
  • 本代碼基于網(wǎng)上這一份代碼?code

設(shè)置 RNN 的參數(shù)

這次我們會(huì)使用 RNN 來(lái)進(jìn)行分類(lèi)的訓(xùn)練 (Classification). 會(huì)繼續(xù)使用到手寫(xiě)數(shù)字 MNIST 數(shù)據(jù)集. 讓 RNN 從每張圖片的第一行像素讀到最后一行, 然后再進(jìn)行分類(lèi)判斷. 接下來(lái)我們導(dǎo)入 MNIST 數(shù)據(jù)并確定 RNN 的各種參數(shù)(hyper-parameters):

import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data tf.set_random_seed(1) # set random seed# 導(dǎo)入數(shù)據(jù) mnist = input_data.read_data_sets('MNIST_data', one_hot=True)# hyperparameters lr = 0.001 # learning rate training_iters = 100000 # train step 上限 batch_size = 128 n_inputs = 28 # MNIST data input (img shape: 28*28) n_steps = 28 # time steps n_hidden_units = 128 # neurons in hidden layer n_classes = 10 # MNIST classes (0-9 digits)

接著定義?x,?y?的?placeholder?和?weights,?biases?的初始狀況.

# x y placeholder x = tf.placeholder(tf.float32, [None, n_steps, n_inputs]) y = tf.placeholder(tf.float32, [None, n_classes])# 對(duì) weights biases 初始值的定義 weights = {# shape (28, 128)'in': tf.Variable(tf.random_normal([n_inputs, n_hidden_units])),# shape (128, 10)'out': tf.Variable(tf.random_normal([n_hidden_units, n_classes])) } biases = {# shape (128, )'in': tf.Variable(tf.constant(0.1, shape=[n_hidden_units, ])),# shape (10, )'out': tf.Variable(tf.constant(0.1, shape=[n_classes, ])) }

定義 RNN 的主體結(jié)構(gòu)

接著開(kāi)始定義 RNN 主體結(jié)構(gòu), 這個(gè) RNN 總共有 3 個(gè)組成部分 (?input_layer,?cell,?output_layer). 首先我們先定義?input_layer:

def RNN(X, weights, biases):# 原始的 X 是 3 維數(shù)據(jù), 我們需要把它變成 2 維數(shù)據(jù)才能使用 weights 的矩陣乘法# X ==> (128 batches * 28 steps, 28 inputs)X = tf.reshape(X, [-1, n_inputs])# X_in = W*X + bX_in = tf.matmul(X, weights['in']) + biases['in']# X_in ==> (128 batches, 28 steps, 128 hidden) 換回3維X_in = tf.reshape(X_in, [-1, n_steps, n_hidden_units])

接著是?cell?中的計(jì)算, 有兩種途徑:

  • 使用?tf.nn.rnn(cell, inputs)?(不推薦原因). 但是如果使用這種方法, 可以參考原因;
  • 使用?tf.nn.dynamic_rnn(cell, inputs)?(推薦). 這次的練習(xí)將使用這種方式.
  • 因 Tensorflow 版本升級(jí)原因,?state_is_tuple=True?將在之后的版本中變?yōu)槟J(rèn). 對(duì)于?lstm?來(lái)說(shuō),?state可被分為(c_state, h_state).

    # 使用 basic LSTM Cell.lstm_cell = tf.contrib.rnn.BasicLSTMCell(n_hidden_units, forget_bias=1.0, state_is_tuple=True)init_state = lstm_cell.zero_state(batch_size, dtype=tf.float32) # 初始化全零 state

    如果使用tf.nn.dynamic_rnn(cell, inputs), 我們要確定?inputs?的格式.?tf.nn.dynamic_rnn?中的?time_major?參數(shù)會(huì)針對(duì)不同?inputs?格式有不同的值.

  • 如果?inputs?為 (batches, steps, inputs) ==>?time_major=False;
  • 如果?inputs?為 (steps, batches, inputs) ==>?time_major=True;
  • outputs, final_state = tf.nn.dynamic_rnn(lstm_cell, X_in, initial_state=init_state, time_major=False)

    最后是?output_layer?和?return?的值. 因?yàn)檫@個(gè)例子的特殊性, 有兩種方法可以求得?results.

    方式一:?直接調(diào)用final_state?中的?h_state?(final_state[1]) 來(lái)進(jìn)行運(yùn)算:

    results = tf.matmul(final_state[1], weights['out']) + biases['out']

    方式二:?調(diào)用最后一個(gè)?outputs?(在這個(gè)例子中,和上面的final_state[1]是一樣的):

    # 把 outputs 變成 列表 [(batch, outputs)..] * stepsoutputs = tf.unstack(tf.transpose(outputs, [1,0,2]))results = tf.matmul(outputs[-1], weights['out']) + biases['out'] #選取最后一個(gè) output

    在?def RNN()?的最后輸出?result

    return results

    定義好了 RNN 主體結(jié)構(gòu)后, 我們就可以來(lái)計(jì)算?cost?和?train_op:

    pred = RNN(x, weights, biases) cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y)) train_op = tf.train.AdamOptimizer(lr).minimize(cost)

    訓(xùn)練 RNN

    訓(xùn)練時(shí), 不斷輸出?accuracy, 觀看結(jié)果:

    correct_pred = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1)) accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))# init= tf.initialize_all_variables() # tf 馬上就要廢棄這種寫(xiě)法 # 替換成下面的寫(xiě)法: init = tf.global_variables_initializer()with tf.Session() as sess:sess.run(init)step = 0while step * batch_size < training_iters:batch_xs, batch_ys = mnist.train.next_batch(batch_size)batch_xs = batch_xs.reshape([batch_size, n_steps, n_inputs])sess.run([train_op], feed_dict={x: batch_xs,y: batch_ys,})if step % 20 == 0:print(sess.run(accuracy, feed_dict={x: batch_xs,y: batch_ys,}))step += 1

    最終?accuracy?的結(jié)果如下:

    0.1875 0.65625 0.726562 0.757812 0.820312 0.796875 0.859375 0.921875 0.921875 0.898438 0.828125 0.890625 0.9375 0.921875 0.9375 0.929688 0.953125 ....

    原文地址: https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/5-08-RNN2/

    總結(jié)

    以上是生活随笔為你收集整理的RNN LSTM 循环神经网络 (分类例子)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

    如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。