日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

PyTorch 笔记(16)— torch.nn.Sequential、torch.nn.Linear、torch.nn.RelU

發布時間:2023/11/27 74 豆豆
生活随笔 收集整理的這篇文章主要介紹了 PyTorch 笔记(16)— torch.nn.Sequential、torch.nn.Linear、torch.nn.RelU 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

PyTorch 中的 torch.nn 包提供了很多與實現神經網絡中的具體功能相關的類,這些類涵蓋了深度神經網絡模型在搭建和參數優化過程中的常用內容,比如神經網絡中的卷積層、池化層、全連接層這類層次構造的方法、防止過擬合的參數歸一化方法、Dropout 方法,還有激活函數部分的線性激活函數、非線性激活函數相關的方法,等等。

下面使用 PyTorchtorch.nn 包來簡化我們之前的代碼,開始部分的代碼變化不大,如下所示:

import torch as tbatch_n = 100
input_data = 10000
hidden_layer = 100
output_data = 10x = t.randn(batch_n, input_data, requires_grad=False)
y = t.randn(batch_n, output_data, requires_grad=False)

這里僅定義了輸入和輸出的變量,之前定義神經網絡模型中的權重參數的代碼被刪減了,這和我們之后在代碼中使用的 torch.nn 包中的類有關,因為這個類能夠幫助我們自動生成和初始化對應維度的權重參數。模型搭建的代碼如下:

models = t.nn.Sequential(t.nn.Linear(input_data, hidden_layer),t.nn.ReLU(),t.nn.Linear(hidden_layer, output_data))

torch.nn.Sequential 括號內的內容就是我們搭建的神經網絡模型的具體結: *

  • torch.nn.Linear(input_data,hidden_layer) 完成從輸入層到隱藏層的線性變換;
  • torch.nn.ReLU() 為激活函數;
  • torch.nn.Linear(hidden_layer, output_data) 完成從隱藏層到輸出層的線性變換;

下面分別對在以上代碼中使用的 torch.nn.Sequentialtorch.nn.Lineartorch.nn.RelU 這三個類進行詳細介紹。

1. torch.nn.Sequential

torch.nn.Sequential 類是 torch.nn 中的一種序列容器,通過在容器中嵌套各種實現神經網絡中具體功能相關的類,來完成對神經網絡模型的搭建,最主要的是,參數會按照我們定義好的序列自動傳遞下去。

我們可以將嵌套在容器中的各個部分看作各種不同的模塊,這些模塊可以自由組合。模塊的加入一般有兩種方式,一種是在以上代碼中使用的直接嵌套,另一種是以 orderdict 有序字典的方式進行傳入,這兩種方式的唯一區別是:

  • 使用 orderdict 搭建的模型的每個模塊都有我們自定義的名字;
  • 而前者默認使用從零開始的數字序列作為每個模塊的名字;

下面通過示例來直觀地看一下使用這兩種方式搭建的模型之間的區別。

首先,使用直接嵌套搭建的模型代碼如下:

import torch as tbatch_n = 100
input_data = 10000
hidden_layer = 100
output_data = 10x = t.randn(batch_n, input_data, requires_grad=False)
y = t.randn(batch_n, output_data, requires_grad=False)models = t.nn.Sequential(t.nn.Linear(input_data, hidden_layer),t.nn.ReLU(),t.nn.Linear(hidden_layer, output_data))print(models)

對該模型的結構進行打印輸出,結果如下:

Sequential((0): Linear(in_features=10000, out_features=100, bias=True)(1): ReLU()(2): Linear(in_features=100, out_features=10, bias=True)
)

使用 orderdict 有序字典進行傳入來搭建的模型代碼如下:

import torch as t
from collections import OrderedDictbatch_n = 100
input_data = 10000
hidden_layer = 100
output_data = 10x = t.randn(batch_n, input_data, requires_grad=False)
y = t.randn(batch_n, output_data, requires_grad=False)models = t.nn.Sequential(OrderedDict([("Line1", t.nn.Linear(input_data, hidden_layer)),("ReLU", t.nn.ReLU()),("Line2",t.nn.Linear(hidden_layer, output_data))]))print(models)

輸出結果如下:

Sequential((Line1): Linear(in_features=10000, out_features=100, bias=True)(ReLU): ReLU()(Line2): Linear(in_features=100, out_features=10, bias=True)
)

通過對這兩種方式進行比較,我們會發現,對模塊使用自定義的名稱可讓我們更便捷地找到模型中相應的模塊并進行操作。

2. torch.nn.Linear

torch.nn.Linear 類用于定義模型的線性層,即完成前面提到的不同的層之間的線性變換。

torch.nn.Linear 類接收的參數有三個,分別是輸入特征數、輸出特征數和是否使用偏置,設置是否使用偏置的參數是一個布爾值,默認為 True ,即使用偏置。

在實際使用的過程中,我們只需將輸入的特征數和輸出的特征數傳遞給 torch.nn.Linear 類,就會自動生成對應維度的權重參數和偏置,對于生成的權重參數和偏置,我們的模型默認使用了一種比之前的簡單隨機方式更好的參數初始化方法。

根據我們搭建模型的輸入、輸出和層次結構需求,它的輸入是在一個批次中包含 100 個特征數為 1000 的數據,最后得到 100 個特征數為 10 的輸出數據,中間需要經過兩次線性變換,所以要使用兩個線性層,兩個線性層的代碼分別是

  • torch.nn.Linear(input_data,hidden_layer)
  • torch.nn.Linear(hidden_layer, output_data)

可看到,其代替了之前使用矩陣乘法方式的實現,代碼更精煉、簡潔。

3. torch.nn.ReLU

torch.nn.ReLU 類屬于非線性激活分類,在定義時默認不需要傳入參數。

當然,在 torch.nn 包中還有許多非線性激活函數類可供選擇,比如之前講到的 PReLULeakyReLU
TanhSigmoidSoftmax 等。

在掌握 torch.nn.Sequentialtorch.nn.Lineartorch.nn.RelU 的使用方法后,快速搭建更復雜的多層神經網絡模型變為可能,而且在整個模型的搭建過程中不需要對在模型中使用到的權重參數和偏置進行任何定義和初始化說明,因為參數已經完成了自動生成。

總結

以上是生活随笔為你收集整理的PyTorch 笔记(16)— torch.nn.Sequential、torch.nn.Linear、torch.nn.RelU的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。