日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【小白学PyTorch】5.torchvision预训练模型与数据集全览

發布時間:2025/3/8 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【小白学PyTorch】5.torchvision预训练模型与数据集全览 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

【機器學習煉丹術】的學習筆記分享

<<小白學PyTorch>>

小白學PyTorch | 4 構建模型三要素與權重初始化

小白學PyTorch | 3 淺談Dataset和Dataloader

小白學PyTorch | 2 淺談訓練集驗證集和測試集

小白學PyTorch | 1 搭建一個超簡單的網絡

小白學PyTorch | 動態圖與靜態圖的淺顯理解

文章目錄:

  • 1 torchvision.datssets

  • 2 torchvision.models

  • 模型比較

本文建議復制代碼去跑跑看,增加一下手感。如果有些數據需要科學上網,公眾號回復【torchvision】獲取代碼和數據。

torchvision

官網上的介紹(翻墻):The torchvision package consists of popular datasets, model architectures, and common image transformations for computer vision.

翻譯過來就是:torchvision包由流行的數據集、模型體系結構和通用的計算機視覺圖像轉換組成。簡單地說就是常用數據集+常見模型+常見圖像增強方法

這個torchvision中主要有包組成:

  • torchvision.datasets

  • torchvision.models

  • torchvision.transforms

1 torchvision.datssets

包含賊多的數據集,包含下面的:

官方說明了:All the datasets have almost similar API. They all have two common arguments: transform and target_transform to transform the input and target respectively.

翻譯過來就是:每一個數據集的API都是基本相同的。他們都有兩個相同的參數:transform和target_transform(后面細講)

我們就用最經典最簡單的MNIST手寫數字數據集作為例子,先看這個的API:

包含5個參數:

  • root:就是你想要保存MNIST數據集的位置,如果download是Flase的話,則會從目標位置讀取數據集;

  • download:True的話就會自動從網上下載這個數據集,到root的位置;

  • train:True的話,數據集下載的是訓練數據集;False的話則下載測試數據集(真方便,都不用自己劃分了)

  • transform:這個是對圖像進行處理的transform,比方說旋轉平移縮放,輸入的是PIL格式的圖像(不是tensor矩陣);

  • target_transform:這個是對圖像標簽進行處理的函數(這個我沒用過不太確定,也許是做標簽平滑那種的處理?)

【下面用代碼進一步理解】

import?torchvision mydataset?=?torchvision.datasets.MNIST(root='./',train=True,transform=None,target_transform=None,download=True)

運行結果如下,表示下載完畢(我不太確定這個下載數據集是否需要翻墻,我會把這次需要用的代碼和數據集放到公眾號,后臺回復【torchvision】獲取,下載出現問題請務必私戳我)

之后我們需要用到上一節課講到的dataloader的內容:

from?torch.utils.data?import?Dataset,DataLoader myloader?=?DataLoader(dataset=mydataset,batch_size=16) for?i,(data,label)?in?enumerate(myloader):print(data.shape)print(label.shape)break

這時候會拋出一個錯誤:

大致看一看,就是pytorch的這個dataloader不是可以把數據集分成batch嘛,這個dataloder只能把tensor或者numpy這樣的組合成batch,而現在的數據集的格式是PIL格式。這里驗證了之前說到的,transform這個輸入是PIL格式的圖片,解決方法是:transform不能是None,我們需要將PIL轉化成tensor才可以

所以我們把上面的transform稍作修改:

mydataset?=?torchvision.datasets.MNIST(root='./',train=True,????????transform=torchvision.transforms.ToTensor(),target_transform=None,![](https://p3-juejin.byteimg.com/tos-cn-i-k3u1fbpfcp/071a7b749c094d30b482c29f16f8ec08~tplv-k3u1fbpfcp-zoom-1.image)????????download=True)

重新運行的時候可以得到結果:結果中,16表示一個batch有16個樣本,1表示這是單通道的灰度圖片,28表示MNIST數據集圖片是的大小,然后每一個圖片有一個label。

想要獲取其他的數據集也是一樣的,不過這里就用MNIST作為舉例,其他的相同。

2 torchvision.models

預訓練模型中torchvision提供了很多種,大體分成下面四類:

分別是分類模型,語義模型,目標檢測模型和視頻分類模型。這里呢因為分類模型比較常見也比較基礎,就主要介紹這個好啦。

在torch1.6.0版本中(應該是比較近的版本),主要包含下面的預訓練模型:

構建模型可以通過下面的代碼:

import?torchvision.models?as?models resnet18?=?models.resnet18() alexnet?=?models.alexnet() vgg16?=?models.vgg16() squeezenet?=?models.squeezenet1_0() densenet?=?models.densenet161() inception?=?models.inception_v3() googlenet?=?models.googlenet() shufflenet?=?models.shufflenet_v2_x1_0() mobilenet?=?models.mobilenet_v2() resnext50_32x4d?=?models.resnext50_32x4d() wide_resnet50_2?=?models.wide_resnet50_2() mnasnet?=?models.mnasnet1_0()

這樣構建的模型的權重值是隨機的,只有結構是保存的。想要獲取預訓練的模型,則需要設置參數pretrained:

import?torchvision.models?as?models resnet18?=?models.resnet18(pretrained=True) alexnet?=?models.alexnet(pretrained=True) squeezenet?=?models.squeezenet1_0(pretrained=True) vgg16?=?models.vgg16(pretrained=True) densenet?=?models.densenet161(pretrained=True) inception?=?models.inception_v3(pretrained=True) googlenet?=?models.googlenet(pretrained=True) shufflenet?=?models.shufflenet_v2_x1_0(pretrained=True) mobilenet?=?models.mobilenet_v2(pretrained=True) resnext50_32x4d?=?models.resnext50_32x4d(pretrained=True) wide_resnet50_2?=?models.wide_resnet50_2(pretrained=True) mnasnet?=?models.mnasnet1_0(pretrained=True)

我看官網的英文講解,提到了一點:似乎這些模型的預訓練數據集都是ImageNet的那個數據集,輸入圖片都是3通道的,并且要求輸入圖片的寬高不小于224像素,并且要求輸入圖片像素值的范圍在0到1之間,然后做一個normalization標準化。

不知道各位在看一些案例的時候,有沒有看到這個標準化:mean = [0.485, 0.456, 0.406] 和 std = [0.229, 0.224, 0.225],這個應該是ImageNet的圖片的標準化的參數。

這些預訓練的模型參數不確定能不能直接下載,我也就把這些模型存起來一并放在了公眾號的后臺,依然是回復【torchvision】獲取。

得到了.pth文件之后使用torch.load來加載即可。

#?torch.save(model,?'model.pth') model?=?torch.load('model.pth')

模型比較

最后呢,torchvision官方提供了一個不同模型在Imagenet 1-crop 的一個錯誤率的比較。可以一起來看看到底哪個模型比較好使。這里我放了一些常見的模型。。像是Wide ResNet這種變種我就不放了。

網絡Top-1 errorTop-5 error
AlexNet43.4520.91
VGG-1130.9811.37
VGG-1330.0710.75
VGG-1628.419.62
VGG-1927.629.12
VGG-13 with BN28.459.63
VGG-19 with BN25.768.15
Resnet-1830.2410.92
Resnet-3426.708.58
Resnet-5023.857.13
Resnet-10122.636.44
Resnet-15221.695.94
SqueezeNet 1.141.8119.38
Densenet-16122.356.2

整體來看,還是Resnet殘差網絡效果好。不過EfficientNet效果更好,不過這個模型在Torchvision中沒有提供,會在之后專門講解和提供代碼模板。(先挖坑)。

- END -

往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習及深度學習筆記等資料打印機器學習在線手冊深度學習筆記專輯《統計學習方法》的代碼復現專輯 AI基礎下載機器學習的數學基礎專輯獲取一折本站知識星球優惠券,復制鏈接直接打開:https://t.zsxq.com/662nyZF本站qq群1003271085。加入微信群請掃碼進群(如果是博士或者準備讀博士請說明): 與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的【小白学PyTorch】5.torchvision预训练模型与数据集全览的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。