日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

[pytorch、学习] - 9.2 微调

發布時間:2023/12/10 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 [pytorch、学习] - 9.2 微调 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

參考

9.2 微調

在前面得一些章節中,我們介紹了如何在只有6萬張圖像的Fashion-MNIST訓練數據集上訓練模型。我們還描述了學術界當下使用最廣泛規模圖像數據集ImageNet,它有超過1000萬的圖像和1000類的物體。然而,我們平常接觸到數據集的規模通常在這兩者之間。

假設我們想從圖像中識別出不同種類的椅子,然后將購買鏈接推薦給用戶。一種可能的方法是先找出100種常用的椅子,為椅子拍攝1000張不同角度的圖像,然后在收集到的圖像數據集上訓練一個分類模型。這個椅子數據集雖然可能比Fashion-MNIST數據集要龐大,但樣本仍然不及ImageNet數據集中樣本數的十分之一。這可能會導致適用于ImageNet數據集的復雜模型在這個椅子數據集上過擬合。同時,因為數據量有限,但其成本仍熱不可忽略。

另一種解決辦法是應用遷移學習(transfer learning),將從源數據集學到的知識遷移到目標數據集上。例如,雖然ImageNet數據集的圖像大多跟椅子無關,但在該數據集上訓練的模型可以抽取較通用的圖像特征,從而能夠幫助識別邊緣、紋理、形狀和物體組成等。這些類似的特征對于識別椅子也可能同樣有效。

本節我們介紹遷移學習中的一種常用技術: 微調(fine tuning)。如圖9.1所示,微調由以下4步構成。

  • 在源數據集(如ImageNet數據集)上預訓練一個神經網絡模型,即源模型。
  • 創建一個新的神經網絡模型,即目標模型。它復制了源模型上除了輸出層外的所有模型設計及其參數。我們假設這些模型參數包含了源數據集上學習到的知識,且這些知識同樣適用于目標數據集。我們還假設源模型的輸出層跟源數據集的標簽緊密相關,因此在目標模型中不予采用。
  • 為目標模型添加一個輸出大小為目標數據集類別個數的輸出層,并隨機初始化該層的模型參數。
  • 在目標數據集(如椅子數據集)上訓練目標模型。我們將從頭訓練輸出層,而其余層的參數都是基于源模型的參數微調得到的。
  • 9.2.1 熱狗識別

    接下來我們來實踐一個具體的例子: 熱狗識別。我們將基于一個小數據集在ImageNet數據集上訓練好的ResNet模型進行微調。該小數據集含有數千張包含熱狗和不包含熱狗的圖像。我們使用微調得到的模型來識別一張圖像中是否包含熱狗。

    首先,導入實驗所需要的包或模塊。torchvision的models包提供了常用的預訓練模型。如果希望獲取更多的預訓練模型,可以使用pretrained-models.pytorch倉庫.

    import torch from torch import nn, optim from torch.utils.data import Dataset, DataLoader import torchvision from torchvision.datasets import ImageFolder from torchvision import transforms from torchvision import models import osimport sys sys.path.append("..") import d2lzh_pytorch as d2ldevice = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

    9.2.1.1 獲取數據集

    我們使用的熱狗數據集是從網上抓取的,它包含1400張含熱狗的正類圖像,和同樣多包含其他食品的負類圖像。各類的1000張圖像被用于訓練,其余則用于測試。

    我們首先將壓縮后的數據集下載到路徑data_dir之下,然后在該路徑將下載好的數據集解壓,得到兩個文件夾hotdog/train和hotdog/test。這兩個文件夾下面均有hotdog和not-hotdog兩個類別文件夾,每個類別文件夾里面是圖像文件。

    data_dir = "C:/Users/1/Datasets" os.listdir(os.path.join(data_dir, 'hotdog'))

    我們創建兩個ImageFolder實例來分別讀取訓練數據集和測試數據集中的所有圖像文件

    train_imgs = ImageFolder(os.path.join(data_dir, 'hotdog/train')) test_imgs = ImageFolder(os.path.join(data_dir, 'hotdog/test'))

    下面畫出前8張正類圖像和最后8張負類圖像。

    hotdogs = [train_imgs[i][0] for i in range(8)] not_hotdogs = [train_imgs[-i- 1][0] for i in range(8)] d2l.show_images(hotdogs + not_hotdogs, 2, 8, scale=1.4)


    在訓練時,我們先從圖像中裁剪隨機大小和隨機寬高比的一塊隨機區域,然后將該區域縮放為高和寬均為224像素的輸入。測試時,我們將圖像的高和寬均縮放為256像素,然后從中裁剪出高和寬均為224像素的中心區域作為輸入。此外,我們對RGB(紅、綠、藍)三個顏色通道的數值做標準化:每個數值減去通道所有數值的平均值,再除以該通道所有數值的標準差作為輸出。

    注: 使用pretrained-models倉庫時,一定要對圖像進行相應的預處理

    All pre-trained models expect input images normalized in the same way, i.e. mini-batches of 3-channel RGB images of shape (3 x H x W), where H and W are expected to be at least 224. The images have to be loaded in to a range of [0, 1] and then normalized using mean = [0.485, 0.456, 0.406] and std = [0.229, 0.224, 0.225]

    normalize = transforms.Normalize(mean=[0.485, 0.456, 0.406 ], std = [0.229, 0.224, 0.225]) train_augs = transforms.Compose([transforms.RandomResizedCrop(size= 224),transforms.RandomHorizontalFlip(),transforms.ToTensor(),normalize ]) test_augs = transforms.Compose([transforms.Resize(size=256),transforms.CenterCrop(size=224),transforms.ToTensor(),normalize ])

    9.2.1.2 定義和初始化模型

    我們使用在ImageNet數據集上預訓練的ResNet-18作為源模型。這里指定pretrained=True來自動下載并記載預訓練的模型參數。在第一次使用時需聯網下載模型參數

    pretrained_net = models.resnet18(pretrained=True)

    打印源模型的成員變量fc。作為一個全連接層,它將ResNet最終的全局平均池化層輸出變成ImageNet數據集上1000類的輸出

    print(pretrained_net.fc)


    可見此時pretrained_net最后的輸出個數等于目標數據集的類別數1000。所以我們應該將最后的fc修改成我們需要輸出類別數:

    pretrained_net.fc = nn.Linear(512, 2)

    此時,pretrained_net的fc層就隨機初始化了,但是其他層依然保存著預訓練得到的參數。由于是在很大的ImageNet數據集上預訓練的,所以參數已經足夠好,因此一般只需使用較小的學習率來微調這些參數,而fc中的隨機參數一般需要更大的學習率從頭訓練。PyTorch可以方便的對模型的不同部分設置不同的學習參數,我們在下面代碼中將fc的學習率設置為已經預訓練過的部分的10倍

    output_params = list(map(id, pretrained_net.fc.parameters())) feature_params = filter(lambda p: id(p) not in output_params, pretrained_net.parameters())lr = 0.01 optimizer = optim.SGD([{'params': feature_params},{'params': pretrained_net.fc.parameters(), 'lr': lr * 10}],lr = lr, weight_decay=0.001)

    9.2.1.3 微調模型

    我們先定義一個使用微調的訓練函數train_fine_tuning以便多次調用。

    def train_fine_tuning(net, optimizer, batch_size = 128, num_epochs = 15):train_iter = DataLoader(ImageFolder(os.path.join(data_dir, 'hotdog/train'), transform = train_augs), batch_size, shuffle=True)test_iter = DataLoader(ImageFolder(os.path.join(data_dir, 'hotdog/test'), transform=test_augs), batch_size)loss = torch.nn.CrossEntropyLoss()d2l.train(train_iter, test_iter, net, loss, optimizer, device, num_epochs)

    根據前面的設置,我們將以10倍的學習率從頭訓練目標模型的輸出層參數。

    train_fine_tuning(pretrained_net, optimizer)


    作為對比,我們定義一個相同的模型,但將它的所有模型參數都初始化為隨機值。由于整個模型都需要從頭訓練,我們可以使用較大的學習率。

    scratch_net = models.resnet18(pretrained=False, num_classes=2) lr = 0.1 optimizer = optim.SGD(scratch_net.parameters(), lr = lr, weight_decay = 0.001) train_fine_tuning(scratch_net, optimizer)

    總結

    以上是生活随笔為你收集整理的[pytorch、学习] - 9.2 微调的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。