基于U-net的肝脏肿瘤分割实战(Pytorch实现)
這是我去年本科畢業(yè)設(shè)計(jì)的一部分,去年使用tensorflow去實(shí)現(xiàn)的,這幾天就隨手用Pytorch做了一下實(shí)現(xiàn)。肝臟腫瘤的分割是醫(yī)學(xué)影像分割里面比較重要的一部分,實(shí)現(xiàn)從人的CT或MRI影像中將肝臟區(qū)域腫瘤給分割出來,對臨床治療還是有一定的實(shí)際意義。在這里網(wǎng)絡(luò)還是使用最簡單的U-net網(wǎng)絡(luò),U-net作為醫(yī)學(xué)影像分割中的最經(jīng)典的方法,其Encoder和Decoder的結(jié)構(gòu)以及對稱式的設(shè)計(jì)對后面的很多網(wǎng)絡(luò)都有很大的影響。
網(wǎng)絡(luò)結(jié)構(gòu)
跳躍連接部分就是講encoder的特征圖和decoder的特征圖在通道緯度上做拼接。
數(shù)據(jù)集介紹
因?yàn)獒t(yī)學(xué)影像的特殊性,大多數(shù)人的數(shù)據(jù)集都不會(huì)公開,這里介紹一個(gè)公開數(shù)據(jù)集:3D-IRCADB,里面包含有20個(gè)病人的CT影像序列,每個(gè)病人包含大概幾百張吧,記不清楚了,文件是以DICOM格式存儲(chǔ)的,mask也是用的DICOM格式存儲(chǔ)。我不是很習(xí)慣,所以我先將圖像都處理成了png格式。長這樣:
image:
label:
轉(zhuǎn)換的過程會(huì)用到一個(gè)第三方庫,不詳細(xì)介紹,會(huì)重新寫一篇博客。
整個(gè)訓(xùn)練過程以及網(wǎng)絡(luò)結(jié)構(gòu)跟我的前兩片博客完全一致,就是dataloader修改了一下,這里不詳細(xì)介紹了,完整的代碼可以訪問我的Github找到,用了兩千張圖像訓(xùn)練了80個(gè)epoch得到的結(jié)果從肉眼上看起來很不錯(cuò)。
Dataset.py
# !/usr/bin/python3 # -*- coding:utf-8 -*- # Author:WeiFeng Liu # @Time: 2021/12/9 下午1:28 """ 使用的是視網(wǎng)膜血管分割的數(shù)據(jù)集,訓(xùn)練集就二十張圖像 """ import torch import cv2 import os import glob from torch.utils.data import Dataset import randomclass _3Dircadb_Dataset(Dataset):def __init__(self,data_path):self.data_path = data_pathself.image_path = glob.glob(os.path.join(data_path,'image/*.png'))self.label_path = glob.glob(os.path.join(data_path,'label/*.png'))def augment(self,image,mode):""":param image::param mode: 1 :水平翻轉(zhuǎn) 0 : 垂直翻轉(zhuǎn) -1 水平+垂直翻轉(zhuǎn):return:"""file = cv2.flip(image,mode)return filedef __len__(self):return len(self.image_path)def __getitem__(self,index):image_path = self.image_path[index]label_path = self.label_path[index]#讀取image = cv2.imread(image_path)label = cv2.imread(label_path)#轉(zhuǎn)為灰度圖image = cv2.cvtColor(image,cv2.COLOR_BGR2GRAY)label = cv2.cvtColor(label,cv2.COLOR_BGR2GRAY)# 隨機(jī)進(jìn)行數(shù)據(jù)增強(qiáng),2時(shí)不做數(shù)據(jù)增強(qiáng)mode = random.choice([-1, 0, 1, 2])if mode != 2:image = self.augment(image, mode)label = self.augment(label, mode)image = image.reshape(1, image.shape[0], image.shape[1])label = label.reshape(1, label.shape[0], label.shape[1])# 標(biāo)簽二值化 ,將255 -> 1label = label / 255return image, label# isbi = _3Dircadb_Dataset(r"Dataset/train/") # print(len(isbi)) # train_loader = torch.utils.data.DataLoader(isbi, # batch_size=2, # shuffle=True) # for image ,label in train_loader: # print(image.shape)test
image
label
segment result
總結(jié)
以上是生活随笔為你收集整理的基于U-net的肝脏肿瘤分割实战(Pytorch实现)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python opencv给证件照换底色
- 下一篇: 语义分割损失函数系列(1):交叉熵损失函