图像识别开源代码_灰度图像着色开源代码
Victory組近期整理了灰度圖像著色開源代碼,文章刊登于《中國計算機學會計算機視覺專委會簡報》2019年第2期上。
灰度圖像(gray image)是每個像素只有一個采樣顏色的圖像,即單通道圖像,這類圖像通常顯示為從最暗黑色到最亮的白色的灰度,理論上這個采樣可以任何顏色的不同深淺,甚至可以是不同亮度上的不同顏色。
灰度圖像著色是將單通道的灰度圖像,通過一定的操作,使其成為三通道的彩色圖像的方法,在在影視處理、數字娛樂和動漫制作等方面有著廣泛的應用前景。
在灰度圖像著色領域,傳統方法信息提取率不高,著色效果不理想,但隨著人工智能的不斷發展,灰度圖像著色的效果越來越讓人滿意。目前灰度圖像著色一般模式為:首先利用神經網絡的信息提取的高效性,對圖像中的各類信息及特征進行提取,構建并訓練深度學習模型。訓練網絡時與原圖像進行對比,逐漸減小網絡輸出結果的信息、分類等各類型的損失。訓練完成后,只需向網絡輸入一張灰度圖片,即可生成一張顏色飽滿、鮮明逼真的彩色圖片。下圖為灰度圖像著色示意圖。
圖1 灰度圖像著色示意圖
本文著重介紹幾個基于深度學習的灰度圖像說色技術的開源代碼,包括訓練深度學習模型的常用數據集和幾個經典的圖像著色深度神經網絡的模型。
1.ImageNet數據集
介紹:ImageNet 是一個計算機視覺系統識別項目,是目前世界上圖像識別最大的數據庫。是美國斯坦福的計算機科學家,模擬人類的識別系統建立的。能夠從圖片識別物體。ImageNet是一個非常有前景的研究項目,未來用在機器人身上,就可以直接辨認物品和人了。超過1400萬的圖像URL被ImageNet手動注釋,以指示圖片中的對象;在至少一百萬個圖像中,還提供了邊界框。ImageNet包含2萬多個類別; 一個典型的類別,如“氣球”或“草莓”,包含數百個圖像。
主頁:http://www.image-net.org/
2.Place365數據集
介紹:Places365是Places2數據庫的最新子集。 Places365有兩個版本:Places365-Standard和Places365-Challenge。Places365-Standard系列列車擁有來自365個場景類別的約180萬張圖像,每張圖像最多可存儲5000張圖像類別。Places365-Challeng系列還有620萬張圖片以及Places365-Standard的所有圖片(所以總共800萬張圖片),每張圖片最多有40,000張。
主頁:http://places2.csail.mit.edu/
3.Colorful image colorization(CNN模型)
論文:Zhang R, Isola P,Efros A A. Colorful image colorization[C]//European conference on computervision. Springer, Cham, 2016: 649-666.
工作:該方案在自動圖像著色的圖形學領域取得了進步:設計了一個合適的損失函數來處理著色問題中的多模不確定性,維持了顏色的多樣性;介紹了一種新型的著色算法評估框架,而且這種評估框架有應用到其他圖像合成任務的潛力;通過在百萬數量級的彩色圖片上訓練在這類任務上抵達了一個新的水準。該方法將圖像著色任務轉化為一個自監督表達學習的任務,并且在一些基準上獲得了最好的效果。下圖為網絡結構圖。
圖2 Colorful image colorization網絡結構圖
代碼:http://richzhang.github.io/colorization/
4.Image Colorization with Generative Adversarial Networks(GAN模型)
論文:NazeriK, Ng E. Image Colorization with Generative Adversarial Networks[J]. arXivpreprint arXiv:1803.05400, 2018.
工作:該方法使用GAN自動將灰度圖像著色到可接受的視覺程度的彩色圖像。將當前方法擴展到高分辨率圖像。網絡是針對公開可用的數據集(如CIFAR-10和Places365)進行訓練。下圖為該網絡結構圖:
圖3 網絡結構圖
5.Interactive Deep Colorization(CNN模型)
論文:ZhangR, Zhu J Y, Isola P, et al. Real-time user-guided image colorization withlearned deep priors[J]. arXiv preprint arXiv:1705.02999, 2017.
工作:該方法是一種用于用戶引導的圖像著色的深度學習方法。系統將灰度圖像以及本地用戶的提示共同映射帶卷積神經網絡(CNN)中去,最終輸出彩色圖像。該方法通過模擬用戶輸入訓練一百萬張圖像。為了引導用戶進行有效的輸入選擇,系統根據輸入圖像和當前用戶輸入推薦可能的顏色作為備選顏色。著色在單個前饋過程中執行,可實現實時使用。下圖為該方法的網絡結構圖:
圖4 Interactive DeepColorization網絡結構圖
代碼:https://richzhang.github.io/ideepcolor
6.Automatic Colorization of Grayscale Images(CNN模型)
論文:IizukaS, Simo-Serra E, Ishikawa H. Let there be color!: joint end-to-end learning ofglobal and local image priors for automatic image colorization withsimultaneous classification[J]. ACM Transactions on Graphics (TOG), 2016,35(4): 110.
工作:該方法結合了全局先驗和局部圖像特征。基于卷積神經網絡,加入深層網絡具有融合層,允許網絡合并小圖像塊的局部信息和整個圖像的全局信息,以端到端的方式進行訓練。此外,與大多數基于CNN的現有方法不同,該架構可以處理任何分辨率的圖像。利用現有的大型場景分類數據庫來訓練模型,利用數據集的類標簽來更有效地和區別地學習局部信息和全局信息。下圖為模型示意圖:
圖5 Automatic Colorization of Grayscale Images模型示意圖
代碼:https://github.com/williamFalcon/pix2pix-keras
7.Deep Exemplar-basedColorization(CNN模型)
論文:He M, Chen D, Liao J, et al.Deep exemplar-based colorization[J]. ACM Transactions on Graphics (TOG), 2018,37(4): 47.
工作:該方法是一種基于樣本的局部著色的深度學習方法。該方法使用的端到端著色網絡不是像傳統的基于示例的方法那樣使用手工制作的規則,而是學習如何從大規模數據中選擇傳播方式和預測顏色。即使在使用與輸入灰度圖像無關的參考圖像時,該方法也可以很好地執行并且很好地推廣。該網絡允許用戶通過簡單地提供不同的參考來實現可定制的結果,只需選擇頂部參考建議,就可以完全自動執行著色。
代碼:https://github.com/msracver/Deep-Exemplar-based-Colorization
于浩洋
北京電子科技學院在讀研究生,研究方向為同態加密,圖像生成。
Email:
pec7@163.com
創作挑戰賽新人創作獎勵來咯,堅持創作打卡瓜分現金大獎總結
以上是生活随笔為你收集整理的图像识别开源代码_灰度图像着色开源代码的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 代码实现tan graph model
- 下一篇: java使用Encoding导什么包_S