drive数据集_英伟达的最强人脸GAN开源了,它吃的高清数据集也开源了
量子位 出品 | 公眾號 QbitAI
你大概還沒忘記,英偉達去年年底推出的GAN,它合成的人臉甚至騙得過肉眼。
如今,它終于有了自己的名字,叫StyleGAN。顧名思義,GAN的生成器,是借用風格遷移的思路重新發明的,能在粗糙、中度、精細三個層面調節圖像生成。
更重要的是,你現在也能自己養一只這樣的GAN了:
官方實現的代碼開源了,提供了許多預訓練好的模型,自然也支持自己訓練模型。
另外,Flicker人像照片的高清數據集 (FFHQ) 也開源了,包含70,000張高清人臉。
官方實現
首先,送上來自英偉達的友情提示:
這個實現可以用Linux跑,也可以用Windows跑,但墻裂推薦大家用Linux跑,為性能和兼容性著想。
除此之外,必需品還有Python 3.6,和TensorFlow 1.10以上 (支持GPU) 。
預訓練模型
這里,用pretrained_example.py舉個簡易的栗子。執行的時候,腳本會從Google Drive下載一個預訓練的StyleGAN生成器,然后用它來生成圖像:
1預訓練的生成器有三種食用方法:
一是Gs.run()快速模式,這里的輸入和輸出都是numpy陣列:
1二是用Gs.get_output_for()把生成器整合到一個更大的TensorFlow表達式里面:
1三是查找Gs.components.mapping和Gs.components.synthesis,訪問生成器的各個子網絡。與Gs相似,這鞋子網絡也表示為dnnlib.tflib.Network的獨立示例。
1自己訓練模型
如果不滿足于預訓練的模型,想自己訓練模型,就要先:
一、處理好數據集
把數據集儲存為多重分辨率的TFRecords,訓練和評估腳本都是在這上面跑:
1數據集表示為一個目錄,里面的每張圖像都有多種不同的分辨率,用于高效的streaming。每個分辨率都有一個自己的*.tfrecords文件。數據有標注的話,也是用一個分開的文件來儲存的。
二、訓練吧
官方提供的訓練過程分四步:
1. 編輯train.py,通過取消注釋或者修改某些行,來指定數據集和訓練配置;2. 用train.py來運行訓練腳本;
3. 結果會寫在一個新目錄里,叫results/-;
4. 訓練直至完成,幾天時間可能是要的。
(最好有一臺英偉達高端GPU,至少11GB的DRAM,再開始訓練。有很多臺的話,當然更好。)
至于訓練好的模型該怎樣評估,大家可以去項目頁自行觀察。
高清無碼數據集
和官方代碼實現一起發布的,就是Flickr高清人臉數據集 (FFHQ) 了。
那些幾可亂真的人臉,就是StyleGAN吃了這個數據集,才生成的。
數據集里包含7萬張1024 x 1024高清人像。英偉達說,這些照片在年齡、種族、以及圖片背景上,都有很強的多樣性。
并且,眼鏡、墨鏡、帽子這些元素,也是應有盡有。
團隊說,圖像是直接從Flickr上面扒下來,自動對齊自動裁剪而成。并且,數據集里收錄的圖片都有使用許可,無須擔心。
還不去試試
有大膽想法的同學們,可以去試試了。畢竟,不是只有生成人臉這一種功能,貓片,汽車,房間……
你還想生成一些什么?
代碼實現傳送門:https://github.com/NVlabs/stylegan
FFHQ數據集傳送門:https://github.com/NVlabs/ffhq-dataset
論文傳送門:https://arxiv.org/abs/1812.04948
— 完 —
量子位 · QbitAI
?'?' ? 追蹤AI技術和產品新動態
戳右上角「+關注」獲取最新資訊↗↗
如果喜歡,請分享or點贊吧~比心?
總結
以上是生活随笔為你收集整理的drive数据集_英伟达的最强人脸GAN开源了,它吃的高清数据集也开源了的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ppt倒计时3分钟_PPT做的又慢又丑?
- 下一篇: div中内容靠右_python读取exc