日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人工智能 > ChatGpt >内容正文

ChatGpt

你穿衣品味还不如AI,这有一款时尚着装网络模型

發(fā)布時(shí)間:2023/12/4 ChatGpt 48 豆豆
生活随笔 收集整理的這篇文章主要介紹了 你穿衣品味还不如AI,这有一款时尚着装网络模型 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
全世界只有3.14 %?的人關(guān)注了青少年數(shù)學(xué)之旅
有一件衣服的時(shí)候,怎樣的小改動(dòng)可以提升其整體的時(shí)尚性?近日 UT 奧斯汀、康奈爾大學(xué)、喬治亞理工和 Facebook AI 研究中心的研究者提出了一種名為 Fashon ++ 的模型,用于給一件衣服進(jìn)行改進(jìn),以便能夠最好地提升其時(shí)尚性。
AI 在時(shí)尚領(lǐng)域的應(yīng)用在近幾年逐漸增加,很多研究者利用流行的生成模型架構(gòu)進(jìn)行人物換衣和自動(dòng)上妝。一些研究者近來將目光投向了時(shí)裝設(shè)計(jì)領(lǐng)域。當(dāng)有一件成衣時(shí),人們更希望的是對(duì)其進(jìn)行微小的改動(dòng),以此提升時(shí)裝整體的時(shí)尚效果,那么 AI 是否可行呢?這篇論文說明,AI 也是可以幫助人們進(jìn)行時(shí)裝設(shè)計(jì)的。

論文地址:https://arxiv.org/abs/1904.09261

AI 一鍵改衣

在這篇論文中,研究者提出了一個(gè) AI 系統(tǒng),名為 Fashion++。這是一個(gè)使用深度圖像生成模型的神經(jīng)網(wǎng)絡(luò),用于識(shí)別衣服,并提出對(duì)衣服的修改建議。例如,模型會(huì)建議對(duì)衣服進(jìn)行移除、添加或移動(dòng)位置。它也可以對(duì)衣服的一部分進(jìn)行修改,如塞好襯衣或卷起袖子。之前的一些研究中,模型會(huì)直接提出整個(gè)時(shí)裝的修改建議,或者提供一個(gè)和現(xiàn)有衣服類似的方案。而 Fashion++則會(huì)在現(xiàn)有的服裝基礎(chǔ)上進(jìn)行修改,使其更有型。

AI 具體會(huì)這樣為使用者提出時(shí)裝修改建議。如圖所示,左圖中,AI 會(huì)建議移除掉整體時(shí)裝中的披肩。在中圖中,AI 建議將女士襯衣?lián)Q成無袖的。在右圖中,則建議將衣服挽起一點(diǎn)。

模型

Fashion++ 能夠?yàn)榫唧w的時(shí)裝搭配提出建議,這樣的模型是基于深度生成網(wǎng)絡(luò)的。

如圖為模型的整體架構(gòu)。研究人員首先從材質(zhì)和形狀編碼器中獲得隱式特征。然后使用編輯模塊 F++進(jìn)行計(jì)算。在一次編輯之后,形狀生成器首先會(huì)解碼更新過的形狀特征,將其還原為一個(gè) 2D 分割遮蓋,然后研究者利用「區(qū)域性質(zhì)」廣播更新的材質(zhì)特征,將其融合到一個(gè) 2D 特征映射中。這一特征映射和更新的分割遮蓋會(huì)通過一個(gè)材質(zhì)生成器,用于生成出最后更新過的整體時(shí)裝。

訓(xùn)練過程

在訓(xùn)練之前,系統(tǒng)首先使用了一個(gè)分類器,在時(shí)裝圖像數(shù)據(jù)上學(xué)習(xí)「有時(shí)尚感」的圖像?!赣袝r(shí)尚感」的圖像作為訓(xùn)練用的參考數(shù)據(jù),然后研究者從網(wǎng)絡(luò)中獲取了大量的服裝信息,將這些圖像一步步修改,將其中的時(shí)裝部分替換為最不相似的其他部分。這樣一來,就可以生成很多負(fù)樣本,用于幫助 AI 學(xué)習(xí)什么是不時(shí)尚的圖像。

訓(xùn)練好分類器后,該系統(tǒng)會(huì)逐漸更新著裝,以使其更時(shí)尚。而后,圖像生成神經(jīng)網(wǎng)絡(luò)會(huì)對(duì)調(diào)整后的新外觀進(jìn)行渲染,即使用變分自編碼器生成輪廓,使用條件生成對(duì)抗網(wǎng)絡(luò)(cGAN)生成顏色和圖案。此外,該生成器學(xué)習(xí)到的潛在編碼還被用于識(shí)別其庫存中的哪些服裝最能實(shí)現(xiàn)該著裝方式。

數(shù)據(jù)集

在此研究中,作者使用 Chictopia10 數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。此外,作者們使用了 15930 張圖像來訓(xùn)練生成器,12744 張圖像訓(xùn)練時(shí)尚分類器。

該數(shù)據(jù)集用于提供時(shí)尚圖像,而剩余的「不時(shí)尚」圖像,根據(jù)前文所述,是通過網(wǎng)絡(luò)圖像+逐步替換的方式修改的。具體而言,研究者首先使用 Chictopia 全身時(shí)裝圖像(一個(gè)正樣本),從中選取一部分進(jìn)行修改,使用一個(gè)不同的時(shí)裝替換掉這個(gè)部分。為了提升「不時(shí)尚」圖片的選擇效果,研究者選擇的是新時(shí)裝和被替換部分之間歐幾里得距離(用 CNN 提取出的隱向量)最遠(yuǎn)的那種。

構(gòu)建訓(xùn)練集。左圖為正樣本,研究者改寫了其中的一些部分,使用歐幾里得距離最遠(yuǎn)的對(duì)應(yīng)時(shí)裝進(jìn)行替換,使其變得難看,成為負(fù)樣本(右圖)。

效果

下圖顯示了 Fashion ++推薦服裝的細(xì)微變化。

實(shí)驗(yàn)表明,該系統(tǒng)的建議使圖像更接近真實(shí)的樣本,并且人類評(píng)估者發(fā)現(xiàn) Fashion ++的建議不僅時(shí)髦而且易于實(shí)施。

研究的意義

Facebook 博客表示,這項(xiàng)工作展示了 AI 輔助技術(shù)的潛力,即使是微小、細(xì)微的變化,也能產(chǎn)生有意義的影響。研究中,自舉不時(shí)尚的穿著示例表明,即使沒有資源密集型的人工注釋,AI 系統(tǒng)也可以學(xué)習(xí)。

通過專注于簡(jiǎn)單的修改,Fashion ++可以用于開發(fā)出有助于消費(fèi)者輕松調(diào)整著裝的應(yīng)用程序,它也是時(shí)尚等領(lǐng)域運(yùn)用 AI 的一個(gè)示例。而這些領(lǐng)域,往往被認(rèn)為太有創(chuàng)意或太主觀,AI 難以掌握。

Fashion ++并不是從命令或重新定義什么時(shí)尚開始,而是從示例中學(xué)習(xí),以便提供實(shí)用的時(shí)尚建議。這樣的研究可能有一天會(huì)為人們創(chuàng)建和共享他們最喜歡的穿著提供新的方式,甚至幫助時(shí)裝設(shè)計(jì)師創(chuàng)造新的外觀。
轉(zhuǎn)載來源:機(jī)器之心部分素材源于網(wǎng)絡(luò),版權(quán)歸原作者所有如有侵權(quán)請(qǐng)留言聯(lián)系刪除,感謝合作。

寫在最后

微信公眾號(hào)“少年數(shù)學(xué)家”提供豐富的數(shù)學(xué)課外知識(shí)數(shù)學(xué)人物、數(shù)學(xué)趣談、科技與數(shù)學(xué)

想讓孩子懂得更多有趣的數(shù)學(xué)記得關(guān)注“少年數(shù)學(xué)家”

總結(jié)

以上是生活随笔為你收集整理的你穿衣品味还不如AI,这有一款时尚着装网络模型的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。