日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

哈佛大学砸场子:DALL-E 2只是「粘合怪」,生成正确率只有22%

發布時間:2024/1/8 编程问答 54 豆豆
生活随笔 收集整理的這篇文章主要介紹了 哈佛大学砸场子:DALL-E 2只是「粘合怪」,生成正确率只有22% 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.


? 視學算法報道??

編輯:LRS

【導讀】DALL-E 2生成的圖像確實令人驚嘆,但它也有弊端,哈佛大學最新研究表明,文本提示內的關系它根本都不懂,生成圖像的正確率僅有22%!

DALL-E 2剛發布的時候,生成的畫作幾乎能完美復現輸入的文本,高清的分辨率、強大的繪圖腦洞也是讓各路網友直呼「太炫酷」。

但最近哈佛大學的一份新研究論文表明,盡管DALL-E 2生成的圖像很精致,但它可能只是把文本中的幾個實體粘合在一起,甚至都沒有理解文本中表述的空間關系!

論文鏈接:https://arxiv.org/pdf/2208.00005.pdf

數據鏈接:https://osf.io/sm68h/

比如說給出一句文本提示為「A cup on a spoon」,可以看到DALL-E 2生成的圖像中,可以看到有部分圖像就沒有滿足「on」關系。

但在訓練集中,DALL-E 2可能見到的茶杯和勺子的組合都是「in」,而「on」則比較少見,所以在兩種關系的生成上,準確率也并不相同。

所以為了探究DALL-E 2是否真的能理解文本中的語義關系,研究人員選擇了15類關系,其中8個為空間關系(physical relation),包括in, on, under, covering, near, occluded by, hanging over和tied to;7個動作關系(agentic relation),包括pushing, pulling, touching, hitting, kicking, helping和hindering.

文本中的實體集合限制為12個,選取的都是簡單的、各個數據集中常見的物品,分別為:box, cylinder, blanket, bowl, teacup, knife; man, woman, child, robot, monkey和iguana(鬣蜥).

對于每類關系,創建5個prompts,每次隨機選擇2個實體進行替換,最終生成75個文本提示。提交到DALL-E 2渲染引擎后,選擇前18張生成圖像,最終獲得1350張圖像。

隨后研究人員從180名標注人員中通過常識推理測試選拔出169名參與到標注的過程。

實驗結果發現,DALL-E 2生成的圖像和用于生成圖像的文本提示之間一致性的平均值在75個prompt中僅為22.2%

不過很難說DALL-E 2到底是否真正「理解」了文本中的關系,通過觀察標注人員的一致性評分,按照0%、25%和50%的一致同意閾值來看,對每個關系進行的Holm-corrected的單樣本顯著性檢驗表明,所有15個關系的參與者同意率在α = 0.95(pHolm < 0.05)時都明顯高于0%;但只有3個關系的一致性明顯高于25%,即touching, helping和kicking,沒有關系的一致性高于50%。

所以即使不對多重比較進行校正,事實就是DALL-E 2生成的圖像并不能理解文本中兩個物體的關系。

結果還表明,DALL-E在把兩個不相關物體聯系在一起的能力可能沒有想象中那么強,比如說「A child touching a bowl」的一致性達到了87%,因為在現實世界中的圖像,孩子和碗出現在一起的頻率很高。

而「A monkey touching an iguana」生成的圖像,最終一致率只有11%,而且在渲染出來的圖像中甚至會出現物種錯誤。

所以DALL-E 2中的圖像部分類別是開發較完善的,比如孩子與食物,但有些類別的數據中還需要繼續訓練。

不過當前DALL-E 2在官網上還是主要展示其高清晰度和寫實風格,還沒有搞清楚其內在到底是把兩個物體「粘在一起」,還是真正理解文本信息后再進行圖像生成。

研究人員表示,關系理解是人類智力的基本組成部分,DALL-E 2在基本的空間關系方面表現不佳(例如on,of)表明,它還無法像人類一樣如此靈活、穩健地構建和理解這個世界。

不過網友表示,能開發出「膠水」把東西粘在一起已經是一個相當偉大的成就了!DALL-E 2并非AGI,未來仍然有很大的進步空間,至少我們已經開啟了自動化生成圖像的大門!

DALL-E 2還有啥問題?

實際上,DALL-E 2一發布,就有大量的從業者對其優點與缺陷進行了深入剖析。

博客鏈接:https://www.lesswrong.com/posts/uKp6tBFStnsvrot5t/what-dall-e-2-can-and-cannot-do

用GPT-3寫小說略顯單調,DALL-E 2可以為文本生成一些插圖,甚至對長文本生成連環畫。

比如說DALL-E 2可以為圖片增加特征,如「A woman at a coffeeshop working on her laptop and wearing headphones, painting by Alphonse Mucha」,可以精確生成繪畫風格、咖啡店、戴耳機、筆記本電腦,等等。

但如果文本中的特征描述涉及兩個人,DALL-E 2可能就會忘了哪些特征屬于哪個人物,比如輸入文本為:

a young dark-haired boy resting in bed, and a grey-haired older woman sitting in a chair beside the bed underneath a window with sun streaming through, Pixar style digital art.

一個年輕的黑發男孩躺在床上,一個灰頭發的老婦坐在窗戶下面的床旁邊的椅子上,陽光穿過,皮克斯風格的數字藝術。

可以看到,DALL-E 2可以正確生成窗戶、椅子和床,但在年齡、性別和頭發顏色的特征組合上,生成的圖像略顯迷茫。

另一個例子是讓「美國隊長和鋼鐵俠并排站」,可以看到生成的結果很明顯具有美國隊長和鋼鐵俠的特征,但具體的元素卻安在了不同的人身上(比如鋼鐵俠帶著美國隊長的盾牌)。

如果是特別細節的前景與背景,模型可能也無法生成。

比如輸入文本是:

Two dogs dressed like roman soldiers on a pirate ship looking at New York City through a spyglass.

兩只狗在海盜船上像羅馬士兵一樣用小望遠鏡看紐約市。

這回DALL-E 2直接就罷工了,博文作者花了半個小時也沒搞定,最終需要在「紐約市和海盜船」或「帶著望遠鏡、穿著羅馬士兵制服的狗」之間進行選擇。

Dall-E 2可以使用通用的背景來生成圖像,比如城市、圖書館中的書架,但如果這不是圖像的主要重點,那么想要獲得更細的細節往往會變得非常難。

盡管DALL-E 2能生成常見的物體,比如各種花里胡哨的椅子,但要是讓它生成一個「奧拓自行車」,結果生成的圖片和自行車有點像,又不完全是。

而谷歌圖片下搜索的Otto Bicycle則是下面這樣的。

DALL-E 2也無法拼寫,但偶爾也會完全巧合地正確拼寫出一個單詞,比如讓它在停車標志上寫下STOP

雖然模型確實能生成一些「可識別」的英語字母,但連起來的語義和預期的單詞還有差別,這也是DALL-E 2不如第一代DALL-E的地方。

在生成樂器相關的圖像時,DALL-E 2似乎是記住了人手在演奏時的位置,但沒有琴弦,演奏起來稍顯尷尬。

DALL-E 2還提供了一個編輯功能,比如生成一個圖像后,可以使用光標突出顯示其區域,并添加修改的完整說明即可。

但這項功能并非一直有效,比如想給原圖加個「短發」,編輯功能總是能在奇怪的地方加點東西。

技術還在不斷更新發展,期待DALL-E 3!

參考資料:

https://www.unite.ai/is-dall-e-2-just-gluing-things-together-without-understanding-their-relationships

點個在看 paper不斷!

總結

以上是生活随笔為你收集整理的哈佛大学砸场子:DALL-E 2只是「粘合怪」,生成正确率只有22%的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。