日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

挑战GPT-4V!清华开源多模态14边形战士问世:在线可玩

發布時間:2023/11/23 52 博士
生活随笔 收集整理的這篇文章主要介紹了 挑战GPT-4V!清华开源多模态14边形战士问世:在线可玩 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

看看這張圖中有幾個房子?如果你回答3個,就和GPT-4V的答案一樣。

但是最新開源的國產多模態模型CogVLM-17B,就能看出另有玄機。

甚至能區分在圖中完整可見的有3個和部分可見的有1個。

CogVLM由清華和智譜AI合作開發,通訊作者為唐杰和丁銘,論文和開源代碼已上傳到GitHub。

除這個單獨案例之外,CogVLM-17B還在10項權威跨模態基準上取得了SOTA性能。

另外在VQAv2, OKVQA, TextVQA, COCO captioning取得第二,超越或匹配谷歌的PaLI-X 55B。

與之前的開源多模態大模型相比,可以算是14邊形戰士。

雷達圖中包含13個基準,最后一個TDIUC單獨展現。

CogVLM可以回答各種類型的視覺問題,比如從馬斯克的陰陽怪氣中推理出小扎假裝去旅行了,回避約架。

認出照片中的C羅,并回答他在2018年世界杯中有多少進球。

帶圖的編程題也能給出代碼了。

甚至能完成復雜的目標檢測,并打上標簽,自動數據標注成了。

從淺層對齊到深度融合

CogVLM模型包含4個基本組件

ViT編碼器

MLP適配器

大型預訓練語言模型

視覺專家模塊

其中,每層中都添加了可訓練的視覺專家模塊,以實現圖像特征和文本特征的深度對齊,而不會犧牲任何NLP任務的性能。

之前主流的淺層對齊方法,如BLIP-2,圖像特征和語言模型之間缺乏深度融合,導致性能不佳。

但微調語言模型的全部參數又會損害其NLP能力。

CogVLM的方法可以說是改變了視覺語言模型的訓練范式,從淺層對齊轉向深度融合。

另外值得注意的是,CogVLM訓練數據中沒有專門的OCR數據,但表現出了很強的文字識別能力。

CogVLM開源并給出了在線試玩。

不過目前僅支持英文,后續會提供中英雙語版本支持,可以持續關注。

試玩地址:http://36.103.203.44:7861

開源及論文地址:https://github.com/THUDM/CogVLM

總結

以上是生活随笔為你收集整理的挑战GPT-4V!清华开源多模态14边形战士问世:在线可玩的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。