日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

Meta 展示全新 AI 图像编辑工具:文本指令“指哪打哪”,主体背景都能换

發(fā)布時(shí)間:2023/12/4 综合教程 41 生活家
生活随笔 收集整理的這篇文章主要介紹了 Meta 展示全新 AI 图像编辑工具:文本指令“指哪打哪”,主体背景都能换 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

11 月 19 日消息,Meta 宣布為 Facebook 和 Instagram 推出兩款基于 AI 的圖像編輯工具,適用領(lǐng)域包括照片和視頻。

其中,名為“Emu Edit”的工具可讓用戶根據(jù)文本輸入來修改圖片。該功能可通過文本指令來實(shí)現(xiàn)對(duì)圖像局部、全局的精細(xì)化控制,包括添加背景、移除背景、替換主體等功能。

Meta 官方表示,與當(dāng)前市面上大多數(shù)生成式 AI 不同,Emu Edit 可精確遵循指令,確保圖片中與指令無關(guān)的其他元素不受影響,大模型應(yīng)當(dāng)僅僅專注于精確修改與要求有關(guān)的像素。

附演示圖如下:

另一項(xiàng)工具名為“Emu Video”,使用了與“Emu Edit”相同的基礎(chǔ)模型,可根據(jù)文本提示和靜態(tài)圖像來生成視頻。

不過,Meta 公司并未透露何時(shí)發(fā)布這兩款工具,僅表示目前僅用于基礎(chǔ)研究,但其潛在的用例已經(jīng)“顯而易見”:“從藝術(shù)總監(jiān)構(gòu)思新概念、創(chuàng)作者為最新作品增添活力,到好友分享獨(dú)特的生日祝福,它都會(huì)派上用場(chǎng)。我們認(rèn)為這是值得慶祝的事情。”

當(dāng)然,Meta 也強(qiáng)調(diào),這些技術(shù)無法取代專業(yè)藝術(shù)家和動(dòng)畫師,但可以幫助人們以全新的方式來“表達(dá)自己”。

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,所有文章均包含本聲明。

總結(jié)

以上是生活随笔為你收集整理的Meta 展示全新 AI 图像编辑工具:文本指令“指哪打哪”,主体背景都能换的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。