日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

Meta 展示全新 AI 图像编辑工具:文本指令“指哪打哪”,主体背景都能换

發布時間:2023/12/4 综合教程 34 生活家
生活随笔 收集整理的這篇文章主要介紹了 Meta 展示全新 AI 图像编辑工具:文本指令“指哪打哪”,主体背景都能换 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

11 月 19 日消息,Meta 宣布為 Facebook 和 Instagram 推出兩款基于 AI 的圖像編輯工具,適用領域包括照片和視頻。

其中,名為“Emu Edit”的工具可讓用戶根據文本輸入來修改圖片。該功能可通過文本指令來實現對圖像局部、全局的精細化控制,包括添加背景、移除背景、替換主體等功能。

Meta 官方表示,與當前市面上大多數生成式 AI 不同,Emu Edit 可精確遵循指令,確保圖片中與指令無關的其他元素不受影響,大模型應當僅僅專注于精確修改與要求有關的像素。

附演示圖如下:

另一項工具名為“Emu Video”,使用了與“Emu Edit”相同的基礎模型,可根據文本提示和靜態圖像來生成視頻。

不過,Meta 公司并未透露何時發布這兩款工具,僅表示目前僅用于基礎研究,但其潛在的用例已經“顯而易見”:“從藝術總監構思新概念、創作者為最新作品增添活力,到好友分享獨特的生日祝福,它都會派上用場。我們認為這是值得慶祝的事情。”

當然,Meta 也強調,這些技術無法取代專業藝術家和動畫師,但可以幫助人們以全新的方式來“表達自己”。

廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節省甄選時間,結果僅供參考,所有文章均包含本聲明。

總結

以上是生活随笔為你收集整理的Meta 展示全新 AI 图像编辑工具:文本指令“指哪打哪”,主体背景都能换的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。