日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

英伟达账号为什么登录不了_告别视频通话“渣画质”,英伟达新算法最高压缩90%流量...

發布時間:2025/3/20 编程问答 63 豆豆
生活随笔 收集整理的這篇文章主要介紹了 英伟达账号为什么登录不了_告别视频通话“渣画质”,英伟达新算法最高压缩90%流量... 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

點擊上方“AI遇見機器學習”,選擇“星標”公眾號

重磅干貨,第一時間送達

來自 | 量子位

為了讓網速慢的用戶用上高清通話,英偉達可謂絞盡腦汁。他們開發的新AI算法,可以將視頻通話的流量最高壓縮90%以上。和其他視頻相比,通話的場景比較單一,基本上只有人的頭部在運動。因此只要能把頭像數據大規模壓縮,就能大大節約流量。英偉達的新算法face vid2vid正是從這一點出發。只要一張圖片,就能實現重建各種頭部姿勢圖片。H.264視頻所需的帶寬是這種新算法的2~12倍,從前面的演示也能看出,如果讓二者使用相同比特率,那么H.264視頻幾乎不可用。

???轉動面部不扭曲

英偉達提供了一個試用Demo,可以在Pitch(俯仰角)、Yaw(偏航角)、Roll(翻滾角)三個方向上任意旋轉。輸入一張人臉,最多可以在每個方向上最多旋轉30度。以下是三個方向上旋轉到最大角度生成的圖片。與相比之前的方法,英偉達的這種技術即使在面部轉動幅度較大時,人臉也不會扭曲變形。然而,圖片終究是不動的,要把生成的人臉放在運動的視頻中還要多一個步驟。

???合成面部視頻

我們把上傳的清晰照片作為源圖像,從中獲取外貌特征。然后把視頻中一幀幀畫面作為重構視頻的依據,從中提取出面部表情和頭部姿勢等信息。而表情和姿勢這兩個數據可以通過關鍵點進行編碼,這樣就分離了人物身份信息和運動信息。在傳輸視頻時只要有運動信息即可,從而節約了流量。從源圖像s中,我們得到了兩組數據:關鍵點坐標x和雅可比矩陣J。這兩組參數與面部的具體特征無關,只包含人的幾何特征。其中,雅可比矩陣表示如何通過仿射變換將關鍵點周圍的局部補丁轉換為另一幅圖像中的補丁。如果是恒等雅可比矩陣,則補丁將直接復制并粘貼到新位置。下圖展示了計算前5個關鍵點的流程。給定源圖像以及模型預測的規范關鍵點。從運動視頻估計的旋轉和平移應用于關鍵點,帶動頭部姿勢的變化。然后可以感知表情的變形將關鍵點調整為目標表情。接下來開始合成視頻。使用源和運動的關鍵點與其雅可比矩陣來估計流wk,從生成流組合成掩碼m,將這兩組進行線性組合即可產生合成流場w。接著輸入人臉面部特征f,即可生成輸出圖像y。這種方法不僅能用于視頻通話,也有其他“新玩法”。比如覺得人物頭像有點歪,可以手動輸入糾正后的數據,從而將面部轉正。又或者是,把一個人的面部特征點和雅可比矩陣用于另一個人,實現面部視頻動作的遷移。

? ?團隊簡介

這篇文章的第一作者是來自英偉達的高級研究員Ting-Chun Wang。文章的通訊作者是英偉達的著名研究員劉洺堉。如果你長期關注CV領域,一定對這兩位作者非常熟悉。他們在圖像風格遷移、GAN等方面做出了大量的工作。
△?GauGAN
兩人之前已經有過多次合作。比如。無監督圖像遷移網絡(NIPS 2017),還有從涂鴉生成照片的GauGAN(CVPR 2019),都是出自這二位之手。項目頁面:https://nvlabs.github.io/face-vid2vid/論文地址:https://arxiv.org/abs/2011.15126

歡迎關注我們,看通俗干貨

總結

以上是生活随笔為你收集整理的英伟达账号为什么登录不了_告别视频通话“渣画质”,英伟达新算法最高压缩90%流量...的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。