标准常有,VVC不常有
作為第一個有中國企業參與制定的視頻編解碼標準,VVC (Versatile Video Coding)自定稿以來就熱議不斷。與5G 交疊的時間線,讓人們對?VVC 的未來應用充滿了想象;頂著各種“第一”的頭銜,也使它成為國內各大廠商的PR利器(但本篇無廣,請放心瀏覽)。“得到認可”對于中國的互聯網公司來說,總是超乎尋常的重要。
又或許,標準常有,VVC?不常有。
以下內容由LiveVideoStack與李翔和朱斌的采訪整理而成。
“我叫李翔,來自騰訊多媒體實驗室,目前主要負責多媒體相關標準工作。我是2017年底加入騰訊的,加入騰訊的第一個工作就是新一代視頻編解碼VVC的研發制定,這也是我們的一個重點項目,直到今年7月份 VVC 第一版制定完成。后面也應該會繼續在這個方面工作,主要是在多媒體各個領域開發新的技術,進一步滿足用戶的需要,提升用戶體驗?!?/p>
?
LiveVideoStack:您之前在高通是嗎?
?
李翔:對,我之前在美國高通,也是做視頻編解碼標準相關的工作?,F在負責的范圍更寬一些,視頻編解碼還是重點,因為這也是騰訊業務應用量非常大的一方面。當然也有其他跟多媒體業務相關的標準工作,包括系統、傳輸以及媒體AI。
?
LiveVideoStack:您剛到騰訊多媒體實驗室就開始負責VVC這個項目,主要負責它的哪些方面能具體說一下嗎?
?
李翔:具體就是這個標準的研發制定。我們負責研發、開發新的技術,將新技術貢獻給標準,同時也把一些新的技術引入騰訊。
?
LiveVideoStack:也就是說這個項目是剛剛開始就在您的手里是嗎?
?
李翔:對的。在這個團隊建立之前,其實騰訊這邊并沒有做多媒體標準的團隊。以騰訊的相關業務量來看,包括業務出海的需要,高層覺得這是非常必要的事情,因此組建了這個團隊,開始做相關的工作。
?
LiveVideoStack:您的團隊現在有多少人?
?
李翔:VVC這邊六、七個人。
?
LiveVideoStack:都在美國嗎?
?
李翔:有的同事在美國這邊,也有國內的,也有韓國的、法國的,分散得還挺開的。
?
LiveVideoStack:大家都是遠程辦公嗎?
?
李翔:由于疫情,多數目前在家辦公。
?
LiveVideoStack:最后一個關于您個人的小問題,有關人員的招募,是您到了之后才一點一點把這個團隊組建起來的嗎?
?
李翔:是我們實驗室的聯合負責人劉杉博士把我和另外一個同事先招進來的,然后逐漸人員才多起來的。
我叫朱斌,是2018年底加入騰訊多媒體實驗室的,主要負責視頻編解碼產品的開發和優化,最近主要負責的項目就是VVC,另外我們還負責其他Codec的編解碼項目,包括不同的軟件、硬件以及跟不同的部門進行合作。
?
LiveVideoStack:您之前也一直從事視頻編解碼方面的業務嗎?
?
朱斌:基本上是,我可能做得稍微雜一點,編解碼和計算機視覺都做過一些,之前在蘋果和英特爾工作,基本跟編解碼也有一些關系。
?
LiveVideoStack:您做編解碼優化的主要方向是什么?
?
朱斌:第一個,我們要符合標準。因為這個編解碼畢竟是一個市場,肯定要跟其他的生態環境都能匹配,包括不同的硬件,操作系統等,都需要匹配。同時,編解碼這里邊有很多算法以及你怎么去優化,這部分可能用到剛才你說的神經網絡、AI,跟這些技術可能都有結合。所以編解碼并不只有一個單純的方向,其實涉及的領域還是挺多的。
?
LiveVideoStack:您是有一個自己的團隊嗎?還是說兩位老師是在一塊兒的?
?
朱斌:我們都是在多媒體實驗室,我們各自有各自的團隊,現在我們都在做VVC的相關工作,我和李翔博士團隊也有一些共同開發的交流,包括開源的player我們兩個團隊都有一些貢獻,大家各自貢獻自己的長處。
?
LiveVideoStack:在開源這個部分,你們兩位是怎么分配的?
?
朱斌:代碼這些都是我們兩個團隊共同有一些貢獻,我們沒有什么具體的分工,但可能各個團隊有各自的長處,我們團隊可能產品的經驗相對多一點,所以在優化上相對來說我們經驗比較豐富;李翔他們團隊對標準很熟,我們基本上是互相借鑒,大家共同推動這個標準。
?
LiveVideoStack:您一開始接到VVC這個任務的時候,對VVC的了解是什么樣的?現在您眼中的VVC性能如何?這期間認知轉變的過程,可以跟我們分享一下嗎?
?
朱斌:我一開始做VVC的時候,這個標準還沒有制定完成,包括李翔來的時候,這個標準也剛開始,我們基本上是一邊摸索一邊優化,然后提出一些新的建議。
當然這個標準跟前一代的標準也有一種迭代關系,不是完全憑空產生的,基本上也是基于以前的壓縮標準進行的優化,加了一些更適合硬件的、或者是針對現在的市場以及以后的發展,包括8K、5G,做了很多的優化,比如降低碼率、提升質量等等。對我們來說,有很多挑戰,但以前很多經驗還是可以拿來借用的,這是一方面。
?
在開發過程中,因為標準也在改變,定稿之前做了很多不同的版本。我們這邊做優化實現的時候,也要跟著版本不停迭代改動,這部分挑戰比較大,之前有些做的東西不見得能在標準里采納。為了跟標準保持同步,我們這邊的開發和優化要一直跟進,可能有些東西在產品里并沒有用上,但我覺得這也是學習的過程。
? ??
對以后的發展,我覺得VVC畢竟也是一個世界標準,各個國家的專家都在里邊投入了很多,以后大家對帶寬和壓縮率的要求越來越高,包括高分辨率、360度的視頻,我覺得還是有很好的市場前景的。但畢竟標準才剛剛制定完成,所以有一段時間大家需要去接納、認識、熟悉,但是從以往的經驗來看,我們覺得VVC應該會是非常成功的標準。
?
LiveVideoStack:您剛剛提到有關挑戰的問題,可以請老師具體分享一個技術上的挑戰嗎?
?
朱斌:這個標準都是針對幾年后的市場做的,所以肯定在復雜度上比現在的標準要復雜幾十倍,甚至復雜幾百倍都有可能,這個挑戰就是如何在現有硬件資源的基礎上很快地跟標準兼容,能夠提出比較優化的算法,同時能夠盡快地跟市場兼容,我覺得這個是比較大的挑戰。
?
LiveVideoStack:您這邊的應對策略是什么?
?
朱斌:首先我們要根據以往的經驗,判斷哪些工具或者標準里的東西是對我們幫助最大的,那么我們就會優先優化那些部分。當然中間還涉及很多各種不同的編碼工具和算法,我們當然也是根據不同的市場和需求會有一些取舍,基本上就是這樣的策略。但這不是一兩天的工作,視頻壓縮的標準可能是五年、十年不斷優化和完善的過程,所以我覺得我們還有很多的工作要做。
?
LiveVideoStack:謝謝朱斌博士。李翔博士您是如何客觀看待VVC的性能、亮點、改進空間以及未來愿景的?
?
李翔:我想先回顧一下之前的視頻編解碼標準。
最早的是H.120;第一個大規模用的是H.261,是視頻通話的標準。我們現在說的VVC,其實又叫H.266,從H.261到H.266,基本上是六代。目前市場上用的比較多的H.264,還有H.265,也就是HEVC?,F在到H.266(VVC),自H.264以來,每一代標準比上一代的性能基本都提高了50%,換句話說就是帶寬成本降低50%。從H.264到H.265是十年,從H.265到H.266是八年,迭代周期很長。
?
為什么會這么長時間?剛才朱斌博士也介紹了,這個涉及到很多技術,技術積累也非常困難,每一代標準相對于前一代標準,在業內肯定是劃時代的突破,因為50%是非常困難的事情。這些性能是從哪兒疊加出來的?目前,并沒有一個編碼工具能一下子提高20%-30%的性能?,F在很多都是1%或者2%慢慢積累起來的,這也是每一代要積累這么長時間的原因。
?
剛剛你問到VVC的性能,它也是在主觀質量不變的條件下可以降低碼率50%??陀^的說,性能還是相當不錯的。
另外一個亮點,從VVC的名稱來看,中文直譯是多功能視頻編碼,這個多功能體現在什么地方?有很多應用。之前H.264/AVC、H.265/HEVC,在第一版里并沒有照顧到這么多應用,但現在的視頻需求越來越廣。
2003年H.264基本完成時,那時候主要的應用是高清視頻,720p和1080p,還有DVD大小的視頻。
?
2012年左右完成H.265(HEVC),主要應用已經不只是高清,已經開始看4K的視頻了,還有立體3D視頻。當時電影《阿凡達》讓3D熱了一下,后來也逐漸沉寂下去了。到H.266/VVC,則照顧到了很多應用,HDR、4K乃至8K,包括朱斌博士提到的360度的視頻編碼、VR頭顯、屏幕編碼這些都照顧到了。我想,照顧到了這么多應用,這個前景應該還是非常不錯的。
?
另一方面,因為現在的主流,或者說目前市場上90% 應用的還是H.264或者H.265,這個也是現實。但我們也可以看到現在的趨勢,從2015年到現在,全網高清的1080p的占比已經增加了1倍到2倍,但是超高清4K乃至以上的增長了5倍,其他分辨率的視頻則降了很多。可以看到,未來的趨勢肯定是4K乃至8K,因為VR這種虛擬現實的應用對分辨率的要求非常高,一般在8K以下是不能滿足用戶需求的,所以肯定是8K以上。
?
H.264、H.265對8K的支持是非常困難的,簡單的說就是需要的帶寬太多了,難以支撐?,F有的無論是衛星頻道,還是地面廣播的有線電視,或者是直接用WiFi,這個都是難以支撐的。在這種情況下,目前沒有其他可選的,那就只能是VVC了,而且VVC也是目前為止提供壓縮比最高的,我相信將來這也是一個很正常的市場選擇。
?
LiveVideoStack:您說的將來是多遠的將來?
?
李翔:剛才提到每一代視頻標準,基本十年是一個周期。朱斌博士也提到,一個標準剛制定完成的過程中,因為有迭代周期,覆蓋的市場也差不多是八年到十年的過程,從商用到被下一代標準取代,差不多也是這個時間,可能還會再長一點。大概就是從現在開始兩三年到未來十年的量級。
?
我們也在大力投入,希望減少中間的過程,我這邊主要是做標準制定,朱斌博士這邊是產品化,把它真正落地。我們現在合在一起,也是希望能加速這個進程。包括你提到的Player,為什么要開源?因為這個的優化也是非常困難的,我們開源了以后大家都能用,可以促進大家對它的接受程度,也可以讓大家盡快試起來,如果大家都覺得好,就可以馬上試起來,也能達到我們想讓大家早日用上的目標。
?
LiveVideoStack:剛剛老師們都說的是VVC有多好,我們肯定是要擁抱新的標準,但其實對于技術人員來說,每推出一個新技術,肯定都有一定的權衡,我們想了解的VVC的trade-off,取了什么舍了什么?
?
李翔:主要就是朱斌博士剛剛提到的復雜度高,這個表現在很多方面。一方面是直接的運算復雜度高,當然我們可以有各種的優化方法,有很多經驗可以加以提高。但是如果從算法本身的復雜度來說,那就是高。trade-off就是用復雜度換了壓縮性;
?
另一方面,多功能編碼照顧各種場景,這也是為什么不可能一個編碼工具一下就能提高很多的原因,有的工具這個場景適合,有的工具那個場景適合。
?
舉個簡單例子,視頻壓縮里有運動估計和運動補償,基本原理非常簡單。我們知道視頻其實是一系列的靜止圖片連在一起,你連著放,通過人眼的視覺暫留就能看到它是活動的,基本是每秒鐘24-30幀以上。這么多幀連在一起,每一幀的變化很小,這個也非常直觀。那么一個簡單的壓縮方式就是用前一幀預測后一幀,告訴后一幀哪些地方動了,只壓縮動的部分,其他的部分不用額外壓縮,這就是運動補償的基本原理,想法非常直觀。
運動有很多種,最簡單的是物理平動,從這邊移到那邊,只需要兩個參數,橫向運動和縱向運動。復雜的運動會包括旋轉、縮放,需要額外的參數。此外,正常拍攝近大遠小,從近處跑到遠處,物理本身沒變,但看起來就變了,也涉及縮放。這些都可以用仿射變換來描述?;诜律渥儞Q的運動補償對旋轉和縮放的效果比較好,但復雜度也相應高得多。在一段視頻中,如果真的有仿射運動,效果好,復雜度花得值當。但如果不是仿射運動,只是平動,還保持這個復雜度就比較浪費了。
從這個例子可以看到,我們要打磨產品,要針對各個場景進行優化,不同的場景有不同的策略??傮w上,是用相當大的復雜度來換壓縮比。前面介紹了壓縮比的提高都是一兩個百分比逐漸往上疊加的。換句話說,新標準有很多新的編碼工具??梢韵胂笠獜倪@么多的編碼工具進行比較選擇,然后找到針對某一部分最好的工具將導致什么樣的復雜度增加。這也導致實際中必須要根據不同場景進行優化。
?
LiveVideoStack:我們一直想用新的標準去改善現狀,拿網絡傳輸標準來說,Dash是更好的標準,有更多的優點,但如果你不想錯過蘋果的一整個生態系統,就還是要擴展HLS。如何在這種情況下去擁抱新標準?
?
李翔:感覺這個并不矛盾。因為新的標準、舊的標準,其實編碼器和解碼器可以共存,需要這個就用這個,需要那個就用那個,并不必須得是排他。
?
LiveVideoStack:像騰訊這樣的大廠,可以兼容更多的標準,想用哪個標準就去用,有這個資本。但有的公司不想一下子把所有的標準囊括進來,他們沒有那么多的時間和精力做這件事。
?
朱斌:可能也是根據不同的公司,有它自己面向的市場,因為騰訊面向的市場比較多,所以基本上各種各樣的標準我們都要支持,但有一些小公司沒有那么多的人力、財力支持這么多標準,那我覺得它就應該專注于它面向的市場,是實時、非實時,還是面向移動端,還是PC端,這個選擇都是不一樣的。我們也很難給出這種建議,但是我覺得每個廠商和公司,應該會根據它的客戶需求和市場作出最好的選擇吧。
?
LiveVideoStack:您如何看待編碼器越來越多,選擇卻越來越少的困境呢?
?
朱斌:首先我覺得選擇越來越多對客戶是好事情,用戶的選擇會更多,各個標準之間有一些共存性,當然也有一些競爭性。我覺得競爭在市場上是好事情,會推動更好的標準、更好的優化,各個公司也會為了節省更多的帶寬投入人力、研究、科研開發,這個我覺得是良性競爭。
?
LiveVideoStack:有的技術標準專家會覺得,一個編碼器統一整個市場的時代是肯定不可能存在的,所以在未來,每個廠商,無論是小公司大公司,可能都需要支持更多的編解碼器。對于整個生態來說,是照顧到了像騰訊這樣的大公司,但騰訊的體量是非常大的,稍微比騰訊體量小一點的,可能就照顧不到。而且我看到我們騰訊多媒體實驗室里提到了,要建立起一個生態,才能讓大家擁抱VVC,所以我在想這個生態到底要怎么建立?
?
李翔:這個我補充幾點吧。現在的H.265雖然平均碼率比H.264要低50%,但是不是我們非要這50% 的高性能不可呢?剛才也提到,從2015年到2020年的統計占比,低分辨率視頻確實是占比非常低,但是你直接說它沒有也不行,它的基數還是非常大的。
?
2020年,全網視頻流量占比是120多EB/月,什么概念?EB可能大家一般用不到,是10的18次方。一個GB是10的9次方,全網視頻流量是120×109 GB,低分辨率的還能占10% 以上,這也是非??捎^的量,這個份額還是非常大的。
?
另一方面,低碼率的視頻可以節省帶寬,但單個應用所需的絕對帶寬數值可能已經不高了。比如一個應用如果已經是256Kb/秒的量級,降低到128Kb/秒,是降了50%,但對這個應用的影響有那么大嗎?或者說用戶真的關注嗎?如果對用戶影響不大,一些低成本的設備,比如說很早期的手機,還可以繼續使用早期的標準。
這也是市場多元化的原因,大家關注的點不一樣,用戶不一樣,所以需求不一樣,針對不同的需求,應用不同的標準。即使把VVC做成硬件編碼器,那芯片的面積肯定還是比H.264大,成本要高。這種情況下有多個編碼器,可以更好的滿足不同用戶的需求。
?
你提到的生態也是非常重要的,并不是一個小的廠商或者大的廠商的問題,主要是軟件編碼器和硬件編碼器,中間還有一些FPA這樣的解決方案。
硬件編碼器的成本非常高,傳統上是低功耗,廣電系統,包括機頂盒,這些開發成本非常高,廠商不愿意支持成本高的編解碼器,如果量上不去,成本拿不回來。但如果支持10個編碼器,量都上去了,這也可以,要照顧到各個應用,如果每個應用量都非常大,這個是有可能的。
?
剛才說到的生態建設,硬件廠商關注的是:一筆的投入這么大,能賣多少?賣得越多,平均成本越低,這個很好理解,量才是他們關注的。對于我們軟件廠商來說,尤其是我們這種視頻服務提供商,比如騰訊視頻等會占較大流量的應用,相對終端設備的成本,我們更關注帶寬的費用。所以這個生態也是針對各個廠商不同的市場,是大家合在一起的。
?
為什么大家用這個標準?無論是一個標準還是多個標準,標準內部還是互聯互通的。換句話說,A廠商壓縮的,可以用B廠商的解碼器進行解碼,一個硬件廠商生產的這個,只要基于這個標準,什么廠商編碼出來的都可以解,那這個生態就比較好,大家都可以參與。
?
怕就怕在,一個廠商以很大的成本做了一個編解碼器,市場份額非常小。很快市場又要用另一個不兼容的編解碼器。這種情況廠商的成本就會非常高,這個生態就不夠健康。
?
回到剛才說的,包括Player的開發,可能小的廠商不愿意試錯,因為成本還是挺大的。我們現在把編碼器開源了,大家都可以用,當然這里頭還有一些專利問題,這不是我們一家廠商能解決的。但我們希望降低大家使用新一代標準的成本,把整個生態做得更好,給大家用。
?
LiveVideoStack:謝謝李翔博士。剛剛我們可能是在比較宏大的語境下進行討論,下面的問題輕松一點,咱們想了解一下兩位老師在疫情期間工作的節奏,或者是與分布在世界各地的專家們合作的故事。
?
朱斌:對我們軟件開發來說,疫情的影響并不是特別大,美國這邊的工程師基本很多時候都習慣于在家上班,硅谷這邊的公司平常的工作也是比較靈活的。我們這個團隊在國內也有人員,疫情主要帶來的問題,可能是我們的壓力更大了,大家對于網上視頻的需求越來越大,這就增加了公司對網絡視頻的重視,給我們帶來更多的期望和要求,這個相對來說是疫情給我們帶來的變化。
?
對個人來說,不能去公司,運動的機會就少了,基本都在家坐著,大家要注意一下生活中怎樣鍛煉身體,可能最近大家的體重都有點增長吧。其他的也沒什么。
?
LiveVideoStack:這個視頻的量上去之后,遇到了哪些難點,大家是怎么解決的?
?
朱斌:舉個例子,我們團隊不光做VVC,我們還會支持最近的騰訊會議,由于疫情,最近的量非常大,等于說我們團隊在疫情期間要支持的產品就更多了,大家要兼顧很多不同的產品線,工作量可能比平常要大。熬夜是常態,已經不是什么很驚奇的事情了。
?
李翔:剛才朱斌博士說的已經是常態了。我們1月份去布魯塞爾開標準會,開完會回來疫情就嚴重了。美國3月份封城,在家工作,到現在也8個月了。在家工作這8個月,感覺更累了。
?
以標準會議為例,我們三個月開一次會,每次大概12-14天,世界各地的專家聚集在一個地方去開,一般這個標準會議的強度也非常大,通常是早8點、9點到晚上12點左右,有時候會開到第二天早上。
之前的痛苦是路上要花時間,一般單程也需要一兩天在路上,到了當地再倒時差,所以開頭幾天大家基本上狀態不太好。在線會議的好處是不用倒時差了,壞處是大家分散在世界各地,要協調開會時間,導致夜里要開標準會,而白天還要繼續當地的工作。在疫情之前出差開會,雖然睡得比較晚,但至少在會議當地的作息還是有晝夜的分別的。
?
LiveVideoStack:感覺就是上下班的時間節省用來工作了。
?
李翔:然后還要額外再多加一些時間,這個是之前沒有遇到的。其他同學也都是類似這樣,在家工作的基本假設就是一直在線,這個要求更高。大家知道,騰訊實時的聊天系統,包括微信、企業微信這些東西,好處就是你想找別人的時候非???#xff0c;壞處就是別人想找你的時候也是非常得快。
?
LiveVideoStack:現在我們常說新標準、新領域、新應用,基于這個概念,想請兩位老師根據你們的經驗講講基于VVC會出現什么樣的新創?
?
李翔:我認為這個確實是很難的問題,新技術、新領域、新標準、新應用,這個我非常認可。每代標準制定過程中,都是從需求開始的,預計未來五年到十年有什么樣的需求,我們會列出來,這也是VVC叫多功能編碼器的原因,需求照顧面非常廣。
?
最直觀的是之前不容易被標準支持的,比如8K、VR這種比較困難,因為帶寬比較大,必須壓縮比比較高,才能實際應用。至于其他衍生出來的,坦白說現在預測還很困難。一方面,要更貼近市場,我們要跟用戶站在一起,用戶有什么新的需求,我們充分發掘,加以技術,把它真正做出來,讓它變成現實,是所謂的新標準,新應用吧。
?
朱斌:我們這個編解碼其實是一個比較核心的技術,我覺得可以應用的范圍非常多,包括現在的短視頻,以后可能是VR直播,利用VVC標準優勢降低帶寬,以后的帶寬如果降下來,云游戲可能會更容易支持,各種各樣的生態會在上面建立起來,這個也是標準帶來的好處,可能推動更多的應用和Start-up想一些新的idea,給客戶帶來更多意想不到的應用吧,這就是標準帶來的好處。
?
LiveVideoStack:剛剛提到8K,有人會認為8K這個東西比較適合在戶外,或者在一些大型的活動當中適用,進入家庭是很困難的,咱們想了解一下VVC和8K之間會有怎樣的可能?
?
朱斌:4K在之前也有人有同樣的評價,說4K不可能進入家庭,但是現在超市里賣的電視機都支持4K了,我覺得首先這個跟大家的經濟水平有關,包括以前的房間也沒那么大,所以大家覺得房間都放不下這個東西,怎么可能看4K。現在這個已經不是問題了,這種預測首先我不做評判了,適不適合室內,我覺得。
?
李翔:剛才提到VR戴頭盔顯示,不需要大屏幕,是一類應用。至于家庭的應用,可以想象如果整個一面墻都是屏幕,用戶想去看什么地方的風景,在客廳就可以看到,好像屏幕墻就是落地飄窗,外頭就是實際的場景,鳥語花香,家家都有無敵海景房,這個聽起來也很吸引人。
?
LiveVideoStack:之前有streamingmedia的專家分析了亞洲市場的OTT平臺,大家都先后開始采用AV1,那么“AV1之后就是VVC”這算是一個新的展望嗎?
李翔:如果是機頂盒這類的話,主要看電視臺,看信號源這邊。包括OTT的服務商,如果服務商覺得VVC更有利,可能會用VVC,如果覺得AV1更有利,就用AV1的標準。AV1比H.265、HEVC好20%-25%,VVC比AV1再好20%-25%,大概是這么一個粗略的說法,還是要區別的,就看額外帶寬的節省,看大家是不是覺得需要上。如果覺得好,那就上,如果覺得不好,那就不上,這可能也是各個廠家自己的決策。
?
LiveVideoStack:時間也差不多了,最后想請兩位老師預測一下未來五年內擁有最高市場份額的編解碼器。
?
朱斌:我覺得這個首先也跟不同的國家和不同的地域有關,另外就是跟國家本身基礎設施的建設有關系,假如說是重新開始的基礎建設,可能愿意接受最新的技術。但如果已經花了很多精力投入到現有標準的支持,可能他們就不想那么快更新換代,這是有可能的。所以我覺得在五年內,還是很多標準要共存,但哪個份額大,我覺得還很難說。
?
LiveVideoStack:我們國家是什么樣的狀況?
?
朱斌:首先我們國家還有自己的標準,AVS,如果國家推AVS,有可能AVS是最受歡迎的,我們實驗室也參與了AVS。
?
李翔:對,這個國家肯定會有一些考量,包括2022年冬奧會用AVS做直播,既然用AVS,我們跟用戶站在一起,有這個需求我們就上。
編輯:Coco Liang
?
LiveVideoStackCon 2020 SFO(線上峰會)
無需漂洋過海,我們在線上等您!
LiveVideoStackCon 2020?美國舊金山站
北京時間:2020年12月11日-12月13日
點擊【閱讀原文】訪問直播頁面
總結
以上是生活随笔為你收集整理的标准常有,VVC不常有的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: TikTok测试三分钟视频、Reddit
- 下一篇: s3c2440移植MQTT