音视频技术开发周刊 72期
『音視頻技術開發周刊』由LiveVideoStack團隊出品,專注在音視頻技術領域,縱覽相關技術領域的干貨和新聞投稿,每周一期。點擊『閱讀原文』,瀏覽第72期內容,祝您閱讀愉快。
架構
RTSP協議 SDP
RTSP被用于建立的控制媒體流的傳輸,它為多媒體服務扮演“網絡遠程控制”的角色。盡管有時可以把RTSP控制信息和媒體數據流交織在一起傳送,但一般情況RTSP本身并不用于轉送媒體流數據。媒體數據的傳送可通過RTP/RTCP等協議來完成。
Hulu直播服務難點解析(三):關鍵收獲
Hulu在其博客發布了建立直播服務遇到的挑戰及解決方案,這對于以前只提供點播服務的系統而言是一次徹底的升級。LiveVideoStack對原文進行了摘譯。本文是系列文章的第三篇。
誰是最好的WebRTC SFU?
如果你計劃在WebRTC中有多個參與者,那么最終可能會使用選擇性轉發單元(SFU)。webrtcHacks的撰稿人 Alex Gouaillard和他的CoSMo Software團隊組建了一個負載測試套件來測量負載與視頻質量,并發布了所有主要開源WebRTC SFU的結果。LiveVideoStack對原文進行的摘譯。
FFmpeg在Intel GPU上的硬件加速與優化
英特爾提供了一套基于VA-API/Media SDK的硬件加速方案,通過在FFmpeg中集成Intel GPU的媒體硬件加速能力,為用戶提供更多的收益。本文來自英特爾資深軟件開發工程師趙軍在LiveVideoStackCon 2017大會上的分享,并由LiveVideoStack整理而成。
利用Webpack4搭建Vue服務器端渲染SSR
構建服務器端渲染(SSR)我們可以利用vue-server-renderer 插件更簡單的構建SSR。
基于OpenSSL的HTTPS通信C++實現
HTTPS是以安全為目標的HTTP通道,簡單講是HTTP的安全版。即HTTP下加入SSL層,HTTPS的安全基礎是SSL,因此加密的詳細內容就需要SSL。Nebula是一個為開發者提供一個快速開發高并發網絡服務程序或搭建高并發分布式服務集群的高性能事件驅動網絡框架。
音頻/視頻技術
AVFoundation系列五:關于音視頻的導出
在音視頻導出中重要的就是:AVAssetExportSession,早在 AVFoundation系列一:AVAsset的使用方法 中的Demo中就已經使用過AVAssetExportSession進行了音視頻的分離,合成。簡單的導出我們已經使用了。但是對于更高的導出需求,請使用AVAssetReader和AVAssetWriter類。
libVLC 提取視頻每一幀
DVD 電影中的場景、從 YouTube 下載的剪輯、通過網絡攝像頭拍攝的內容......無論是視頻還是動畫,都是由一系列靜止的圖像組成。然后,這些圖像會一個接一個的播放,讓你的眼睛誤以為物體在移動。圖像的播放速度越快,動作看起來越流暢,畫面也越逼真。
Android 音頻渲染之AudioTrack
Android平臺下的音頻渲染在java層有三個API,分別是MediaPlayer、SoundPool和AudioTrack。AudioTrack是較底層的接口,只支持裸數據即PCM數據,對于一個壓縮的音頻數據,需要先解碼成pcm數據。
Web H5視頻濾鏡的“百搭”解決方案——WebGL著色器
視頻濾鏡,顧名思義,是在視頻素材上duang特效的一種操作。隨著H5頁面越做越炫酷的趨勢,單一的視頻播放已經不能滿足我們的需求,視頻濾鏡在Web頁面上的應用越來越廣泛。
周源:視頻加密和DRM實施實踐
在上周落幕的LiveVideoStackCon音視頻技術大會,阿里云高級技術專家周源進行了《視頻加密和DRM的實施實踐》專題分享。周源,有十多年音視頻研發經驗,之前在淘寶視頻負責開放平臺,目前在阿里云視頻云部門負責媒體處理,在大規模系統建設和云計算方面都有非常豐富的實戰經驗。本文為演講原文,由云棲社區整理,并授權LiveVideoStack轉發。
William Law:CMAF如何支持的超低延遲視頻直播
剛落幕的LiveVideoStackCon 2018音視頻技術大會上,Akamai媒體業務群首席架構師William Law通過主題演講介紹了如何通過分塊編碼和分塊傳輸CMAF,為觀眾提供極低延遲的視頻直播服務。本文由Akamai整理,并授權LiveVideoStack發布。
編解碼
Android FFmpeg視頻轉碼并保存到本地
本文講述在Android中, 如何將FFmpeg視頻轉碼為YUV格式并保存到本地。
H264裸流分析
1 SPS和PPS從何處而來? 2 SPS和PPS中的每個參數起什么作用? 3 如何解析SDP中包含的H.264的SPS和PPS串?客戶端抓包 在做客戶端視頻解碼時,一般都會使用Wireshark抓包工具對接收的H264碼流進行分析。
FFmpeg(4.0.2)解碼H264
接口變更: AVStream的codec參數被codecpar參數所替代 AVCodecContext *codec變為AVCodecParameters *codecpar av_register_all被棄用 添加av_demuxer_iterate() const AVInp...
ADPCM編解碼原理及其代碼實現
本文詳細講解 0x0011 /* Intel’s DVI ADPCM */的編碼解碼原理。
一文了解視頻轉碼那些事兒
對一個視頻服務平臺,通過上傳獲得的視頻源千差萬別,有高清的影視片源、UGC視頻以及推拉過來的直播流等。平臺直接將這些視頻分發出去可能存在諸多問題,例如視頻源碼率過高、視頻質量差、視頻參數不合理、視頻格式不被播放器支持等等,此時就會啟動轉碼為用戶提供優化的、規范化的視頻流。
AI智能
深度神經網絡加速與壓縮
在本文中,我們將深入探索深度神經網絡加速與壓縮的最新研究進展。具體而言,本文將這些方法分成以下六類,即網絡剪枝、低秩分解、網絡量化、知識遷移網絡、緊湊網絡設計,并討論它們的優缺點。
深度多目標跟蹤算法綜述
基于深度學習的算法在圖像和視頻識別任務中取得了廣泛的應用和突破性的進展。從圖像分類問題到行人重識別問題,深度學習方法相比傳統方法表現出極大的優勢。與行人重識別問題緊密相關的是行人的多目標跟蹤問題。
開源!OpenCV預訓練模型庫
OpenCV 的 GitHub 頁面中有一個稱為「open_model_zoo」的資源庫,里面包含了大量的計算機視覺預訓練模型,并提供了下載方法。使用這些免費預訓練模型可以幫助你加速開發和產品部署過程。
【NIPS 2018】多倫多大學提出可逆RNN:內存大降,性能不減!
多倫多大學的研究人員提出Reversible RNN,一種可以減少RNN訓練時內存需求的新方法,在保留模型性能的同時,將激活內存成本降低了10-15倍。
圖像
定制人臉圖像沒那么難!使用TL-GAN模型輕松變臉
基于描述生成逼真圖像是一項比較困難的任務。本文介紹了一項新研究 Transparent Latent-space GAN (TL-GAN),它使用英偉達的 pg-GAN 模型,利用潛在空間中的特征軸,輕松完成圖像合成和編輯任務。
總結
以上是生活随笔為你收集整理的音视频技术开发周刊 72期的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 全平台硬件解码渲染方法与优化实践
- 下一篇: 下一代低延时直播CDN:HLS、RTMP