【线上分享】探讨TensorRT加速AI模型的简易方案:以图像超分为例
AI模型近年來廣泛應(yīng)用于圖像、視頻處理,在超分、降噪、插幀等應(yīng)用中展現(xiàn)了良好效果。由于圖像AI模型的計算量大,即便部署在GPU上,有時仍達不到理想的運行速度。為此,NVIDIA推出了TensorRT,成倍提高了AI模型的推理效率。
4月22日 19:30,我們邀請到了?NVIDIA DevTech團隊技術(shù)負責人 季光 為大家詳細介紹GPU編程的基本知識,探討把模型運行到TensorRT的簡易方法,幫助GPU編程的初學者加速自己的AI模型。
【主要內(nèi)容】
GPU編程模型:程序是如何跑在GPU上的
TensorRT入門:即便沒寫過CUDA,也能用好GPU
利用Parser自動構(gòu)建網(wǎng)絡(luò):TensorRT編程的捷徑?
TensorRT Plugin簡介:TensorRT的萬金油?
TensorRT的深水區(qū):如何實現(xiàn)極致性能
【參與方式】
掃描下圖二維碼或點擊文末閱讀原文,預(yù)約報名、觀看直播。
【嘉賓簡介】
季光? NVIDIA? DevTech團隊技術(shù)負責人
博士,畢業(yè)于中科院計算所,現(xiàn)為英偉達DevTech團隊的技術(shù)負責人。擅長GPU加速的視頻處理以及性能優(yōu)化。曾任云游戲基礎(chǔ)設(shè)施開發(fā)項目負責人,擔任了Video Codec SDK v8.1應(yīng)用層主要開發(fā)者以及DeepStream SDK v1.0主要開發(fā)者,在GPU視頻編解碼以及CUDA編程與優(yōu)化方面積累了豐富的經(jīng)驗。
▽ 點擊閱讀原文,即可預(yù)約報名,收看精彩分享
總結(jié)
以上是生活随笔為你收集整理的【线上分享】探讨TensorRT加速AI模型的简易方案:以图像超分为例的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 音视频技术开发周刊 | 191
- 下一篇: 视频直播/远程会议中的AI关键技术探索应