日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

【深度学习】2021年深度学习哪些方向比较新颖,处于上升期或者朝阳阶段,没那么饱和,比较有研究潜力?...

發(fā)布時間:2025/3/12 pytorch 23 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【深度学习】2021年深度学习哪些方向比较新颖,处于上升期或者朝阳阶段,没那么饱和,比较有研究潜力?... 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

先寫兩個最近火熱我比較看好的方向Transformer和Self-Supervised,我這里舉的例子傾向于計算機視覺方向。最后再補充Zero-Shot和多模態(tài)兩個方向。

1.Transformer

自從去年DETR和ViT出來之后,計算機視覺領(lǐng)域掀起了Transformer狂潮。目前可以做的主要有兩個路徑,一個是魔改DETR和ViT,另一個是不同task遷移算法。

魔改DETR和ViT的方法,無非是引入local和hierarchical,或者魔改算子。

不同task遷移算法主要是探究如何針對不同的task做適配設(shè)計。

其中魔改DETR的可以參考以下工作:

[Deformable DETR] [TSP-FCOS/TSP-RCNN] [UP-DETR] [SMCA] [Meta-DETR] [DA-DETR]

其中魔改ViT的可以參考以下工作:

魔改算子:

[LambdaResNets] [DeiT] [VTs] [So-ViT] [LeViT] [CrossViT] [DeepViT] [TNT] [T2T-ViT]

[BoTNet] [Visformer]

引入local或者hierarchical:

[PVT] [FPT] [PiT] [LocalViT] [SwinT] [MViT] [Twins]

Swin Transformer對CNN的降維打擊

引入卷積:

[CPVT] [CvT] [ConViT] [CeiT] [CoaT] [ConTNet]

不同task遷移算法的可以參考以下工作:

ViT+Seg?[SETR] [TransUNet] [DPT] [U-Transformer]

ViT+Det?[ViT-FRCNN] [ACT]

ViT+SOT?[TransT] [TMT]

ViT+MOT?[TransTrack] [TrackFormer] [TransCenter]

ViT+Video?[STTN] [VisTR] [VidTr] [ViViT] [TimeSformer] [VTN]

ViT+GAN?[TransGAN] [AOT-GAN] [GANsformer]

ViT+3D?[Group-Free] [Pointformer] [PCT] [PointTransformer] [DTNet] [MLMSPT]

以上幾個task是重災(zāi)區(qū)(重災(zāi)區(qū)的意思是聽我一句勸,你把握不住)

ViT+Multimodal?[Fast and Slow] [VATT]

ViT+Pose?[TransPose] [TFPose]

ViT+SR?[TTSR]

ViT+Crowd?[TransCrowd]

ViT+NAS?[BossNAS]

ViT+ReID?[TransReID]

ViT+Face?[FaceT]

想一想算子怎么魔改,或者還有什么task沒有做的

2.Self-Supervised

Self-Supervised自從何愷明做出MoCo以來再度火熱,目前仍然是最為火熱的方向之一。目前可以做的主要有三個路徑,一個是探索退化解的充要條件,一個是Self-Supervised+Transformer探索上限,還有一個是探索非對比學(xué)習(xí)的方法。

探索退化解的充要條件主要是探索無negative pair的時候,避免退化解的最優(yōu)方案是什么。

[SimCLR] [BYOL] [SwAV] [SimSiam] [Twins]

Self-Supervised: 如何避免退化解

Self-Supervised+Transformer是MoCov3首次提出的,NLP領(lǐng)域強大的預(yù)訓(xùn)練模型(BERT和GPT-3)都是Transformer架構(gòu)的,CV可以嘗試去復(fù)制NLP的路徑,探究Self-Supervised+Transformer的上限。

[MoCov1] [MoCov2] [MoCov3] [SiT]

MoCo三部曲

探索非對比學(xué)習(xí)的方法就是要設(shè)計合適的proxy task。

基于上下文?[Unsupervised Visual Representation Learning by Context Prediction] [Unsupervised Representation Learning by Predicting Image Rotations] [Self-supervised Label Augmentation via Input Transformations]

基于時序?[Time-Contrastive Networks: Self-Supervised Learning from Video] [Unsupervised Learning of Visual Representations using Videos]

剛寫了基于時序,何愷明和Ross Girshick就搞了個時序的

A Large-Scale Study on Unsupervised Spatiotemporal Representation Learning

何愷明+Ross Girshick:深入探究無監(jiān)督時空表征學(xué)習(xí)

3. Zero-Shot

最近因為CLIP的出現(xiàn),Zero-Shot可能會引起一波熱潮,ViLD將CLIP成功應(yīng)用于目標檢測領(lǐng)域,相信未來會有越來越多的基于CLIP的Zero-Shot方法。

ViLD:超越Supervised的Zero-Shot檢測器

4. 多模態(tài)

最近的ViLT結(jié)合了BERT和ViT來做多模態(tài),并且通過增加標志位來巧妙的區(qū)分不同模態(tài),感覺是一個非常好的做多模態(tài)的思路,相信未來會有更強大的多模態(tài)出現(xiàn)。

ViLT:最簡單的多模態(tài)Transformer

至于最近火熱的MLP架構(gòu),極其不推薦,很沙雕

最后,適當灌水,有能力還是要做有影響力的工作。

往期精彩回顧適合初學(xué)者入門人工智能的路線及資料下載機器學(xué)習(xí)及深度學(xué)習(xí)筆記等資料打印機器學(xué)習(xí)在線手冊深度學(xué)習(xí)筆記專輯《統(tǒng)計學(xué)習(xí)方法》的代碼復(fù)現(xiàn)專輯 AI基礎(chǔ)下載機器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)專輯溫州大學(xué)《機器學(xué)習(xí)課程》視頻 本站qq群851320808,加入微信群請掃碼:

總結(jié)

以上是生活随笔為你收集整理的【深度学习】2021年深度学习哪些方向比较新颖,处于上升期或者朝阳阶段,没那么饱和,比较有研究潜力?...的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。