日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Mask R-CNN详解和安装

發(fā)布時(shí)間:2024/4/17 编程问答 61 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Mask R-CNN详解和安装 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

Detectron是Facebook的物體檢測(cè)平臺(tái),今天宣布開源,它基于Caffe2,用Python寫成,這次開放的代碼中就包含了Mask R-CNN的實(shí)現(xiàn)。

除此之外,Detectron還包含了ICCV 2017最佳學(xué)生論文RetinaNet,Ross Girshick(RBG)此前的研究Faster R-CNN和RPN、Fast R-CNN、以及R-FCN的實(shí)現(xiàn)。

Detectron的基干(backbone)網(wǎng)絡(luò)架構(gòu)包括ResNeXt{50,101,152}、ResNet{50,101,152}、FPN和VGG16。

同時(shí),Facebook還發(fā)布了70多種ImageNet-1k預(yù)訓(xùn)練模型的性能基準(zhǔn),包括用用1、2塊GPU時(shí),上述各種基干架構(gòu)和檢測(cè)算法相結(jié)合做區(qū)域建議、遮罩檢測(cè)以及人體關(guān)鍵點(diǎn)檢測(cè)的訓(xùn)練時(shí)間、推理時(shí)間等。

要使用Detectron,你需要先配置英偉達(dá)GPU(是的,它還不支持CPU)、Linux系統(tǒng)和Python2,還要安裝Caffe2和COCO API。然后,三步裝上Detectron:

Clone Detectron:

# DETECTRON=/path/to/clone/detectron git clone https://github.com/facebookresearch/detectron $DETECTRON

設(shè)置Python模塊:

cd $DETECTRON/lib && make

檢查Detectron的測(cè)試通過:

python2 $DETECTRON/tests/test_spatial_narrow_as_op.py

這樣,就足夠用預(yù)訓(xùn)練模型做推理了。

如果要用Detectron來訓(xùn)練自己的檢測(cè)模型,就需要先確保能通過符號(hào)鏈接lib/datasets/data找到數(shù)據(jù)集,然后用CMake創(chuàng)建定制的運(yùn)算符庫:

cd $DETECTRON/lib && make ops

并檢查這些運(yùn)算符的測(cè)試通過:

python2 $DETECTRON/tests/test_zero_even_op.py

Facebook還貼心地寫了份上手教程,教你用預(yù)訓(xùn)練的Mask R-CNN來做物體檢測(cè)。

如果要在本地圖像上運(yùn)行,只需要使用infer_simple.py工具,運(yùn)行:

python2 tools/infer_simple.py \--cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml \--output-dir /tmp/detectron-visualizations \--image-ext jpg \--wts https://s3-us-west-2.amazonaws.com/detectron/35861858/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl \demo

就能得到如下圖所示的輸出。

如果要在COCO數(shù)據(jù)集上做推理,需要運(yùn)行:

python2 tools/test_net.py \--cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml \TEST.WEIGHTS https://s3-us-west-2.amazonaws.com/detectron/35861858/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl \NUM_GPUS 1

上面這個(gè)例子,用了端到端預(yù)訓(xùn)練的Mask R-CNN,在一塊GPU上運(yùn)行。如果要使用多個(gè)GPU,需要在第二行之后添加 —multi-gpu-testing \ 并更改最后的NUM_GPUS數(shù)量。

截至量子位發(fā)稿,Detectron在GitHub上放出7小時(shí),已經(jīng)收獲738顆星標(biāo)、101次Fork。

RBG在Facebook上發(fā)帖介紹說,這個(gè)項(xiàng)目2016年7月啟動(dòng),想要基于Caffe 2構(gòu)建一個(gè)快速、靈活的物體檢測(cè)系統(tǒng),至今已經(jīng)一年半的時(shí)間。Detectron系統(tǒng)本來是Facebook內(nèi)部使用的,我們前面提到的Mask R-CNN和RetinaNet背后,都由Detectron提供支持。

除了RBG之外,Ilija Radosavovic、Georgia Gkioxari、Piotr Dollar和何愷明也參與了Detectron項(xiàng)目。

在Facebook內(nèi)部,Detectron不僅用于研究,還用來為增強(qiáng)現(xiàn)實(shí)、商業(yè)誠信等方面的應(yīng)用訓(xùn)練定制化的模型。這些模型訓(xùn)練完成后可以部署在云端或者移動(dòng)設(shè)備上,由Caffe2運(yùn)行時(shí)提供支持。

RBG說,Facebook將Detectron平臺(tái)開源出來,是想要加速世界各地實(shí)驗(yàn)室的研究,推動(dòng)物體檢測(cè)的進(jìn)展。

Now go forth and create algorithms to detect all of the things!

想用Detectron搞物體檢測(cè)算法,你可能要用到下面這些鏈接:

Detectron開源代碼:
https://github.com/facebookresearch/Detectron

相關(guān)物體檢測(cè)論文:

Mask R-CNN
https://arxiv.org/abs/1703.06870

RetinaNet
https://arxiv.org/abs/1708.02002

Faster R-CNN和RPN
https://arxiv.org/abs/1506.01497

Fast R-CNN
https://arxiv.org/abs/1504.08083

R-FCN
https://arxiv.org/abs/1605.06409

性能基準(zhǔn)和Model ZOO:
https://github.com/facebookresearch/Detectron/blob/master/MODEL_ZOO.md

另外,你們可能還想去RBG大神的FB帖子底下表達(dá)一波感謝(以及質(zhì)問開源代碼為何拖了這么久):

https://www.facebook.com/ross.girshick/posts/10159910213745261

轉(zhuǎn)載于:https://www.cnblogs.com/Anita9002/p/8335710.html

總結(jié)

以上是生活随笔為你收集整理的Mask R-CNN详解和安装的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。