yolo v3制作自己的数据_小白也能弄懂的目标检测之YOLO系列 第一期
生活随笔
收集整理的這篇文章主要介紹了
yolo v3制作自己的数据_小白也能弄懂的目标检测之YOLO系列 第一期
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
大家好,上期分享了電腦端幾個免費無廣告且實用的錄屏軟件,這期想給大家來講解YOLO這個算法,從零基礎學起,并最終學會YOLOV3的Pytorch實現,并學會自己制作數據集進行模型訓練,然后用自己訓練好的模型進行預測。話不多說,先上我用VisDrone數據集進行訓練的效果圖:在正式制作數據集進行模型訓練之前,還是向大家介紹一下YOLO的來源以及其作用效果,我想你們也并不只是想單純按步驟跑起來這么簡單吧,換了一下樣子,到時候又不會了,所以重要的是自己能夠理解這其中的原理,讓我們一起來學習了解一下吧。
前言
當我們談起計算機視覺時,首先想到的就是圖像分類,沒錯,圖像分類是計算機視覺最基本的任務之一,但是在圖像分類的基礎上,還有更復雜和有意思的任務,如目標檢測,物體定位,圖像分割等,見圖1所示。其中目標檢測是一件比較實際的且具有挑戰性的計算機視覺任務,其可以看成圖像分類與定位的結合,給定一張圖片,目標檢測系統要能夠識別出圖片的目標并給出其位置,由于圖片中目標數是不定的,且要給出目標的精確位置,目標檢測相比分類任務更復雜。目標檢測的一個實際應用場景就是無人駕駛,如果能夠在無人車上裝載一個有效的目標檢測系統,那么無人車將和人一樣有了眼睛,可以快速地檢測出前面的行人與車輛,從而作出實時決策。總結:目標檢測是識別圖片或者視頻中所出現所有的目標和其位置,要解決的問題是:目標分類和目標定位。目前比較流行的目標檢測算法可以分為兩類:第一類是基于侯選區域Region Proposal的R-CNN系算法(R-CNN,Fast R-CNN, Faster R-CNN),它們是two-stage的,需要先使用啟發式方法(selective search)或者CNN網絡(RPN)產生候選區域Region Proposal,然后再在Region Proposal上做分類與回歸。通俗的意思就是:網絡會根據候選區域生成位置和類別。第二類是像Yolo,SSD這類one-stage算法,其僅僅使用一個CNN網絡直接預測不同目標的類別與位置,直接從圖片生成位置和類別。從圖中的FPS和mAP我們可以看出:第一類方法是準確度高一些,但是速度慢,但是第二類算法是速度快,但是準確性要低一些。這里FPS是用來評估目標檢測的速度,即每秒內可以處理的圖片數量或者處理一張圖片所需時間來評估檢測速度,時間越短,速度越快。mAP是物體檢測器準確率的度量方法,通俗來說就是目標檢測準確度。提醒:FPS和mAP是目標檢測算法的兩個重要評估指標。這里大家可能不太懂具體是什么意思,不要擔心,后期在我的卷積系列單元里面會出有關于這些,幫助大家更好的理解。YOLO進化史
這里主要介紹YOLO算法,首先了解一下YOLO的進化史,其全稱是You Only Look Once: Unified, Real-Time Object Detection,You Only Look Once說的是只需要一次CNN運算,Unified指的是這是一個統一的框架,提供end-to-end的預測,而Real-Time體現是Yolo算法速度快。通俗的意思就是神經網絡只需要看一次圖片,就可以預測圖片中所有的物體邊框。從圖中我們可以看到,YOLO已經發展到第五代了,而v4和v5是最近提出來的,所以其中包含的技術是非常多的,對于新手來說理解起來肯定又很大的難度,故在此我想和大加分享一下有關于YOLO系列的知識,以便大家能夠更好的理解,這里我會從YOLOV1開始進行講解,我想只有深入理解,才能更好的使用,所以如果你感興趣的話,就繼續追我下面的文章吧。參考:https://blog.csdn.net/qq_34510308/article/details/106653190https://zhuanlan.zhihu.com/p/32525231https://segmentfault.com/a/1190000022632577·END·微信號:碼農的后花園長按識別關注哦總結
以上是生活随笔為你收集整理的yolo v3制作自己的数据_小白也能弄懂的目标检测之YOLO系列 第一期的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python 底层实现_用Python从
- 下一篇: python程序员年薪百万_想要成为年薪