日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) >

Pedestrian Identification (1) ——前景目标检测

發(fā)布時(shí)間:2023/12/15 40 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Pedestrian Identification (1) ——前景目标检测 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

運(yùn)動(dòng)前景對(duì)象檢測(cè)一直是國(guó)內(nèi)外視覺監(jiān)控領(lǐng)域研究的難點(diǎn)和熱點(diǎn)之一,其目的是從序列圖像中將變化區(qū)域從背景圖像中提取出來,運(yùn)動(dòng)前景對(duì)象的有效檢測(cè)對(duì)于對(duì)象跟蹤、目標(biāo)分類、行為理解等后期處理至關(guān)重要,那么區(qū)分前景對(duì)象,非常關(guān)鍵的一個(gè)問題是確定一個(gè)非常合適的背景,背景從象素的角度來理解,每一個(gè)象素就是有可能是前景點(diǎn),也有可能是背景點(diǎn),那么我們就要防止背景中誤進(jìn)入原屬于前景點(diǎn)的對(duì)象,目前有幾種常用的方法,但分別有利弊。

主要可以分為:背景建模,幀差法,光流法

1:?Single?Gaussian(單高斯模型)

???Real-time?tracking?of?the?human?body?

2:Mixture?of?Gaussian?model(混合高斯模型)

???An?improved?adaptive?background?mixture?model?for?real-time?tracking?with shadow?detection

???基于混合高斯模型的自適應(yīng)背景差分算法,類似于幀間差分法,使用混合高斯分布模型來表征圖像幀中每一個(gè)像素點(diǎn)的特征,當(dāng)獲取新的圖像幀時(shí),適時(shí)更新混合高斯分布模型,某一時(shí)刻選取混合高斯模型中的一個(gè)子集表征當(dāng)前背景,如果當(dāng)前圖像幀的某個(gè)像素點(diǎn)與混合高斯模型的背景子集匹配,則判定為背景,否則判定為前景點(diǎn)。總體來說是通過學(xué)習(xí)與訓(xùn)練計(jì)算出有沒有運(yùn)動(dòng)對(duì)象時(shí)的背景?

3:Running?Gaussian?average(滑動(dòng)高斯平均)

????Real-tine?tracking?of?the?human?body

混合高斯在現(xiàn)有的背景建模算法中算是較好的,很多新的算法或者改進(jìn)的算法都是基于它的原理變形的,但是混合高斯的缺點(diǎn)是計(jì)算量相對(duì)比較大,速度偏慢,對(duì)光照敏感。?

4CodeBook(碼本)

Real-time?foreground-background?segmentation?using?codebook?model

Real-time?foreground-background?segmentation?using?a?modified?codebook?model

碼本的效果還可以,之后有多中版本,?但是對(duì)光照也敏感;?

5SOBS-Self-organization?background?subtraction(自組織背景檢測(cè))

??A?self-Organizing?approach?to?background?subtraction?for+visual?surveillance

??對(duì)于自組織背景建模算法即SOBS算法,該算法對(duì)光照有一定的魯棒性,但MAP的模型比輸入圖片大,計(jì)算量比較大,但是可以通過并行處理來解決算法的速度問題,可以進(jìn)行嘗試;?

6SACON(樣本一致性建模算法)

A?consensus-based?method?for?tracking

A?consensus-based?method?for?tracking-Modelling?background?scenario?and?foreground?appearance

SACON-Background?subtraction?based?on?a?robust?consensus?method

該方法是基于統(tǒng)計(jì)的知識(shí),效果還不錯(cuò);?

7ViBe算法

???ViBe-A?Universal?Background?Subtraction

???作者網(wǎng)站:http://www2.ulg.ac.be/telecom/research/vibe/

???ViBe算法是一個(gè)有別于傳統(tǒng)方法的算法,作者已經(jīng)申請(qǐng)了專利,可以做研究,用一幀圖像就可以初始化背景模型,該方法計(jì)算量比較小,速度很快,可以嵌入到相機(jī)中,可以抗攝像頭抖動(dòng),并且對(duì)噪聲也有一定的魯棒性,檢測(cè)效果很不錯(cuò);?

8Color(基于顏色信息的背景建模方法)

???A?statistical?approach?for?real-time?robust?background?subtraction?and?shadow?detection

???基于顏色信息的背景建模方法,簡(jiǎn)稱Color算法,該算法將像素點(diǎn)的差異分解成Chromaticity差異和Brightness差異,對(duì)光照具有很強(qiáng)的魯棒性,并有比較好的效果,計(jì)算速度也比較快,基本可以滿足實(shí)時(shí)性的要求,做了許多視頻序列的檢測(cè),效果比較理想;?

9:統(tǒng)計(jì)平均法?

10Temporal?Median?filter(?中值濾波法)

????Automatic?congestion?detection?system?for?underground?platform

????Detecting?moving?objects,ghost,and?shadows?in?video?streams

????統(tǒng)計(jì)平均法和中值濾波法,對(duì)于這兩個(gè)算法,只對(duì)統(tǒng)計(jì)平均法做了實(shí)現(xiàn),并進(jìn)行了測(cè)試,算法的應(yīng)用具有很大的局限性,只能算是理論上的一個(gè)補(bǔ)充;?

11W4方法

????W4.pdf

W4算法應(yīng)該是最早被用于實(shí)際應(yīng)用的一個(gè)算法,這個(gè)大家可以去查看相關(guān)的資料,這里不再細(xì)說;?

12:本征背景法

A?Bayesian?computer?vision?system?for?modeling?human?interactions

????基于貝葉斯框架?

13:核密度估計(jì)

?????Non-parametric?model?for?background?subtraction

最后就是核密度估計(jì)算法,該算法應(yīng)該是一個(gè)比較魯棒的算法,可以解決很多算法參數(shù)設(shè)置方面的問題,無需設(shè)置參數(shù)應(yīng)該是算法的一大優(yōu)勢(shì)。?

????SOBSColorVIBESACONPDF等可以進(jìn)行深入的了解,特別是近年來出現(xiàn)的Block-based(塊)或Region-Based(區(qū)域)、Features-Based(特征)、基于層次分類或?qū)哟斡?xùn)練器的算法可以進(jìn)行深入的研究。?

14:光流法(速度太慢,基本不用)

????光流法概念源自光流場(chǎng),當(dāng)運(yùn)動(dòng)物體的影象在表面上的模式運(yùn)動(dòng)就是所謂的光流場(chǎng),是一個(gè)二維速度場(chǎng)。而光流法根據(jù)連續(xù)多幀圖像序列,計(jì)算各象素點(diǎn)運(yùn)動(dòng)的大小和方向,它反映了圖像上每一像點(diǎn)灰度的變化趨勢(shì)。優(yōu)點(diǎn):不需要背景建模,在無法預(yù)先獲得場(chǎng)景的任何信息的情況下,也能夠檢測(cè)出獨(dú)立的運(yùn)動(dòng)對(duì)象。缺點(diǎn)是計(jì)算復(fù)雜,往往需要特殊的硬件支持,很難滿足實(shí)時(shí)性要求。?

15http://code.google.com/p/bgslibrary/?這個(gè)網(wǎng)站的庫(kù)包含了各種各樣背景減除的方法,可以省很多時(shí)間。?

16Evaluation?of?Background?Subtraction?Techniques?for?Video?Surveillance

綜述性評(píng)估文章,可以看到各種算法的性能。?

17:王先榮博客對(duì)前景提取的分析(含代碼)

http://www.cnblogs.com/xrwang/archive/2010/02/21/ForegroundDetection.html?

18:幀差法

|frame(i)?-?frame(i-1)|?>?Th,背景就是上一幀圖像。每一幀與上一幀進(jìn)行差分運(yùn)算。提取效果顯然與運(yùn)動(dòng)前景對(duì)象的速度和幀率有關(guān)(幀率指一秒鐘有幾張圖片)。擴(kuò)展下,建立在統(tǒng)計(jì)模型基礎(chǔ)上的有選擇的背景建模,實(shí)際上就是混合高斯法。優(yōu)點(diǎn):速度較快,穩(wěn)定性較好。缺點(diǎn)是可能出現(xiàn)物體的空洞現(xiàn)象,空洞是由于某一大型運(yùn)動(dòng)物體,它的兩幀之間存在象素十分接近的重合部分,所以導(dǎo)致這部分被差分剪去了。(幀差法主要有,二幀差,三幀差,累積幀差)?

19:固定背景法

|frame(i)?-?background(i)|?>?Th,由于背景是預(yù)先設(shè)定的固定的一幅圖像,這里必然引入了四個(gè)問題:光照變化,攝像機(jī)抖動(dòng),高頻率振蕩背景,運(yùn)動(dòng)轉(zhuǎn)靜止物體的干擾。優(yōu)點(diǎn):計(jì)算簡(jiǎn)單,易于實(shí)現(xiàn)。缺點(diǎn)是攝象頭要絕對(duì)靜止,而且不適應(yīng)光照變化。?

20Pixel-Based?Adaptive?Segmenter

Background?Segmentation?with?Feedback:?The?Pixel-Based?Adaptive?Segmenter

http://www.mmk.ei.tum.de/~hom/pbas??網(wǎng)站

???(PBAS檢測(cè)算法是基于像素的無參數(shù)模型,該算法結(jié)合了SACONVIBE兩個(gè)算法的優(yōu)勢(shì),并在這兩個(gè)算法的基礎(chǔ)上改進(jìn)而來

主要?jiǎng)?chuàng)新點(diǎn):

?(1)引入控制論的思想,使前景判斷閾值和背景模型更新率自適應(yīng)變化,隨背景的復(fù)雜程度變化。

(2) 引入背景復(fù)雜程度的度量方法,根據(jù)背景復(fù)雜程度調(diào)整前景判斷閾值和背景模型更新率。????

?

總結(jié)

以上是生活随笔為你收集整理的Pedestrian Identification (1) ——前景目标检测的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。