论文笔记:Spatial-Temporal Map Vehicle Trajectory Detection Using Dynamic Mode Decomposition and Res-UNe
0 摘要
本文提出的方法,用于從高角度交通攝像機(jī)中提取車輛軌跡。
????????動(dòng)態(tài)模式分解 (DMD) 方法通過(guò)將空間時(shí)間圖 (STMap) 分解為稀疏前景和低秩背景來(lái)提取車輛線。通過(guò)采用兩種流行的深度學(xué)習(xí)架構(gòu),為語(yǔ)義分割任務(wù)設(shè)計(jì)了一個(gè)名為 Res-UNet+ 的深度神經(jīng)網(wǎng)絡(luò)。 Res-UNet+ 神經(jīng)網(wǎng)絡(luò)顯著提高了基于 STMap 的車輛檢測(cè)性能,DMD 模型為理解 STMap 保存的底層時(shí)空結(jié)構(gòu)的演變提供了許多有趣的見(jiàn)解。
????????模型輸出與之前的圖像處理模型和主流語(yǔ)義分割深度神經(jīng)網(wǎng)絡(luò)進(jìn)行了比較。經(jīng)過(guò)全面評(píng)估,該模型被證明是準(zhǔn)確和穩(wěn)健的,可應(yīng)對(duì)許多具有挑戰(zhàn)性的因素。最后但同樣重要的是,本文從根本上解決了 NGSIM 軌跡數(shù)據(jù)中發(fā)現(xiàn)的許多質(zhì)量問(wèn)題。發(fā)布清理后的高質(zhì)量軌跡數(shù)據(jù),以支持未來(lái)關(guān)于交通流和微觀車輛控制的理論和建模研究。該方法是基于視頻的軌跡提取的可靠解決方案,具有廣泛的適用性。
1 introduction
????????視頻傳感器已廣泛用于提取車輛軌跡數(shù)據(jù),以支持學(xué)術(shù)研究、交通運(yùn)營(yíng)、管理和設(shè)計(jì)。最具影響力的基于視頻的軌跡數(shù)據(jù)集之一是下一代模擬 (NGSIM) 軌跡數(shù)據(jù)集 [1],它通過(guò)揭示微觀交通特征顯著推動(dòng)了交通流和建模研究。正如[2]所強(qiáng)調(diào)的,盡管基于視頻的軌跡數(shù)據(jù)極大地改進(jìn)了模型的類型和模型的校準(zhǔn)/訓(xùn)練,但對(duì)高質(zhì)量、高分辨率的軌跡數(shù)據(jù)仍然存在大量需求。從交通攝像機(jī)中以令人滿意的精度收集有用的軌跡數(shù)據(jù)是一項(xiàng)非常具有挑戰(zhàn)性的任務(wù)。傳統(tǒng)的軌跡提取范式包含多階段算法,容易受到天氣、光照、視頻質(zhì)量和其他因素的影響。車輛軌跡數(shù)據(jù)集通常需要大量的后處理工作,例如清理和驗(yàn)證。
????????為了解決NGSIM數(shù)據(jù)集中的數(shù)據(jù)質(zhì)量問(wèn)題,滿足交通流和建模研究的需要,本文提出了一種機(jī)器學(xué)習(xí)增強(qiáng)掃描線方法從時(shí)空地圖(STMap)中檢測(cè)軌跡。 動(dòng)態(tài)模式分解 (DMD) 用于通過(guò)將 STMap 分解為不同的底層結(jié)構(gòu)來(lái)分析它。 DMD 結(jié)果用于為新的深度神經(jīng)網(wǎng)絡(luò)預(yù)處理和準(zhǔn)備訓(xùn)練數(shù)據(jù)。 利用兩種現(xiàn)有的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)來(lái)構(gòu)建用于 STMap 分割任務(wù)的 Res-UNet+ 模型。 該方法在很大程度上改進(jìn)了車輛檢測(cè)的掃描線算法,簡(jiǎn)化了高保真軌跡數(shù)據(jù)采集。
????????此外,本文還提供了一種通過(guò)在靜態(tài) STMap 上顯示車輛運(yùn)動(dòng)來(lái)驗(yàn)證提取的車輛軌跡的有效方法。 先前的軌跡驗(yàn)證過(guò)程依賴于通過(guò)將原始視頻上的檢測(cè)和跟蹤結(jié)果可視化的直接方法,或通過(guò)針對(duì)原始軌跡和重建軌跡校準(zhǔn)微觀模型并比較兩個(gè)校準(zhǔn)模型中哪個(gè)更好的間接方法。 然而,時(shí)空?qǐng)D允許以最小的努力直接識(shí)別單個(gè)車輛的錯(cuò)誤。
2? 相關(guān)工作
2.1 高分辨率的車輛軌跡數(shù)據(jù)集
本節(jié)回顧了三個(gè)重要的高分辨率車輛軌跡數(shù)據(jù)集及其處理方法。
2.1.1 NGSIM
????????NGSIM 軌跡數(shù)據(jù)集是交通研究界的一項(xiàng)重要資產(chǎn),由從高層建筑拍攝的交通視頻生成。 NGSIM 應(yīng)用基于外觀的車輛檢測(cè)算法從圖像中提取線段并將其與 3D 車輛模型進(jìn)行匹配。檢測(cè)到的車輛根據(jù)它們?cè)跀z像頭圖像中的外觀進(jìn)行跟蹤。
???????? NGSIM 數(shù)據(jù)集已被用于校準(zhǔn)和評(píng)估交通流模型中的真實(shí)數(shù)據(jù),展示駕駛行為或交通現(xiàn)象,以及進(jìn)行交通狀態(tài)估計(jì)和預(yù)測(cè) [3][4]。
????????然而,越來(lái)越多的文獻(xiàn)揭示了 NGSIM 數(shù)據(jù)集中潛在的系統(tǒng)錯(cuò)誤。一些研究 [5][6][7][8][9] 研究了性能問(wèn)題并提出了基于統(tǒng)計(jì)分布、過(guò)濾和平滑、交通通知約束和信息論的去噪方法 [10]。
2.1.2 HighD & inD 數(shù)據(jù)
????????Krajewski 等人 [11] 發(fā)布了一個(gè) HighD 數(shù)據(jù)集,該數(shù)據(jù)集由無(wú)人機(jī)在德國(guó)高速公路上收集的 110,500 輛車輛組成。
???????? 同一組發(fā)布了包含行人、騎自行車的人、貨車等的交叉路口道路使用者的 inD 軌跡數(shù)據(jù)集。
????????用于生成 HighD 數(shù)據(jù)集的對(duì)象檢測(cè)算法是 U-Net 語(yǔ)義分割算法。
2.1.3 pNEUMA
????????與高速公路車輛軌跡數(shù)據(jù)集相比,Barmpounakis 和 Geroliminis [12] 提出了一個(gè)完整的城市數(shù)據(jù)集,該數(shù)據(jù)集是從名為 pNEUMA(使用航拍鏡頭的城市交通監(jiān)測(cè)新時(shí)代)的大量無(wú)人機(jī)中收集的。 他們的項(xiàng)目是使用商業(yè)流量平臺(tái)進(jìn)行的[13]。
???????? 該數(shù)據(jù)集在使用 10 架無(wú)人機(jī)的多模式交通環(huán)境下覆蓋了 100 多公里車道和約 100 個(gè)十字路口的擁堵區(qū)域。 原始 pNEUMA 數(shù)據(jù)集不包含車道信息,這需要用戶應(yīng)用額外的車道識(shí)別方法。
2.2 交通錄像分析中的CV算法
????????交通檢測(cè)是計(jì)算機(jī)視覺(jué)中目標(biāo)檢測(cè)問(wèn)題的一部分。 近年來(lái),隨著深度學(xué)習(xí)的興起,取得了長(zhǎng)足的進(jìn)步。 對(duì)象檢測(cè)不僅涉及識(shí)別目標(biāo)類中的對(duì)象,還涉及精確定位每個(gè)對(duì)象。
????????表 1 是與交通檢測(cè)相關(guān)的計(jì)算機(jī)視覺(jué)技術(shù)的總結(jié),可分為五個(gè)主要類別,包括基于形狀的方法[14][15][16]、背景/前景建模[17][18][19] 、深度學(xué)習(xí)模型[20][21][22][23]、基于特征的模型[24][25]和掃描線方法[26][27]。
????????
????????語(yǔ)義分割是與交通視頻分析相關(guān)的另一項(xiàng)計(jì)算機(jī)視覺(jué)任務(wù),它預(yù)測(cè)每個(gè)圖像的像素級(jí)別的類別標(biāo)簽。 挑戰(zhàn)在于類標(biāo)簽的像素級(jí)精度和多尺度上下文信息的要求[28]。
???????? 語(yǔ)義分割已用于許多應(yīng)用:自動(dòng)駕駛汽車、虛擬和增強(qiáng)現(xiàn)實(shí)、生物醫(yī)學(xué)圖像分割等。
????????許多分割模型建立在流行的神經(jīng)網(wǎng)絡(luò)之上,例如 AlexNet [29]、VGG-16 [30]、GoogLeNet [31] 和 ResNet [32]。
????????U-Net 于 2015 年首次被提出作為一種語(yǔ)義分割方法來(lái)處理生物醫(yī)學(xué)圖像 [33]。 原始的 vanilla U-Net 具有許多相似 U 形架構(gòu)的變體,從而產(chǎn)生了一系列模型,如 U-Net 模型家族。
?????????多目標(biāo)跟蹤 (MOT) 對(duì)于計(jì)算機(jī)視覺(jué)中的許多應(yīng)用至關(guān)重要,并且已被廣泛研究。
???????? 目標(biāo)跟蹤方法可以分為兩種類型:在線跟蹤和離線跟蹤。 在線跟蹤僅使用當(dāng)前和以前的幀。 長(zhǎng)期運(yùn)動(dòng)被嵌入到狀態(tài)空間中以供記憶[34-36]。 離線跟蹤基于使用所需對(duì)象的時(shí)間序列信息集合的全局優(yōu)化算法[37-39]。
???????? 最近的深度學(xué)習(xí)方法獲得了巨大的動(dòng)力并成功地提高了 MOT 的性能,包括 Siamese Networks、Attention and Transformer 和 Recurrent Neural Networks [40-43]。 其他一些實(shí)踐考慮了基于數(shù)據(jù)關(guān)聯(lián)或機(jī)器學(xué)習(xí)模型的數(shù)學(xué)公式中的跟蹤問(wèn)題,以提取用于聚類的軌跡特征[44-46]。
?2.3 掃描線方法 scanline
????????掃描線方法源于計(jì)算機(jī)視覺(jué)文獻(xiàn)中使用的時(shí)空切片(STS)。STS 方法被用于物體和行人檢測(cè)[49][50]。 在交通研究中,該技術(shù)被稱為掃描線法(scanline),它是一組像素,可以從視頻圖像中捕捉用戶選擇的道路上的物體運(yùn)動(dòng)。 在連續(xù)幀上將掃描線像素堆疊在一起后,就獲得了時(shí)空?qǐng)D(STMap)。 在 STMap 上,橫軸表示時(shí)間進(jìn)程,縱軸包含距離信息。
????????
????????在交通檢測(cè)中使用兩種類型的掃描線,橫向和縱向掃描線。 橫向掃描線是橫穿車道的橫截面掃描線,而縱向掃描線是沿著交通方向的。 橫向掃描線法主要用于交通計(jì)數(shù) [51] 和速度測(cè)量 [52]。 縱向掃描線法用于車輛跟蹤[53][54]和檢測(cè)[55]。 然而,大多數(shù)以前的掃描線方法僅用于估計(jì)宏觀參數(shù),例如交通量、車頭時(shí)距和點(diǎn)速度。
2.4??動(dòng)態(tài)模式分解 DMD dynamic mode decomposition
????????動(dòng)態(tài)模式分解是一種數(shù)據(jù)驅(qū)動(dòng)的分析方法,它集成了傅里葉變換和奇異值分解 (SVD)。
????????DMD 方法對(duì)時(shí)空相干結(jié)構(gòu)進(jìn)行特征分解 [59],因此可以有效地降低復(fù)雜系統(tǒng)的維數(shù)而不會(huì)失去準(zhǔn)確性 [60]。 DMD 方法在流體動(dòng)力學(xué)、視頻處理、控制、流行病學(xué)和金融模型等許多應(yīng)用領(lǐng)域獲得了廣泛關(guān)注。 DMD 算法試圖找到以下兩個(gè)矩陣之間的最佳擬合。
????????
?????????其中𝑥𝑘 (𝑘 = 1, . . , 𝑚 ) 是一個(gè)向量,表示時(shí)間間隔 𝑘 的動(dòng)態(tài)系統(tǒng)狀態(tài),𝑋 矩陣表示從間隔 1 到 (𝑚 ? 1) 的先驗(yàn)狀態(tài),𝑋' 矩陣表示從間隔 2到𝑚的后驗(yàn)狀態(tài)。
? ? ? ? X和X'通過(guò)以下線性操作關(guān)聯(lián)起來(lái):
?????????我們的目標(biāo)是找到代表狀態(tài)演化的矩陣𝐴。?
????????
????????????????𝐴? 由最小二乘優(yōu)化控制
?????????其中 𝑋? 是通過(guò)使用 Moore-Penrose 偽逆獲得的
????????
????????對(duì)于 DMD 算法,不是直接求解矩陣算子 𝐴,而是通過(guò)對(duì)A進(jìn)行正交分解之后在進(jìn)行特征分解來(lái)實(shí)現(xiàn)的
- 使用SVD 分解矩陣X
?????????
????????其中𝑈和𝑉是矩陣X的列和行正交基,*表示復(fù)共軛轉(zhuǎn)置。
- 通過(guò)投影到Ur,對(duì)A進(jìn)行降維,得到
????????
?????????
????????
- 計(jì)算的特征值
?????????
? ? ? ? W是特征向量,是特征值的對(duì)角矩陣?
- ?重構(gòu)A的特征向量
????????
????????上述方法將估計(jì)全矩陣A的回歸問(wèn)題的復(fù)雜性大大降低為計(jì)算對(duì)角線和稀疏矩陣的元素。DMD方法可以被認(rèn)為是一種具有高計(jì)算效率的穩(wěn)健主成分分析(PCA)。
????????矩陣𝐴的特征值可以表明主導(dǎo)模式的時(shí)間演變[61]。
????????Sirovich[62]將狀態(tài)向量疊加到一個(gè)大矩陣中并識(shí)別其相干結(jié)構(gòu)的方法命名為快照法。
3 方法
3.1 STmap的生成
????????如圖 1 所示,通過(guò)逐幀堆疊縱向掃描線(𝑙1、𝑙2、𝑙3、...、𝑙𝑚)以形成三維矩陣,其中 𝑛 表示每條掃描線的像素?cái)?shù), 𝑚是視頻幀數(shù),3表示RGB通道。
????????
?????????在 STMap 中同時(shí)移動(dòng)的彩色像素表示沿預(yù)定義掃描線通過(guò)的唯一車輛。 我們的目的是從 STMap 中分割每個(gè)車輛鏈以檢測(cè)軌跡。
3.2??用于 STMap 分割的動(dòng)態(tài)模式分解 (DMD)
????????每幀的掃描線像素值可以被認(rèn)為是特定時(shí)間戳的交通動(dòng)態(tài)狀態(tài)。
????????在時(shí)間x的交通狀態(tài)被我們記為 𝑙𝑥 ,于是我們有:
?????????
????????其中矩陣𝐴描述了時(shí)差運(yùn)算。 包含空間信息的 DMD 模式是 𝐴 的特征向量。 每個(gè) DMD 模式對(duì)應(yīng)一個(gè)特征值 𝐴。 通過(guò)求矩陣 𝐴 的特征向量和特征值,我們得到 DMD 模式 Φ。 ?????????
?????????Φ 的列是特征向量,𝛬 是特征值 的對(duì)角矩陣。 STMap 可以使用前 𝑘個(gè)?模式重建,其中 𝑘 ≤ min (𝑛, 𝑚)。
????????
(個(gè)人感覺(jué),每一列是特征向量的話,13式第一個(gè)矩陣應(yīng)該是轉(zhuǎn)置形式)
?????????其中 Φ 包含來(lái)自 STMap 的主要模式,矩陣 B 是幅度矩陣。 𝒱 是代表 DMD 模式時(shí)間演化的 Vandermonde 矩陣。 該功能如圖 2 所示。
????????
????????在幀 𝑡 ∈ 1, ... , 𝑚 處的掃描線向量 𝑙𝑡 可以估計(jì)如下: ?
????????設(shè)t=1,表示掃描線的初始狀態(tài)如下 ?
????????
????????然后可以使用第一條掃描線𝑙1 作為初始狀態(tài),將矩陣 B 估計(jì)為最小二乘問(wèn)題。 ?
????????
????????任何不隨時(shí)間變化的 DMD 模式都會(huì)有一個(gè)特征值𝜆𝑗 = 1,它構(gòu)成了 STMap 的背景(background)。
????????在 STMap 中,背景像素(模式不隨時(shí)間變化)在相鄰列之間高度相關(guān),表現(xiàn)為 STMap 內(nèi)的低秩結(jié)構(gòu)。 因此,DMD 算法通過(guò)將 STMap 分解為低秩(背景)和稀疏(前景)分量來(lái)分離背景和前景。 ?????????
????????4
(也就是前面說(shuō)的)
? ? ? ? ?其中
????????如圖 3 所示,與前景模式的特征值相比,背景與時(shí)間無(wú)關(guān),并且具有最小的 DMD 特征值 (≈ )。 圖 3 (D) 繪制了不同模式隨時(shí)間的波動(dòng)。 具有最低頻率的背景模式的幅度表明隨時(shí)間的變化最小。
????????如圖 3(A)和 3(B)所示,DMD 的前景檢測(cè)結(jié)果對(duì)于 STMap 上的軌跡提取并不完美。 但是,它們足夠清晰,可以為深度學(xué)習(xí)模型預(yù)處理和生成訓(xùn)練數(shù)據(jù)。
????????
3.3 STMap 切割模型?
????????Res-UNet+ 模型使用 ResNet 塊作為主干,并通過(guò)修改解碼層進(jìn)一步提高其性能。
????????在編碼過(guò)程中,ResNet 塊替換了 UNet 模型中的原始編碼器。編碼和解碼層之間的互連旨在減少語(yǔ)義差距。
????????我們?cè)诓煌?jí)別的解碼階段之間添加了內(nèi)部連接。許多分割研究[63-65]表明,從不同尺度學(xué)習(xí)的特征通常包含不同的信息。較低級(jí)別的層捕獲對(duì)象的邊界,而較高級(jí)別的層探索目標(biāo)對(duì)象的定位。在 vanilla UNet 架構(gòu)中,相應(yīng)級(jí)別的編碼器和解碼器之間只有互連。為了使較低級(jí)別的解碼器信息能夠傳遞給較高級(jí)別的解碼器,我們連接所有解碼器層以更好地定位并學(xué)習(xí)分割網(wǎng)絡(luò)中的表示。各層的多尺度內(nèi)連接和深度如圖4所示,網(wǎng)絡(luò)命名為Res-UNet+。
????????
?????????編碼器層使用兩個(gè)分支 ResNet為基礎(chǔ)架構(gòu),包含了上分支和下分支:(下標(biāo)為l的是下分支,下標(biāo)為u的是上分支,第i層的輸出為)
????????
?Conv3是3×3的卷積算子
?
?????????不同級(jí)別之間具有內(nèi)部連接的解碼器層描述如下:
??
?是第i層解碼器的輸出,是第i層編碼器的輸出 ,[.]表示concatenate此操作
?分別表示卷積、轉(zhuǎn)置的卷積、兩次卷積(后面都跟著ReLU激活函數(shù))
?4 實(shí)驗(yàn)部分
4.1 baseline
作為基線模型的主流圖像語(yǔ)義分割模型考慮如下
- ?ResNet-18/ ResNet-50:
????????ResNet 的構(gòu)建塊包括連續(xù)包含卷積、批量歸一化和 ReLu 層的主分支,以及繞過(guò)主干以使梯度更容易流動(dòng)的殘差連接。
????????在本文中,我們測(cè)試了 18 層和 50 層的 ResNet 架構(gòu)作為參考模型。圖 4 的左分支說(shuō)明了在所提出的模型中使用的類似 ResNet 結(jié)構(gòu)。
- UNet:
????????具有編碼和解碼階段的 vanilla UNet 模型也用作參考模型。skip-connection由兩組卷積和 ReLU 層組成。 vanilla UNet 具有類似于圖 4 的 U 形結(jié)構(gòu),但具有更直接的左分支,并且沒(méi)有在提議的模型中定義的內(nèi)部連接解碼層。
- Res-UNet:
對(duì)于 Res-UNet 模型,我們沒(méi)有添加內(nèi)部連接來(lái)整合來(lái)自所有編碼器層的信息。我們的 Res-UNet 架構(gòu)通過(guò)用雙分支 ResNet 塊替換原始編碼器層來(lái)改革 UNet 模型架構(gòu)。
- 全卷積網(wǎng)絡(luò)(FCN):
FCN模型是一個(gè)端到端的編碼器-解碼器語(yǔ)義分割神經(jīng)網(wǎng)絡(luò)。
- DeepLabv3+:
DeepLab 模型也是建立在編解碼框架之上,采用 Xception 模型,實(shí)現(xiàn)更快更強(qiáng)的編解碼器網(wǎng)絡(luò)[67]。
- SegNet:
另一個(gè)像素級(jí)分割神經(jīng)網(wǎng)絡(luò)是 SegNet,它使用 13 個(gè)拓?fù)?#xff08;類似于 VGG16) 的卷積層作為編碼器。他們的解碼器層使用在相應(yīng)編碼器層中計(jì)算的池化索引來(lái)執(zhí)行非線性上采樣[68]。
4.2 數(shù)據(jù)集
????????與其他高度專業(yè)化且需要大量專業(yè)知識(shí)和經(jīng)驗(yàn)的數(shù)據(jù)標(biāo)記過(guò)程不同,使用上述 DMD 方法,一個(gè)人就足以完成標(biāo)記數(shù)百個(gè) STMap 的任務(wù)。 這是使用 STMap 方法的優(yōu)點(diǎn)之一,因?yàn)椴恍枰獜乃锌赡艿谋壤⒉糠帧⒔嵌取㈩伾蛐螤钪惺占囕v圖像。
???????? 此外,與背景像素相比,車輛線的模式很容易被分割。 在這項(xiàng)研究中,STMap?訓(xùn)練數(shù)據(jù)集是使用四個(gè) 15 分鐘的 NGSIM I-80 視頻創(chuàng)建的。 我們從 20 個(gè)車道中獲得了 20 個(gè) STMap,然后將其裁剪成 1000 個(gè) 512*512 圖像。 由于 STMap 中的車輛鏈從左上角延伸到右下角,因此我們不需要在數(shù)據(jù)增強(qiáng)過(guò)程中使用旋轉(zhuǎn)變換。
4.3 軌跡提取
????????
?4.4? 評(píng)估標(biāo)準(zhǔn)
????????三個(gè)主要性能指標(biāo)用于定量評(píng)估分割模型的性能、準(zhǔn)確性、Jaccard 系數(shù)和 BF 分?jǐn)?shù)(邊界 F1 分?jǐn)?shù))。
???????? 準(zhǔn)確度 (Acc) :正確識(shí)別出軌跡的數(shù)量/軌跡的總數(shù)量
????????
????????但是,Acc 是一個(gè)主要指標(biāo),需要與其他指標(biāo)結(jié)合使用才能進(jìn)行完整的評(píng)估。 ?
????????Jaccard 系數(shù)用于衡量?jī)蓚€(gè)集合 A 和 B 之間的相似性
????????
?????????Jaccard 系數(shù)是一個(gè)重疊指數(shù),用于量化兩個(gè)分割圖像區(qū)域之間的一致性。 Jaccard 系數(shù)也可以用真陽(yáng)性 (TP)、假陽(yáng)性 (FP) 和假陰性 (FN) 表示為:
????????
????????第三個(gè)性能指標(biāo)是 BF 分?jǐn)?shù),,BF Score 定義為精確率和召回率值之間的調(diào)和平均值,以決定邊界上的點(diǎn)是否已匹配。
????????
????????軌跡檢測(cè)結(jié)果的誤差度量是所有軌跡點(diǎn)的平均絕對(duì)誤差(MAE)。
????????
??????其中,𝑜是軌跡指數(shù),yo(𝑡)和?𝑜(𝑡)分別是時(shí)間t的實(shí)際位置和模型估計(jì)的位置,𝑀𝐴𝐸𝑜是ground-truth軌跡和估計(jì)軌跡之間的平均絕對(duì)誤差,通過(guò)對(duì)共同時(shí)間窗口內(nèi)所有距離差異的平均計(jì)算。
????????如果平均絕對(duì)誤差低于預(yù)先確定的閾值(在本研究中為15英尺),我們將把檢測(cè)到的軌跡視為真陽(yáng)性TP。否則,它將被視為假陽(yáng)性結(jié)果FP。
5? 實(shí)驗(yàn)設(shè)計(jì)
本研究中使用的視頻數(shù)據(jù)來(lái)自NGSIM I80-1數(shù)據(jù)集,該數(shù)據(jù)集于2005年4月13日下午4點(diǎn)至4點(diǎn)15分記錄在加利福尼亞州埃默里維爾的交通情況。記錄的交通流方向是北行。每臺(tái)攝像機(jī)都從高速公路附近的一棟30層樓的屋頂上觀察通過(guò)研究區(qū)域的車輛。研究中使用了四個(gè)攝像頭的五條車道,包括一條高乘載車輛(HOV)車道,如圖6所示。
?7 實(shí)驗(yàn)結(jié)果
7.1 STmap 分割評(píng)估
?全局精度是正確分類的像素?cái)?shù)占總像素?cái)?shù)的比值。 平均準(zhǔn)確度是每個(gè)類別的平均準(zhǔn)確度。
平均 IoU 是所有類別的平均 IoU 分?jǐn)?shù)。 加權(quán) IoU 是圖像中每個(gè)類的像素?cái)?shù)加權(quán)的 IoU 分?jǐn)?shù)。 使用加權(quán)度量是為了減少不平衡類的影響。
總結(jié)
以上是生活随笔為你收集整理的论文笔记:Spatial-Temporal Map Vehicle Trajectory Detection Using Dynamic Mode Decomposition and Res-UNe的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 论文笔记 A Spatial-Tempo
- 下一篇: NTU 课程笔记:CV6422 good