基于在线地图的轨迹跟踪服务_论文推荐丨陆川伟,孙群,陈冰,等:车辆轨迹数据的道路学习提取法...
《測繪學(xué)報》
構(gòu)建與學(xué)術(shù)的橋梁 拉近與權(quán)威的距離
復(fù)制鏈接,關(guān)注《測繪學(xué)報》抖音!
【測繪學(xué)報的個人主頁】長按復(fù)制此條消息,長按復(fù)制打開抖音查看TA的更多作品##7NsBSynuc88##[抖音口令]
車輛軌跡數(shù)據(jù)的道路學(xué)習(xí)提取法
摘要:車輛軌跡數(shù)據(jù)的道路信息提取是地理信息領(lǐng)域的熱點(diǎn)也是難點(diǎn)之一,深度學(xué)習(xí)的快速發(fā)展為該問題的解決提供了一種思路與方法。本文針對車輛軌跡數(shù)據(jù)的車行道級道路提取問題,引入深度學(xué)習(xí)領(lǐng)域的生成式對抗網(wǎng)絡(luò),利用殘差網(wǎng)絡(luò)構(gòu)建深層網(wǎng)絡(luò)和多尺度感受野感知軌跡數(shù)據(jù)不同細(xì)節(jié)特征,構(gòu)建了基于條件生成式對抗網(wǎng)絡(luò)的軌跡方向約束下車行道級道路提取模型。首先提出了朝向-顏色映射柵格化轉(zhuǎn)換方法,實(shí)現(xiàn)軌跡朝向信息向HSV顏色空間的轉(zhuǎn)換;然后利用樣本數(shù)據(jù)學(xué)習(xí)模型參數(shù);最后將訓(xùn)練模型應(yīng)用到鄭州、成都、南京3個試驗區(qū)域提取車行道級道路數(shù)據(jù)。試驗結(jié)果表明,本文方法能夠有效地提取完整的車行道級道路數(shù)據(jù)。
關(guān)鍵詞:深度學(xué)習(xí) 條件生成式對抗網(wǎng)絡(luò) 車輛軌跡 車行道級道路提取 朝向-顏色映射
引文格式:陸川偉, 孫群, 陳冰, 等. 車輛軌跡數(shù)據(jù)的道路學(xué)習(xí)提取法. 測繪學(xué)報,2020,49(6):692-702.DOI:10.11947/j.AGCS.2020.20190305.
閱讀全文:http://xb.sinomaps.com/article/2020/1001-1595/2020-6-692.htm
全文概述
本文在軌跡點(diǎn)柵格化過程中融入軌跡數(shù)據(jù)的語義信息,并分別優(yōu)化了CGAN模型的生成器和判別器,進(jìn)而實(shí)現(xiàn)車行道級道路提取。首先將軌跡數(shù)據(jù)的朝向信息映射到HSV顏色空間,進(jìn)行圖像柵格化和樣本分割;然后提出構(gòu)建了基于條件生成式對抗網(wǎng)絡(luò)的軌跡方向約束下車行道級道路提取模型(directional trajectory to roadway-level road extraction model based on conditional generative adversarial nets, DR2RR-CGAN),并進(jìn)行模型訓(xùn)練;最后基于DR2RR-CGAN模型實(shí)現(xiàn)試驗區(qū)域內(nèi)有向軌跡地圖向車行道級道路地圖的轉(zhuǎn)換,進(jìn)而實(shí)現(xiàn)車行道級道路數(shù)據(jù)的提取與更新。
1
相關(guān)概念及道路提取流程
1.1 GAN相關(guān)概念
針對圖像生成任務(wù),GAN模型主要包括生成器(generative model,G)和判別器(discriminative model,D)兩部分。
GAN模型的優(yōu)勢是不需要先驗知識而使用一種噪聲分布直接進(jìn)行采樣,逐漸完全逼近真實(shí)數(shù)據(jù)。但是由于缺乏先驗信息,會產(chǎn)生不可控的訓(xùn)練結(jié)果,因此研究人員提出引入條件變量的CGAN模型。基于CGAN模型,以輸入圖像作為條件變量,提出了Image-to-Image模型[18]實(shí)現(xiàn)圖像到圖像的圖像轉(zhuǎn)換任務(wù)。圖 1為其模型應(yīng)用于遙感影像與柵格地圖之間轉(zhuǎn)換的結(jié)構(gòu)示意圖。
圖 1 Image-to-Image模型框架
1.2 DR2RR-CGAN模型道路提取流程
圖 2為基于DR2RR-CGAN模型的車行道級道路提取的主要流程。
圖 2 基于DR2RR-CGAN模型的車行道級道路提取流程
2 車行道級道路提取方法
2.1 朝向-顏色映射柵格化轉(zhuǎn)換
車輛軌跡數(shù)據(jù)通常以矢量點(diǎn)數(shù)據(jù)的形式進(jìn)行存儲,而GAN網(wǎng)絡(luò)的輸入為柵格圖片形式的多維矩陣,因此首先需要將車輛軌跡數(shù)據(jù)轉(zhuǎn)換為柵格圖片。通常矢-柵轉(zhuǎn)換是將平面坐標(biāo)系下的軌跡點(diǎn)直接映射到平面上,難以存儲軌跡點(diǎn)更多的屬性信息,如朝向等信息。因此本文首先提出將軌跡屬性信息轉(zhuǎn)換到柵格圖片顏色空間中的朝向-顏色映射柵格化轉(zhuǎn)換方法。車輛軌跡點(diǎn)的朝向一般以正北方向為0°,沿順時針方向,取值范圍為[0°~360°),如圖 3(a)。
圖 3 軌跡點(diǎn)朝向分布與HSV顏色模型
圖 4所示為軌跡數(shù)據(jù)朝向-顏色映射柵格化轉(zhuǎn)換前后對比圖。可以看出通過將軌跡朝向轉(zhuǎn)換到HSV顏色空間,顯著區(qū)分了位置鄰近但朝向相異的軌跡點(diǎn),明顯提升了視覺提取車行道信息的效率。
圖 4 軌跡數(shù)據(jù)朝向-顏色映射柵格化轉(zhuǎn)換
2.2 DR2RR-CGAN模型
參考Image-to-Image圖像轉(zhuǎn)換框架,本文設(shè)計了DR2RR-CGAN模型,實(shí)現(xiàn)有向軌跡地圖向車行道級道路地圖的轉(zhuǎn)換。在該模型中,有向軌跡地圖X作為條件變量分別輸入生成器和判別器中,其中生成器和判別器分別采用殘差網(wǎng)絡(luò)生成器和多尺度PatchGAN判別器。模型結(jié)構(gòu)如圖 5。
圖 5 DR2RR-CGAN模型框架
2.2.1 殘差網(wǎng)絡(luò)生成器
GAN模型的生成器一般采用自編碼模型或其變形,如U-Net模型[22],其過程都是首先下采樣提取深度特征,然后上采樣生成目標(biāo)的結(jié)構(gòu)。其中模型深度受下采樣過程中卷積計算的限制,根據(jù)輸入圖像的大小不同,最大深度有限。而卷積計算的深度直接影響模型生成效果,一般神經(jīng)網(wǎng)絡(luò)模型深度越深,卷積計算次數(shù)越多,模型學(xué)習(xí)能力越強(qiáng)。為了增加模型深度,參考Pix2PixHD[20]和PGGAN模型[23],本文在自編碼生成模型中引入殘差網(wǎng)絡(luò),提出了殘差網(wǎng)絡(luò)生成器,其結(jié)構(gòu)如圖 6所示。
圖 6 殘差網(wǎng)絡(luò)生成器
2.2.2 多尺度PatchGAN判別器
PatchGAN判別器[18]是通過對輸入圖像進(jìn)行多次卷積計算,輸出一個大小為N的特征圖,進(jìn)一步對特征圖上每一個元素判斷真或假,最后求均值即為輸入圖像為真或假的概率。判別器結(jié)構(gòu)就是一個卷積網(wǎng)絡(luò),其輸出特征圖上的像素點(diǎn)對應(yīng)原輸入圖像上的映射區(qū)域即為其感受野,也就是PatchGAN判別器中Patch的含義,其結(jié)構(gòu)如圖 7所示。
圖 7 感受野
2.2.3 目標(biāo)函數(shù)
在深度學(xué)習(xí)網(wǎng)絡(luò)模型優(yōu)化過程中,衡量目標(biāo)值與真實(shí)值差異的函數(shù)稱為損失函數(shù),如平方損失函數(shù)、對數(shù)損失函數(shù)等。訓(xùn)練集的平均損失稱為經(jīng)驗風(fēng)險,模型優(yōu)化過程,即為經(jīng)驗風(fēng)險最小化過程。但經(jīng)驗風(fēng)險最小化過程又要防止過擬合,需要降低模型復(fù)雜度,稱為結(jié)構(gòu)風(fēng)險最小化,常用L1、L2范數(shù)等。這種使得經(jīng)驗風(fēng)險和結(jié)構(gòu)風(fēng)險最優(yōu)化的優(yōu)化函數(shù)稱為目標(biāo)函數(shù)。
參考Image-to-Image模型和Pix2PixHD模型,一方面為了提升生成車行道級道路圖像的精細(xì)程度,另一方面為了降低訓(xùn)練模型的過擬合風(fēng)險。
2.3 模型訓(xùn)練
為了訓(xùn)練用于車行道級道路提取的DR2RR-CGAN模型,本文選取了鄭州市鄭東新區(qū)部分區(qū)域作為模型訓(xùn)練樣本區(qū),區(qū)域大小為4000 m×5500 m。訓(xùn)練數(shù)據(jù)為樣本區(qū)內(nèi)的軌跡數(shù)據(jù)和車行道級道路數(shù)據(jù),其中車行道級道路數(shù)據(jù)為基于谷歌影像人工采集獲取。首先將車輛軌跡源數(shù)據(jù)和道路數(shù)據(jù)進(jìn)行坐標(biāo)系轉(zhuǎn)換,將WGS-84地理坐標(biāo)投影為高斯-克呂格投影下的平面直角坐標(biāo);接著進(jìn)行朝向-顏色映射柵格化轉(zhuǎn)換,將車輛軌跡點(diǎn)朝向轉(zhuǎn)換為HSV顏色空間,同時將車輛軌跡點(diǎn)和道路數(shù)據(jù)投影到地圖平面;然后為了增加模型訓(xùn)練樣本數(shù)量,按500 m×500 m網(wǎng)格模板,分別沿水平方向和豎直方向按照步長100 m對樣本區(qū)域進(jìn)行分割,將模型訓(xùn)練樣本區(qū)分割為1836張軌跡柵格圖和1836張道路柵格圖。
根據(jù)輸入圖像的分辨率和軌跡數(shù)據(jù)特點(diǎn),本文對模型生成器的殘差網(wǎng)絡(luò)層數(shù)、多尺度判別器感受野組合進(jìn)行了多次試驗對比調(diào)試,最終將生成器的殘差網(wǎng)絡(luò)設(shè)置為10層,多尺度判別器設(shè)置為7×7、16×16、34×34、70×70、142×142像素感受野組合(根據(jù)式(7),對于500×500像素的圖像,根據(jù)卷積層的層數(shù)不同,小于圖像尺寸的感受野像素大小可以為7×7、16×16、34×34、70×70、142×142、286×286)。模型訓(xùn)練過程設(shè)置迭代次數(shù)為1000次,訓(xùn)練時長約38 h,損失值變化曲線如圖 8。
圖 8 模型訓(xùn)練過程損失值變化曲線
3 試驗與分析
3.1 試驗環(huán)境與數(shù)據(jù)預(yù)處理
試驗的硬件環(huán)境為Ubuntu18.04系統(tǒng)、64 GB內(nèi)存、Quadro P5000顯卡、16 GB顯存,基于Python3.6編程語言、Tensorflow1.12.0深度學(xué)習(xí)開源庫進(jìn)行算法實(shí)現(xiàn)與結(jié)果分析。
為了驗證本文提出DR2RR-CGAN模型的車行道級道路提取效果和模型對不同區(qū)域、不同特征軌跡數(shù)據(jù)的適應(yīng)性,試驗驗證分別選取了鄭州市三環(huán)、南京市部分主城區(qū)、成都市高新南區(qū)等區(qū)域的軌跡數(shù)據(jù)。其中各試驗區(qū)域的數(shù)據(jù)詳情見表 1。
表 1 數(shù)據(jù)詳情
| 區(qū)域 | 鄭州 | 南京 | 成都 |
| 區(qū)域面積/km2 | 236.25 | 210 | 82.5 |
| 道路長度/km | 1597 | 1424 | 959 |
| 采集時間 | 2016-11-15 | 2015-09-01 | 2014-08-20 |
| 采集時長/h | 1 | 1 | 1 |
| 采樣間隔/s | >60 | >30 | >30 |
| 數(shù)據(jù)量/個 | 503 296 | 1 078 798 | 359 924 |
| 數(shù)據(jù)密度/(個/km) | 315 | 757 | 375 |
| 主要屬性 | 時間、經(jīng)度、 緯度、朝向 | 時間、經(jīng)度、 緯度 | 時間、經(jīng)度、 緯度 |
3.2 試驗結(jié)果與精度分析
首先將軌跡數(shù)據(jù)朝向-顏色映射柵格化轉(zhuǎn)換,然后進(jìn)行矢-柵轉(zhuǎn)換并按照500 m×500 m網(wǎng)格大小進(jìn)行圖像分割,最后將分割后圖片輸入訓(xùn)練后的DR2RR-CGAN模型得到生成道路,圖 9分別為鄭州、成都、南京區(qū)域道路提取效果。為了對比評價道路提取效果,本文分別將DR2RR-CGAN模型、Image-to-Image模型和柵格化方法[4](其中緩沖區(qū)半徑為10 m,細(xì)化算法采用查表法)進(jìn)行定性和定量評價。
圖 9 道路提取效果
3.2.1 朝向-顏色映射柵格化轉(zhuǎn)換對車行道級道路提取效果的影響
圖 10為是否進(jìn)行朝向-顏色映射柵格化轉(zhuǎn)換對車行道級道路提取效果的影響,圖中分別為兩個區(qū)域的道路提取效果對比。可以看出非朝向-顏色映射柵格化轉(zhuǎn)換軌跡生成道路存在偏離影像中道路區(qū)域的現(xiàn)象,而朝向-顏色映射柵格化轉(zhuǎn)換后軌跡生成道路則不存在偏離現(xiàn)象(圖 10中1、2區(qū)域)。其原因為輸入非朝向-顏色映射柵格化轉(zhuǎn)換的軌跡數(shù)據(jù),模型不能真正區(qū)分左右雙線道路,而只是根據(jù)模型訓(xùn)練的知識生成雙線卻沒有實(shí)際意義的道路,因此會存在偏離道路區(qū)域的現(xiàn)象。
圖 10 道路提取效果對比
3.2.2 DR2RR-CGAN模型與Image-to-Image模型道路提取效果對比
圖 11為DR2RR-CGAN模型與Image-to-Image模型道路提取效果對比。可見,Image-to-Image模型提取道路在軌跡相對稀疏區(qū)域出現(xiàn)單線道路(區(qū)域1)和非完整道路(區(qū)域2),同時出現(xiàn)許多較短的零碎路段不能連接為完整道路(區(qū)域3);而相較于Image-to-Image模型,DR2RR-CGAN模型提取道路的光滑度更加平滑,車行道級道路的雙線(車行道)更加完整,基本構(gòu)成了完整的車行道級道路網(wǎng)。說明本文提出改進(jìn)的殘差網(wǎng)絡(luò)生成器和多尺度PatchGAN判別器對車行道級道路提取有著顯著的提升作用,可以提取出更加完整、細(xì)節(jié)更加真實(shí)的車行道級道路。
圖 11 道路提取效果對比
3.2.3 DR2RR-CGAN模型與柵格化方法道路提取效果對比
圖 12為DR2RR-CGAN模型與柵格化方法道路提取效果對比。可見,在一定的緩沖區(qū)參數(shù)下,柵格化方法只有在高等級道路中軌跡分布明顯分離的情況才能提取車行道級道路(區(qū)域1),同時緩沖區(qū)參數(shù)、細(xì)化算法等參數(shù)會影響道路提取效果,如軌跡分布稀疏區(qū)域較難提取出道路(區(qū)域2);相較于柵格化方法,DR2RR-CGAN模型提取道路更加完整。
圖 12 道路提取效果對比
3.2.4 道路交叉口區(qū)域提取效果
觀察圖 11(區(qū)域1)、圖 12(區(qū)域1)中道路交叉口區(qū)域DR2RR-CGAN模型的道路提取效果,圖 13為上述區(qū)域的道路交叉口放大圖。可以看出,提取道路在道路交叉口區(qū)域混為一團(tuán)難以正確表達(dá)各車行道之間的連通關(guān)系,其原因為車輛軌跡柵格化后在道路交叉口區(qū)域相互疊加導(dǎo)致DR2RR-CGAN模型難以識別出道路交叉口細(xì)節(jié)與連通關(guān)系。
圖 13 道路交叉口區(qū)域提取效果
3.2.5 評價指標(biāo)對比
由于缺乏車行道級道路對比數(shù)據(jù),本文以鄭州市中原區(qū)部分區(qū)域遙感影像為參照樣本,手動提取了該區(qū)域的車行道級道路數(shù)據(jù)作為參考,道路長度約300 km。定量評價方法采用文獻(xiàn)[26]提出的緩沖區(qū)方法,對參考數(shù)據(jù)分別建立4、6、8 m半徑緩沖區(qū)(緩沖區(qū)半徑過大會導(dǎo)致相鄰車行道的緩沖區(qū)重疊),然后分別統(tǒng)計落入緩沖區(qū)內(nèi)的道路長度并計算精確率、召回率和F1值等評價指標(biāo)。
綜上,從3個城市的道路提取試驗和參照區(qū)域評價指標(biāo)對比結(jié)果可以得出以下結(jié)論:
(1) DR2RR-CGAN模型方法具有很強(qiáng)的實(shí)用性,可以應(yīng)用于不同區(qū)域、不同特征的軌跡數(shù)據(jù)以提取車行道級道路。
(2) 本文提出改進(jìn)的殘差網(wǎng)絡(luò)生成器、多尺度PatchGAN判別器以及軌跡朝向-顏色映射對車行道級道路提取有著顯著的提升作用。
(3) 相較于傳統(tǒng)柵格化方法,DR2RR-CGAN模型方法可以有效地提取車行道級道路,且受道路等級、軌跡分布密度的影響較小。
(4) DR2RR-CGAN模型方法在復(fù)雜道路交叉口區(qū)域提取道路的精細(xì)程度有待提高。
作者
簡
介
第一作者簡介:陸川偉(1990—),男,博士,研究生,研究方向為軌跡數(shù)據(jù)挖掘與地圖更新,Email:19wei.90chuan@163.com
第二作者簡介:(通信作者)孫群(1963—),男,博士,教授,研究方向為數(shù)字地圖制圖與地理信息處理,Email:13503712102@163.com
第三作者簡介:陳冰(1982—),男,博士,副教授,研究方向為地理信息系統(tǒng)、天文導(dǎo)航、復(fù)雜系統(tǒng)仿真,Email:ernestking@163.com
第四作者簡介:溫伯威(1986—),男,博士,講師,研究方向為數(shù)字地圖制圖和多源地理空間數(shù)據(jù)融合,Email:GIS 0803@163.com
第五作者簡介:趙云鵬(1991—),男,博士,研究生,研究方向為多源空間數(shù)據(jù)融合.
第六作者簡介:徐立(1985—),男,博士,講師,研究方向為地理空間數(shù)據(jù)分析與可視化,Email:xuli_1985@yeah.net
本期目錄 |《測繪學(xué)報》2020年第6期網(wǎng)刊發(fā)布
賀浩 王舒洋 王仕成 | 《測繪學(xué)報(英文版)》(JGGS)精選論文
院士論壇|李德仁:測繪遙感與智能駕駛
院士論壇|龔健雅:人工智能對攝影測量與遙感的影響與挑戰(zhàn)
《測繪學(xué)報(英文版)》被國際著名開放獲取期刊目錄數(shù)據(jù)庫“DOAJ”收錄
重磅 | 測繪學(xué)報編委劉經(jīng)南院士獲湖北省科學(xué)技術(shù)突出貢獻(xiàn)獎
Seabed 2030 Project : 2030年前繪制完整的世界海床地圖
徐福隆 李子申 張克非 | 《測繪學(xué)報(英文版)》(JGGS)精選論文
權(quán)威 | 專業(yè) | 學(xué)術(shù) | 前沿微信、抖音小視頻投稿郵箱 | song_qi_fan@163.com
歡迎加入《測繪學(xué)報》作者QQ群: 751717395
進(jìn)群請備注:姓名+單位+稿件編號
總結(jié)
以上是生活随笔為你收集整理的基于在线地图的轨迹跟踪服务_论文推荐丨陆川伟,孙群,陈冰,等:车辆轨迹数据的道路学习提取法...的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 2022年最新山东建筑施工电工(建筑特种
- 下一篇: 在线校核计算机械在线,三排滚子转盘轴承的