日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

论文笔记:Stochastic Weight Completion for Road Networks using Graph Convolutional Networks

發(fā)布時(shí)間:2025/4/5 编程问答 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 论文笔记:Stochastic Weight Completion for Road Networks using Graph Convolutional Networks 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

ICDE2019

pytorch 筆記: 復(fù)現(xiàn)論文 Stochastic Weight Completion for Road Networks using Graph Convolutional Networks_UQI-LIUWJ的博客-CSDN博客

0 摘要

????????按需出行服務(wù)和無人駕駛都需要高精度的路線規(guī)劃,這要求對(duì)當(dāng)前路網(wǎng)有一個(gè)很精確的表示。

? ? ? ? 交通網(wǎng)絡(luò)中的一個(gè)子路段的通行時(shí)間通常被建模成一個(gè)隨著時(shí)間變化的分布。這個(gè)分布可以捕捉不同時(shí)間交通的變化情況,以及可以反應(yīng)“不同的司機(jī)可能在同一時(shí)間在同一條子路段上的行駛時(shí)間不同”的情況。

? ? ? ? 這樣的一個(gè)隨機(jī)權(quán)重可以從GPS或者其他檢測(cè)數(shù)據(jù)中提取得到。

? ? ? ? 然而,即使非常龐大的數(shù)據(jù)也不可能在所有時(shí)候都能覆蓋所有的子路段。但是高精度路線規(guī)劃又需要對(duì)所有子路段的隨機(jī)權(quán)重。

? ? ? ? 本篇論文解決了填充隨機(jī)權(quán)重的問題。

? ? ? ? 本文提出了一種技術(shù),可以通過只覆蓋了一部分子路段信息的交通數(shù)據(jù),預(yù)測(cè)所有子路段的隨機(jī)邊權(quán)重。?

? ? ? ? 本文提出了一種通用學(xué)習(xí)框架(圖卷積權(quán)重補(bǔ)全 graph convolutional weight completion GCWC),該模型可以利用交通路網(wǎng)圖的拓?fù)浣Y(jié)構(gòu),以及鄰接邊之間的關(guān)聯(lián)權(quán)重,來預(yù)測(cè)所有邊的隨機(jī)權(quán)重。

? ? ? ? 然后,本文將文本信息融入GCWC中,來進(jìn)一步提升精準(zhǔn)程度。

?1 introduction

以出租車為例:

? ? ? ? 如果出租車考慮不同路徑的行駛速度分布而不是平均速度的話,他可能會(huì)找到有最高概率準(zhǔn)時(shí)到達(dá)的路徑。而用平均速度的話,可能會(huì)導(dǎo)致不可靠的路徑選擇。

? ? ? ? 舉一個(gè)例子:比如我們現(xiàn)在有兩條候選路徑P1和P2

? ? ? ? ? ? ? ? P1的行駛時(shí)間分布為{(30,0.2},(40,0.8)}

? ? ? ? ? ? ? ? P2的行駛時(shí)間分布為{(30,0.5),(40,0.3),(50,0.2)}

? ? ? ? 如果乘客需要在40分鐘以內(nèi)到達(dá)機(jī)場(chǎng),那么使用路徑P1會(huì)比P2好(因?yàn)闇?zhǔn)時(shí)到的概率更高)

? ? ? ? 相反地,如果考慮平均時(shí)間的話,P2會(huì)更好,因?yàn)镻2的通行時(shí)間期望為37分鐘,P1為38分鐘。

? ? ? ? 然而,這樣的情況面臨數(shù)據(jù)稀疏性問題(data sparseness problem)。因?yàn)榻煌〝?shù)據(jù)可能并不能覆蓋到每一條邊上,同時(shí)測(cè)出來的數(shù)據(jù)在一些時(shí)候可能會(huì)出錯(cuò)。

? ? ? ? 在這篇論文中,我們確定了隨機(jī)權(quán)重補(bǔ)全(stochastic weight completion)問題。給定交通數(shù)據(jù),其中只有一部分子路段有數(shù)據(jù),我們的目標(biāo)是將所有的子路段和對(duì)應(yīng)的隨機(jī)權(quán)重一一準(zhǔn)確對(duì)應(yīng)。

? ? ? ? 以下圖為例:

?

? ? ? ? 整個(gè)路網(wǎng)中有6條有向邊。

? ? ? ? 我們假設(shè)在8:15~8:30的時(shí)間段內(nèi),只有邊e5和邊e6有GPS交通數(shù)據(jù),并且只有這兩個(gè)點(diǎn)可以在這個(gè)時(shí)間段內(nèi)和隨即權(quán)重相關(guān)聯(lián)。

? ? ? ? 比如,當(dāng)我們?cè)?:15~8:30的時(shí)間段內(nèi)遍歷e5,我們有0.3的概率以5m/s~10m/s的速度遍歷;有0.5的概率以10~15m/s的速度遍歷,有0.2的概率以15~20m/s的速度遍歷。

? ? ? ? 其他邊的隨機(jī)權(quán)重(e1,e2,e3,e4)是未知的。可能在其他的時(shí)間間隔內(nèi),會(huì)有另外的一些子路段有數(shù)據(jù),但也會(huì)有另外的一些子路段沒有數(shù)據(jù)。

? ? ? ? 為了方便操作,我們將交通圖上的這些信息用矩陣的形式表示,其中矩陣的每一行表示了一個(gè)子路段的隨機(jī)權(quán)重。(如圖1中間部分所示,W的前4行數(shù)據(jù)是不知道的,因?yàn)閑1~e4的隨機(jī)權(quán)重?cái)?shù)據(jù)是未知的。第五行和第六行分別代表了邊e5和邊e6的隨機(jī)權(quán)重?)

? ? ? ? 我們隨機(jī)權(quán)重補(bǔ)全的目標(biāo)是要去預(yù)測(cè)所有沒有交通數(shù)據(jù)的子路段的隨機(jī)權(quán)重(比如上圖的e1~e4)

? ? ? ? ?交通路網(wǎng)中不同邊之間的交通速度具有高度的關(guān)聯(lián)性。

????????之前解決交通數(shù)據(jù)稀疏性問題(data sparseness)的研究通常假定相鄰的邊有相似的(基于速度的)權(quán)重。

? ? ? ?因此,被交通數(shù)據(jù)覆蓋的邊的權(quán)重可以傳播到它們未被交通數(shù)據(jù)覆蓋的相鄰邊,使用回歸與設(shè)計(jì)過的損失函數(shù),考慮相鄰邊之間權(quán)重的差異。

????????然而,相似性假設(shè)可能并不總是正確的,因?yàn)椴煌叺男羞M(jìn)速度之間的相關(guān)性可能非常復(fù)雜。 僅考慮相鄰邊之間的權(quán)重相似性無法準(zhǔn)確地對(duì)復(fù)雜的相關(guān)性進(jìn)行建模。

???????? 此外,現(xiàn)有研究?jī)H考慮確定性權(quán)重(例如,平均行駛速度)。 將它們擴(kuò)展到支持隨機(jī)權(quán)重(例如行駛速度分布)并非易事。

? ? ? ? 因此,一種能夠捕獲復(fù)雜相關(guān)性并支持隨機(jī)權(quán)重的數(shù)據(jù)驅(qū)動(dòng)方法是亟需的。 ?

?????????我們提出了一個(gè)數(shù)據(jù)驅(qū)動(dòng)的、基于深度學(xué)習(xí)的框架,其目標(biāo)是捕獲道路網(wǎng)絡(luò)中邊權(quán)重之間的復(fù)雜相關(guān)性,這反過來有助于我們估計(jì)沒有數(shù)據(jù)的邊的隨機(jī)權(quán)重。

????????我們首先使用譜圖卷積將道路網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)編碼為圖卷積神經(jīng)網(wǎng)絡(luò) (GCNN)

????????然后,我們將可用的交通數(shù)據(jù)作為輸入和有標(biāo)記的輸出,輸入到 GCNN模型中,讓 GCNN 以“無監(jiān)督”的方式學(xué)習(xí)邊權(quán)重的復(fù)雜相關(guān)性(即不需要額外的標(biāo)記數(shù)據(jù)作為輸出)。

????????然后使用學(xué)習(xí)的 GCNN 來完成沒有數(shù)據(jù)的邊緣的隨機(jī)權(quán)重。

????????此外,我們提出了一種高級(jí)模型,該模型將額外的上下文信息(例如時(shí)間間隔、星期幾等)作為輸入,從而能夠進(jìn)一步提高完成權(quán)重的準(zhǔn)確性。

? ? ? ? 我們所提出的框架是通用的,因?yàn)樗軌蛑С蛛S機(jī)和確定性邊緣權(quán)重,并且在完成確定性邊緣權(quán)重時(shí)也優(yōu)于最先進(jìn)的方法。

?????????據(jù)我們所知,這是對(duì)隨機(jī)權(quán)重補(bǔ)全的首次研究。

????????特別是,我們做出了四項(xiàng)貢獻(xiàn):

  • 首先,我們將隨機(jī)權(quán)重補(bǔ)全問題形式化。
  • 其次,我們提出了一個(gè)使用圖卷積神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)驅(qū)動(dòng)框架來解決這個(gè)問題。 ?
  • 第三,我們通過考慮額外的上下文信息來擴(kuò)展框架,這進(jìn)一步提高了準(zhǔn)確性。
  • 第四,我們使用 GPS 和環(huán)路檢測(cè)器數(shù)據(jù)集進(jìn)行了廣泛的實(shí)驗(yàn),以深入了解框架的有效性。

2 相關(guān)工作

2.1 道路網(wǎng)絡(luò)中的數(shù)據(jù)稀缺性問題

????????盡管交通預(yù)測(cè)問題已被廣泛研究,但只有少數(shù)研究考慮了道路網(wǎng)絡(luò)中的數(shù)據(jù)稀疏問題。

????????最近,一種潛在空間模型 (LSM)被提出, 來估計(jì)沒有環(huán)路檢測(cè)數(shù)據(jù)的邊的權(quán)重。在這種模型框架下,該研究使用非負(fù)矩陣分解作為編碼器來學(xué)習(xí)潛在空間特征,這有助于在沒有數(shù)據(jù)的情況下估計(jì)邊的權(quán)重。 LSM 是目前最先進(jìn)的方法。

????????所有現(xiàn)有的解決數(shù)據(jù)稀疏問題的研究都只考慮確定性權(quán)重,這些方法都不能以直接的方式擴(kuò)展到隨機(jī)權(quán)重的計(jì)算上。

????????此外,它們都采用線性模型來處理邊緣權(quán)重之間的相關(guān)性。 然而,這種相關(guān)性可能是高度非線性的 。

????????我們提出了一個(gè)圖卷積權(quán)重完成框架,該框架在考慮非線性權(quán)重相關(guān)性的同時(shí),可以對(duì)邊的隨機(jī)權(quán)重進(jìn)行一定的注釋。

2.2 交通領(lǐng)域的深度學(xué)習(xí)問題

????????基于交通傳感器數(shù)據(jù),帶有自動(dòng)編碼器的 RNN 被用來進(jìn)行交通預(yù)測(cè)。

????????然而,上面這種方法忽略了傳感器之間的空間相關(guān)性。為了解決這個(gè)問題,另一種方法使用擴(kuò)散卷積網(wǎng)絡(luò),它能夠?qū)臻g相關(guān)性進(jìn)行建模,與 RNN 一起,來進(jìn)行交通流量預(yù)測(cè) 。

????????經(jīng)典的卷積網(wǎng)絡(luò)也可以對(duì)交通傳感器之間的相關(guān)性進(jìn)行建模。但是,這些方法僅限于預(yù)測(cè)確定性交通流量值,不支持隨機(jī)值。此外,這些方法假設(shè)有足夠的交通數(shù)據(jù),可以覆蓋道路網(wǎng)絡(luò)中的所有邊,而我們的模型則需要考慮數(shù)據(jù)稀疏的情況。最

????????近的一項(xiàng)研究側(cè)重于使用多任務(wù)學(xué)習(xí)(multi-task)對(duì)起點(diǎn)-目的地對(duì)的通行時(shí)間進(jìn)行估計(jì),而不是對(duì)交通路段的通行時(shí)間進(jìn)行估計(jì)。

????????多任務(wù)學(xué)習(xí)也用于區(qū)分來自不同類型的駕駛員的軌跡[22]。

????????據(jù)我們所知,本文提出的框架是第一個(gè)用于道路網(wǎng)絡(luò)圖中隨機(jī)權(quán)重補(bǔ)全的深度學(xué)習(xí)框架。

3 問題設(shè)定

3.1 路網(wǎng)

? ? ? ? 路網(wǎng)經(jīng)常被表示成H=(V,E)的形式,其中集合V表示了路口點(diǎn),表示了子路段。

? ? ? ? 我們把路網(wǎng)建模成一個(gè)圖G=(E,A),其中E是邊集,A是一個(gè)|E|×|E|的鄰接矩陣(表示點(diǎn)i和點(diǎn)j之間有相連邊,表示點(diǎn)i和點(diǎn)j之間沒有相連邊)

? ? ? ? ?下圖表示了路網(wǎng),路網(wǎng)對(duì)應(yīng)的圖,以及圖的鄰接矩陣

3.2 隨機(jī)權(quán)重

? ? ? ? 為了捕獲交通中的時(shí)間相關(guān)性,我們將一天劃分成多個(gè)時(shí)間片段(eg,將一天分為96個(gè)15分鐘為間隔的時(shí)間片段)。

? ? ? ? 基于這個(gè),我們可以引入一個(gè)隨機(jī)權(quán)重方程其中TI是整個(gè)時(shí)間域,E是邊集合,D是所有可能的速度分布的集合。

? ? ? ? 給定一條特定的邊,以及時(shí)間間隔函數(shù)表示在特定的時(shí)間間隔TI內(nèi),邊ei的速度分布

?????????我們首先需要指定我們需要的時(shí)間段

? ? ? ? 然后我們把邊集分成和?,這兩個(gè)集合分別代表了有交通數(shù)據(jù)和沒有交通數(shù)據(jù)的邊集。其中

? ? ? 以圖1為例,??Tj=[8:15,8:30]

? ? ? ?對(duì)于不同的點(diǎn),直方圖的每個(gè)柱體代表的間隔是一樣的,因此,我們可以用落在不同直方圖柱體的概率來表示這條邊在特定時(shí)間的速度分布。

? ? ? ? 假設(shè)我們有n條邊,直方圖一共有m個(gè)柱體,那么在時(shí)間片段Tj,所有邊的隨機(jī)權(quán)重可以被表示成一個(gè)n×m的矩陣。其中每一行代表了一條邊的隨機(jī)權(quán)重(如果, 那么wi為空)

3.3 問題格式化

? ? ? ? 給定一條中某一個(gè)時(shí)間片段Tj,給定一個(gè)初始化的隨機(jī)權(quán)重矩陣W,隨機(jī)權(quán)重補(bǔ)全任務(wù)是要把W中的空行填充,賦上我們預(yù)測(cè)的隨機(jī)權(quán)重,使得沒有空行

? ? ? ? ?這相當(dāng)于對(duì)每一個(gè),初始化

? ? ? ? 為了方便之后的表述,我們這里形式化一些符號(hào):

G路網(wǎng)圖
E

邊集合

V點(diǎn)集合
A鄰接矩陣
n邊的數(shù)量
m直方圖的W
W

輸入的隨機(jī)權(quán)重矩陣

實(shí)際的隨機(jī)權(quán)重矩陣
預(yù)測(cè)的和完整的隨機(jī)權(quán)重矩陣
文本變量

?3.4 方法概述

? ? ? ? 我們提出了一種基本的模型和一種提高版的模型。

? ? ? ? 基本的模型將一個(gè)初始化的、只有一部分行有值的隨機(jī)權(quán)重矩陣W,和邊鄰接矩陣A作為輸入。基本模型的目的是從W和A中學(xué)習(xí)圖卷積核,然后生成一個(gè)完整的隨機(jī)權(quán)重矩陣

? ? ? ? 然而,基本模型并沒有充分利用很重要的文本信息(contextual information)【比如,不同的時(shí)間片段、今天是一個(gè)禮拜的星期幾)。為了更好地利用這種在基本模型中缺省的信息,我們提出了提高版的模型。????????

? ? ? ? 這個(gè)模型不僅把W和A作為輸入,還把一些文本信息放入輸入中,使用貝葉斯推斷模型來建立文本信息和基本模型輸出之間的關(guān)系。這種方式可以提高輸出的?隨機(jī)權(quán)重矩陣的預(yù)測(cè)精準(zhǔn)度。

?4 基本模型

4.1 模型概述

?????????不同邊之間的隨機(jī)權(quán)重可以共享相關(guān)的特征。為了建模這一相關(guān)特征,我們將隨機(jī)權(quán)重矩陣W轉(zhuǎn)換成隱藏向量。基于C,我們建立一個(gè)沒有空行的新隨機(jī)權(quán)重矩陣

? ? ? ? ?整個(gè)過程可以看作一個(gè)自動(dòng)編碼器,我們先把不完整的隨機(jī)權(quán)重矩陣編碼成C,然后將C解碼成完整的權(quán)重編碼

? ? ? ? ?上圖展示了GCWC的完整架構(gòu)

? ? ? ? 首先,我們把隨機(jī)權(quán)重矩陣W以及鄰接矩陣A作為輸入,喂入GCWC中

? ? ? ? 然后,我們使用卷積和最大池化將W編碼成一組特征是C的向量

? ? ? ? 之后,我們分別通過全連接層和softmax層(最終輸出層)編碼C,并得到最終估計(jì)得到的?隨機(jī)權(quán)重矩陣?(類似于自動(dòng)編碼器中的解碼操作)

? ? ? ? 在訓(xùn)練階段,W也會(huì)在反向傳播階段被用作標(biāo)簽(label)的來源。我們可以通過最小化損失函數(shù)的方式來學(xué)習(xí)框架的參數(shù),其中損失函數(shù)被定義為:我們估計(jì)的隨機(jī)權(quán)重矩陣和實(shí)際的隨機(jī)權(quán)重矩陣之間(有交通數(shù)值的初始化隨機(jī)權(quán)重)的KL散度

4.2 卷積層

? ? ? ? 在傳統(tǒng)的CNN中,基于“輸入矩陣相鄰的元素共享相似的特征”這一假設(shè),二維的卷積核被CNN模型使用。

? ? ? ? 但在我們的設(shè)置中,作為輸入的隨機(jī)權(quán)重矩陣可能不能很好地滿足這一假設(shè)(比如還是圖1中,e5和e6在隨機(jī)權(quán)重矩陣上是相連的,但是在交通圖上是不相連的)。

? ? ? ? 因此,我們使用了GCN來將路網(wǎng)的拓?fù)浣Y(jié)構(gòu)考慮進(jìn)我們的模型中。這里我們使用簡(jiǎn)化的切比雪夫GNN(Simplified ChebNet)

4.2.1 ChebNet

? ? ? ? 我們記拉普拉斯矩陣為L(zhǎng)=D-A,標(biāo)準(zhǔn)化拉普拉斯矩陣為,其中是L最大的特征值

? ? ? ? 在卷積層中,我們通過使用標(biāo)準(zhǔn)化拉普拉斯矩陣,把圖卷積核使用到輸入的隨機(jī)權(quán)重矩陣W上。

? ? ? ? W矩陣的列向量表示了所有節(jié)點(diǎn)在第j個(gè)數(shù)據(jù)區(qū)間(在某一個(gè)特定的速度區(qū)間)的權(quán)重(概率)大小,(j∈[1,m])

? ? ? ? 基于某一個(gè)和?,我們可以生成一個(gè)矩陣,其中。這里表示x和第i階切比雪夫多項(xiàng)式卷積核()的卷積結(jié)果(即),k是一個(gè)超參數(shù),表示切比雪夫多項(xiàng)式進(jìn)行到幾階。?

????????

? ? ? ? 圖卷積為

? ? ? ? ?詳細(xì)地來說,首先?然后()?

然后【注意一點(diǎn),此時(shí)因?yàn)槭堑趇階切比雪夫多項(xiàng)式卷積核,所以此時(shí)切比雪夫多項(xiàng)式的變量是而不是x】,所以的系數(shù)才是】

? ? ? ? 最后我們定義了一個(gè)過濾器(維度的矩陣),來將各個(gè)xi加權(quán)求和

?

? ? ? ? 這時(shí)候

——>這時(shí)候得到的是某一個(gè)速度區(qū)間的H

?

????????還是以圖1為例,圖1有6條邊和3個(gè)不同的速度區(qū)間。對(duì)于[5,10)的速度區(qū)間,我們有:

?

????????假設(shè)k=2,那么我們通過鄰接矩陣A來構(gòu)建相應(yīng)的Y1:

?

????????第一行就是?,第二行是和加權(quán)的拉普拉斯矩陣相乘之后的結(jié)果 【也即和一階切比雪夫多項(xiàng)式進(jìn)行卷積之后的結(jié)果】

????????然后,我們將作為過濾器,和Y1相乘,得到加權(quán)后的H1:

?

? ? ? ? 求得H1之后,邊e5和邊e6的信息就被傳遞到邊e1,e2,e3,e4中去了?

? ? ? ? ?給定一個(gè)作為輸入的隨機(jī)權(quán)重矩陣W,對(duì)于W中的每一個(gè)列向量(j∈[1,m]),我們將f個(gè)過濾器應(yīng)用到他們的切比雪夫簡(jiǎn)化GNN中。

? ? ? ? 于是,對(duì)每一個(gè),我們得到f個(gè)相應(yīng)的H:‘

? ? ? ?

????????然后,對(duì)于每一個(gè),(l∈[1,f]),我們將所有列向量求得的H(卷積結(jié)果)求和(求和結(jié)果Ql是一個(gè)向量)

????????

? ? ? ? 接著,我們把所有的Q疊加起來,得到一個(gè)矩陣這個(gè)Q就是最終從卷積層得到的結(jié)果。(f個(gè)過濾器代表了f個(gè)不同特征)

4.3 池化層

? ? ? ? 在卷積層中,有些邊可能仍然只有零值。因此我們進(jìn)一步通過最大池化操作(max pooling)壓縮卷積結(jié)果

? ? ? ? 我們使用一個(gè)基于圖的多層池化算法,使用圖的拓?fù)浣Y(jié)構(gòu)和隨機(jī)權(quán)重分布,來識(shí)別邊之間的集簇關(guān)系。(具體怎么分組的,論文里沒有說明,挖一個(gè)坑,看完代碼填上)

????????

????????比如,在圖3中,e1,e2,e4,e5匯成一個(gè)集簇,e3,e6匯成另外的一個(gè)集簇

? ? ? ? 基于這個(gè)分集簇的方法,每一個(gè)卷積矩陣Ql被進(jìn)一步壓縮成更緊縮的矩陣Cl(l∈[1,f]),現(xiàn)在,我們把這一組Ci的值看成隱空間上的特征集

4.4 輸出層

?

????????經(jīng)過池化層之后,我們獲得了可以捕獲輸入矩陣W特征的壓縮矩陣C。于是,我們可以將壓縮矩陣解碼成一個(gè)新的隨機(jī)權(quán)重矩陣

? ? ? ? 我們首先使用一個(gè)全連接層來獲得一個(gè)矩陣Z,這個(gè)矩陣代表了從集合C中解碼得到的所有邊的隨機(jī)權(quán)重(其中n是邊的數(shù)量,?,m是速度區(qū)間的數(shù)量)?

4.4.1 softmax層

? ? ? ? ?但是最終的輸出需要滿足兩個(gè)條件

1,對(duì)于每一個(gè)中的(i∈[1,n],j∈[1,m]),它的取值都必須在[0,1]之間

2,

? ? ? ? 于是,我們對(duì)每一個(gè)?使用softmax:

?

最終,我們有:

4.5 損失函數(shù)

? ? ? ? GCWC的損失函數(shù)使用了KL散度衡量輸入隨機(jī)權(quán)重矩陣和預(yù)測(cè)隨機(jī)權(quán)重矩陣之間的差距:

? ? ? ? 我們一共有n條邊,但是模型重點(diǎn)是有觀測(cè)數(shù)據(jù)的那一些邊。因此我們?cè)趽p失函數(shù)那里設(shè)置了一個(gè)權(quán)重函數(shù)I,當(dāng)?shù)趇條邊有觀測(cè)交通數(shù)據(jù)的時(shí)候,否則

? ? ? ? 這里我們使用ε是為了防止log的時(shí)候出現(xiàn)0

?5 帶文本的GCWC

? ? ? ? 當(dāng)我們考慮某一特定時(shí)間片段的隨機(jī)權(quán)重矩陣W的時(shí)候,我們可以同時(shí)考慮一組文本信息。

? ? ? ? 在這里,我們考慮三種文本信息:時(shí)間片段,周中星期幾以及是否有觀測(cè)值

? ? ? ? :我們使用一個(gè)one-hot向量來表示一天中特定的時(shí)間片段(比如,如果我們要描述[0:15,0:30],那么就是第二個(gè)維度為1,其他的都是0)

????????:我們使用一個(gè)7位的one-hot向量來表示這是星期幾

????????:表示在當(dāng)前時(shí)間片段內(nèi),哪些邊有觀測(cè)數(shù)值(是一個(gè)n維向量,哪一條邊有值,那么對(duì)應(yīng)的維度為1,否則為0)

?下圖是帶文本的GCWC的流程圖:

?

?????????我們這里使用P(Z)表示基本GCWC的輸出,其中P()表示softmax操作

????????文本嵌入模塊首先把、、表示成相同維度的向量。然后和GCWC的輸出P(Z)一起,分別求得有了各個(gè)文本之后,有預(yù)測(cè)的隨機(jī)權(quán)重矩陣Z的條件概率、、

? ? ? ? 貝葉斯推斷模塊將P(Z)、、、作為輸入,他求得有了所有文本信息之后,有Z的概率

?5.1 文本嵌入模塊

? ? ? ? 這里的文本嵌入模塊具有一定的普適性——也就是說,不止我們之前說的三種文本信息適用,之后如果我們還有其他的文本信息(天氣情況,交通狀況,等等),一樣可以使用這個(gè)文本嵌入模塊。

? ? ? ? 鑒于不同的?、、?,我們使用了兩種不同的模型(嵌入模型和全連接模型)

5.1.1 嵌入層(embedding layer)

? ? ? ? 對(duì)于、,我們使用了嵌入層,將one-hot 稀疏編碼 表示成更 緊致的向量。

?

? ? ? ? 對(duì)于某一個(gè)one-hot 向量,嵌入層的作用是將?表示成(其中?)

? ? ? ? 然后,我們對(duì)每一個(gè)學(xué)到的使用softmax函數(shù),得到

? ? ? ? 相似地,我們可以得到

5.1.2 全連接層

????????中可能不止一個(gè)1.而在一些embedding方法中,輸入的向量必須是one-hot 向量。于是,我們引入了一種全連接層來將嵌入到更低維的空間中(其中,)

? ? ? ? 用公式表示,我們有?

????????

? ? ? ? 這里是權(quán)重矩陣,是偏差向量,σ是softmax函數(shù)

?5.2 計(jì)算條件概率

????????我們使用了條件概率卷積神經(jīng)網(wǎng)絡(luò)(conditional probability convolutional neural network CP-CNN)來捕獲邊j的隨機(jī)權(quán)重zj和不同類型的文本之間的關(guān)系

?

? ? ? ? 為了簡(jiǎn)化說明,我們用Xi表示文本。(Xi可以是?、、?)?

? ? ? ? 如上圖5(a)所述,我們將和相乘。是之前用嵌入層或者全連接層得到的文本表示。?是前面GCWC得到的某一條特定的邊對(duì)應(yīng)的隨機(jī)權(quán)重。

? ? ? ? 作為結(jié)果,我們得到了 一個(gè)矩陣,該矩陣將第j條邊的隨機(jī)權(quán)重和不同文本信息聯(lián)系了起來。

? ? ? ? 然后我們使用經(jīng)典的卷積過濾來捕獲隨機(jī)權(quán)重在各個(gè)文本下的條件概率。

? ? ? ? 還是以圖1為例,我們有3段速度區(qū)間[5,10),[10,15),[15,20) 【注:原文是[0,20),[20,40),[40,60),感覺是不是原文寫錯(cuò)了】。如果我們使用2*2的卷積核在圖5(b)的最左邊陰影區(qū)間內(nèi),我們將可以捕獲兩個(gè)速度區(qū)間和兩個(gè)文本條目之間的關(guān)系(原文說的是,速度?[5,10),[10,15)和時(shí)間片段[8:00,8:15],[8:15,8:30]之間的關(guān)系;個(gè)人觀點(diǎn),因?yàn)闀r(shí)間片段相關(guān)的文本信息已經(jīng)被embedding成了一個(gè)更低維度的向量,所以可能包括的信息比[8:00,8:15],[8:15,8:30]還要多

? ? ? ? 如圖5(b)所示,我們使用f'個(gè)卷積核,得到了f’個(gè)矩陣,每個(gè)矩陣的大小為

? ? ? ? 接著,我們使用一個(gè)大小為2×1的最大池化層來學(xué)習(xí)更多的關(guān)聯(lián)性?。通過池化層之后,我們將獲得大小為的矩陣

? ? ? ? 然后我們使用全連接層將f'個(gè)的矩陣拼接成一個(gè)的向量(m維度,也就是速度間隔維度不變,文本信息維度的個(gè)元素通過全連接層變成一個(gè)),這個(gè)向量便代表了j邊的隨機(jī)權(quán)重在已知文本Xi下的條件概率。

? ? ? ? 以此類推,我們可以對(duì)所有的n條邊進(jìn)行以上操作,得到?即當(dāng)我們得到文本信息Xi時(shí)候的隨機(jī)權(quán)重矩陣的條件概率

?

?5.3 貝葉斯推斷

? ? ? ? 我們使用貝葉斯推斷模型來獲得一個(gè)已知所有類型的文本信息??、、?的情況下,隨機(jī)權(quán)重矩陣Z的條件概率

? ? ? ? 一般地,假設(shè)我們有N種類型的文本信息,我們通過上一步獲得了Z在各個(gè)條件下分別的條件概率。我們現(xiàn)在要做的是求得,作為我們最終的隨機(jī)權(quán)重矩陣。

? ? ? ?在這里,我們假設(shè)不同的文本信息之間是獨(dú)立的,即,這個(gè)也是很直觀的,類似于一天中的時(shí)間、一周中的星期幾、那幾個(gè)路段有數(shù)據(jù)等,都是獨(dú)立的,沒有很明顯的相關(guān)性。

? ? ? ? 于是,我們有:

(貝葉斯定理)

(我們假設(shè)的獨(dú)立性)

?(條件概率)

(X1,...XN獨(dú)立,自然也在Z下條件獨(dú)立)?

(分子分母同時(shí)乘以N-1個(gè)P(Z))

(分母條件概率合并,分子提上去)

(條件概率)

?因此,我們可以計(jì)算我們的=

?

然后,我們需要對(duì)(10)的結(jié)果進(jìn)行正則化,使得

?1)對(duì)于每一個(gè)

2)

?5.4 損失函數(shù)

這里的損失函數(shù)和之前GCWC的一致,我就把之間的內(nèi)容貼過來了

?GCWC的損失函數(shù)使用了KL散度衡量輸入隨機(jī)權(quán)重矩陣和預(yù)測(cè)隨機(jī)權(quán)重矩陣之間的差距:

? ? ? ? 我們一共有n條邊,但是模型重點(diǎn)是有觀測(cè)數(shù)據(jù)的那一些邊。因此我們?cè)趽p失函數(shù)那里設(shè)置了一個(gè)權(quán)重函數(shù)I,當(dāng)?shù)趇條邊有觀測(cè)交通數(shù)據(jù)的時(shí)候,否則

? ? ? ? 這里我們使用ε是為了防止log的時(shí)候出現(xiàn)0

?6 實(shí)驗(yàn)部分

6.1 數(shù)據(jù)集

? ? ? ? 我們使用兩個(gè)交通的數(shù)據(jù)集。同時(shí),我們將速度片段從0到40m/s八等分。

6.1.1 HW(highway tollgate network)

? ? ? ? 這個(gè)數(shù)據(jù)集有24個(gè)子路段,因此我們的隨機(jī)權(quán)重矩陣為:

6.1.2 CI (city road network)

? ? ? ? 這個(gè)數(shù)據(jù)集是從14864輛成都的出租車上獲得的。我們使用其中的172個(gè)子路段,因此這個(gè)數(shù)據(jù)集的隨機(jī)權(quán)重矩陣為

6.1.3 ground truth 和輸入數(shù)據(jù)

? ? ? ? 給定了時(shí)間片段之后,我們就可以構(gòu)建ground truth的隨機(jī)權(quán)重矩陣,我們只建立至少有5段觀測(cè)記錄的邊。

? ? ? ? 然后我們從n條邊中隨機(jī)選擇?條邊(rm是一個(gè)移除比例,在這里我們?cè)O(shè)置為0.5,0.6,0.7,0.8),將這些邊的隨機(jī)權(quán)重設(shè)置為0。于是我們得到了我們的輸入W。將W作為輸入,我們就可以用我們之前介紹的模型來估計(jì)一個(gè)隨機(jī)權(quán)重矩陣。我們可以通過比較?和之間的差距來判斷我們模型的精準(zhǔn)程度。

? ? ? ? ?需要注意的是,可能本來就有空行(鑒于某一些邊可能本來就沒有交通觀測(cè)值,或者交通觀測(cè)值小于5個(gè),我們不初始化這條邊)。盡管如此,我們還是需要將一些邊的隨機(jī)權(quán)重抹除(這樣才能夠訓(xùn)練,知道我們參數(shù)的選擇正確與否)

? ? ? ? 對(duì)于數(shù)據(jù)集,我們將數(shù)據(jù)集分成五份,使用5折交叉驗(yàn)證(5-cross validation)來進(jìn)行訓(xùn)練。

?6.2 模型的功能

? ? ? ? 我們提出的兩個(gè)模型,GCWC和A-GCWC都是具有一定普適性的。我們把模型的設(shè)定稍作修改,便可以得到不同的功能。

? ? ? ? 這里,我們考慮三種功能:估計(jì)/預(yù)測(cè)隨機(jī)權(quán)重矩陣(以直方圖的形式),估計(jì)平均速度(以確定值的形式)。這里我們用來表示時(shí)間片段T下的權(quán)重矩陣。

?6.2.1 估計(jì) estimation

? ? ? ? 給定Ti時(shí)刻的輸入隨機(jī)權(quán)重矩陣(其中有一些邊沒有權(quán)重),我們?nèi)ヮA(yù)測(cè)

? ? ? ? 在訓(xùn)練的時(shí)候,對(duì)于訓(xùn)練集?(不同時(shí)刻的輸入隨機(jī)權(quán)重矩陣),我們使用自己作為標(biāo)簽,來訓(xùn)練GCWC和A-GCWC。?

? ? ? ? 在測(cè)試的時(shí)候,給定輸入隨機(jī)權(quán)重矩陣,估計(jì)的隨機(jī)權(quán)重矩陣會(huì)和ground truth隨機(jī)權(quán)重矩陣相比較

6.2.2 預(yù)測(cè)prediction

? ? ? ? ?給定Ti時(shí)刻的輸入隨機(jī)權(quán)重矩陣(其中有一些邊沒有權(quán)重),我們?nèi)ヮA(yù)測(cè)

?????????訓(xùn)練的時(shí)候,對(duì)于訓(xùn)練集?(不同時(shí)刻的輸入隨機(jī)權(quán)重矩陣),我們使用作為標(biāo)簽,來訓(xùn)練GCWC和A-GCWC。

? ? ? ? 與此同時(shí),我們要確認(rèn)和有相同的移除比例rm

? ? ? ? 在測(cè)試的時(shí)候,給定輸入隨即權(quán)重,預(yù)測(cè)的隨機(jī)權(quán)重矩陣會(huì)和ground truth 隨機(jī)權(quán)重矩陣相比較

表2說明了estimation和prediction之間的異同

?6.2.3 平均 average

? ? ? ? 這個(gè)的配置和估計(jì)estimation類似,給定輸入矩陣,我們希望在時(shí)間片段Tj時(shí)預(yù)估每一條邊的確定平均速度

? ? ? ? 之后這一部分我持保留意見,原文的意思是把4.4 公式(2)中的softmax替換成sigmoid;,就能得到一個(gè),但是sigmoid如果參數(shù)是一個(gè)向量的話,結(jié)果應(yīng)該還是一個(gè)向量才對(duì),維度應(yīng)該不會(huì)變成1維的(softmax然后加權(quán)求和我覺得就可以了,這個(gè)我事后看一下作者的code,想一想是不是我理解錯(cuò)了,這里放一個(gè)伏筆)

?6.3 模型的設(shè)定

? ? ? ? 在表3中,我們展現(xiàn)了所有模型的超參數(shù)(注:A-GCWC的β參數(shù),也就是各文本被壓縮到的響亮的維度,統(tǒng)一設(shè)置為4)

? ? ? ? ?我們將為了估計(jì)和預(yù)測(cè)任務(wù)的模型記為HIST,將為了平均任務(wù)的模型記為?AVG

? ? ? ? 在表格中,#Para表示參數(shù)的總數(shù)(卷積核的參數(shù)、全連接層的參數(shù)、激活函數(shù)的偏差等),這個(gè)代表了不同神經(jīng)網(wǎng)絡(luò)的復(fù)雜度。這個(gè)數(shù)值越大,表示神經(jīng)網(wǎng)絡(luò)越復(fù)雜。通過表格中的#Para,我們可以得到結(jié)論:CNN、GCWC、A-GCWC使用的參數(shù)量差不多,也就是說,相比于傳統(tǒng)的CNN?,我們提出的GCWC和A-GCWC模型并沒有怎么增加模型的復(fù)雜度

? ? ? ? LR表示學(xué)習(xí)率(learning rate),Decay 表示學(xué)習(xí)率損失,Regul表示 正則化系數(shù)(regularization)

? ? ? ? 我們用以下的表述來描述模型的結(jié)構(gòu):

表示卷積層有f個(gè)卷積的過濾單元,每一個(gè)filter是一個(gè)的矩陣

?表示了一個(gè)大小和跨度都是k的池化層

表示了一個(gè)有k個(gè)隱藏單元的全連接層

?我們分別以GCWC和A-GCWC的參數(shù)為例:

HW的GCWC:

????????對(duì)HW來說,其有24個(gè)子段,8個(gè)時(shí)間片段,

? ? ? ? 對(duì)于?,8表示我們切比雪夫多項(xiàng)式近似的時(shí)候,結(jié)束選擇的是8,也就是下式(在4.2出現(xiàn)過)的k=8:

????????

? ? ? ? 所以也就相當(dāng)于是一個(gè)1×8的向量。

? ? ? ? 16表示我們有16個(gè)

????????沒太搞明白,在GCWC中的池化操作是使用圖的拓?fù)浣Y(jié)構(gòu)和隨機(jī)權(quán)重分布,來識(shí)別邊之間的集簇關(guān)系。不知道這邊4和2代表的size和stride是什么,和CNN中的池化有何異同(后面看代碼之后回來填坑)

???表示我們?nèi)B接層的輸出為24維參數(shù)。這里的24是因?yàn)镠W有24個(gè)子路段? ? ?

?HW的A-GCWC:

前半部分和GCWC的分析一致?

后半部分是融入context部分的內(nèi)容。

是圖5(b)左邊的內(nèi)容,2×2的filter,一共有4個(gè)filter

這里的指的是圖5(b)中間的部分,兩塊通過max pooling合并成一塊的操作

是把這一個(gè)速度區(qū)間的所有隱藏狀態(tài)通過全連接的方式合并為一個(gè)?

?6.5 baseline

HA (historical average)一條邊上過去時(shí)間的通行速度記錄的平均值
GP gaussian process

高斯過程回歸模型

RF random forest隨機(jī)森林模型
LSM利用潛在空間模型填補(bǔ)道路網(wǎng)絡(luò)中缺失權(quán)重的最新技術(shù)。

注意:GP\RF\LSM只能預(yù)測(cè)、估計(jì)確定值。因此,我們對(duì)不同的速度片段下的隨機(jī)權(quán)重,分別學(xué)習(xí)了一個(gè)回歸任務(wù)。

CNN?
DR diffusion convolutional recurrent neural network基于歷史數(shù)據(jù)預(yù)測(cè)確定性邊權(quán)的最新技術(shù)。

6.6 評(píng)估方法

6.6.1 估計(jì)和預(yù)測(cè)(estimation & prediction)

? ? ? ? 我們使用平均KL散度比例(MKLR??Mean Kullback-Leibler divergence Ratio)來衡量預(yù)測(cè)的隨機(jī)權(quán)重矩陣的精準(zhǔn)程度

?

? ? ? ? T是所有時(shí)間片段數(shù)量的總和

? ? ? ? n是邊的數(shù)量

?????????i∈[1,T],j∈[1,n],表明了在第i個(gè)時(shí)間片段,邊j是否需要被評(píng)估

如果邊j沒有交通觀測(cè)數(shù)據(jù),那么I設(shè)置為0;否則I設(shè)置為1。

????????是ground-truth結(jié)果。是預(yù)測(cè)/估計(jì)結(jié)果

? ? ? ? KL(·||·)表示兩個(gè)分布的KL散度(前文也有說明),兩個(gè)分布越相似,KL散度的值越小。

?????????

? ? ? ? 但是KL散度的取值范圍是[0,∞),所以我們不太容易判斷什么樣的KL散度值是足夠小的

? ? ? ? ? 于是我們用HA(historical average)作為一個(gè)參考的隨機(jī)權(quán)重,即baseline。我們認(rèn)為HA是隨機(jī)權(quán)重最差的預(yù)測(cè)/估計(jì)。然后我們使用我們的模型和HA模型的KL散度的比例,MKLR作為衡量標(biāo)準(zhǔn)。這個(gè)比例表明了我們的模型相比于HA提升了多少? ?。比例越小,表示相比于HA,我們的模型提升得越多

? ? ? ? ?我們也可以使用相似比例(FLR, fraction of likelihood ratio)來衡量預(yù)測(cè)/估計(jì)的精準(zhǔn)程度

?

T,n,的定義和MKLR中的說法是一樣的

代表了第i個(gè)時(shí)間片段中,第j條邊的相似比例

????????表示在第i個(gè)時(shí)間片段中,第j條邊上ground truth的速度記錄數(shù)(在一個(gè)時(shí)間片段中,可能有多條記錄)

????????是第k個(gè)ground truth的速度紀(jì)錄

????????ε用來防止log里的內(nèi)容是0

【個(gè)人感覺 ground-truth的速度紀(jì)錄數(shù),也就是這條速度紀(jì)錄在某一個(gè)速度區(qū)間上,這個(gè)區(qū)間對(duì)應(yīng)的元素為1,其余的元素為0(也是一個(gè)ground-truth),所以P(ok)的意思是這一個(gè)原本為1的數(shù)值,現(xiàn)在被預(yù)測(cè)成多少,越大表示概率越大】

????????我們給定第j條邊和第i段預(yù)測(cè)片段,我們可以有預(yù)測(cè)/估計(jì)的隨機(jī)矩陣以及作為參考的隨機(jī)矩陣我們分別計(jì)算, 作為從這兩個(gè)隨機(jī)矩陣代表的分布中,觀測(cè)到的概率

? ? ? ? 如果,那么?表明我們的預(yù)測(cè)/估計(jì)模型有更大的概率得到ground truth 速度紀(jì)錄,那么我們?cè)O(shè)置此時(shí)的這個(gè),否則為0

6.6.2 平均

? ? ? ? 我們使用MAPE

?

?T,n,的定義和前文中的說法是一樣的

?6.7 實(shí)驗(yàn)結(jié)果

6.7.1 估計(jì):MKLR

MKLR越小,精度越高

?

  • A-GCWC在各種配置下,都有最好的精確程度,同時(shí)A-GCWC模型比GCWC模型更穩(wěn)定
  • 幾乎所有的方法都滿足:當(dāng)移除幾率rm增加的時(shí)候,MKLR增加。 ——原因也很簡(jiǎn)單,因?yàn)閞m增加了之后,更少的邊有交通觀測(cè)數(shù)據(jù),那么更多的邊需要被賦以預(yù)測(cè)的隨機(jī)權(quán)重
  • LSM,目前在權(quán)重補(bǔ)全任務(wù)中的最新方法,并不能適配我們所考慮的配置,他的所有MKLR都為1,這說明LSM勉強(qiáng)和HA效果差不多——這說明LSM模型不能擴(kuò)展到隨機(jī)權(quán)重任務(wù),同時(shí)LSM不能解決很多邊都沒有交通數(shù)據(jù)的情況。
  • CNN的MKLR會(huì)隨著rm增大顯著變化,——這是因?yàn)镃NN不能很好地捕捉路網(wǎng)中的時(shí)空關(guān)系
  • DR在HW數(shù)據(jù)中的效果比CI好——DR在小圖中有很好的傳播能力,但是在大圖中則不行

?6.7.2 估計(jì):FLR

? FLR越大,精度越大

  • ? ? 和MKLR一樣,LSM同樣效果不好(大部分時(shí)候不如HA)
  • 大部分配置下,我們的A-GCWC和GCWC效果最好(A-GCWC的效果比GCWC的效果好)
  • CNN在某幾個(gè)特定的配置下(HW,rm=0.5),效果比我們的模型好(因?yàn)樵谛〉穆肪W(wǎng)中,很多邊都有數(shù)據(jù)的情況下,CNN可能也能捕獲一些邊隨機(jī)權(quán)重的相關(guān)系數(shù))
  • DR和前面分析的一樣,在HW中表現(xiàn)得很好,在CI中表現(xiàn)得很差——DR在小圖中有很好的傳播能力,但是在大圖中則不行

6.7.3 預(yù)測(cè):MKLR

????????在數(shù)據(jù)集HW上 ,大部分方法都滿足估計(jì)(6.7.1)的結(jié)論:rm增加,MKLR增加(除了GP和RF)

????????而在數(shù)據(jù)集CI上,這樣的一個(gè)結(jié)論就不怎么適用了。這是因?yàn)镃I數(shù)據(jù)集是一個(gè)更大的城市級(jí)別的路網(wǎng),這個(gè)路網(wǎng)有著更多的不確定性,以及不同時(shí)間片段之間有著更少的關(guān)聯(lián)性。

? ? ? ? 然而,我們的模型GCWC和A-GCWC依舊表現(xiàn)最好,其中A-GCWC的表現(xiàn)比GCWC還要好一些

6.7.4 預(yù)測(cè):FLR

  • ? ? ? ? LSM模型再一次效果很差。
  • ?在FLR中,我們找不到rm和LFR之間的關(guān)系
  • 大部分時(shí)候,我們的模型GCWC和A-GCWC依舊表現(xiàn)很好
  • 總體而言我們的模型相比于DR模型,準(zhǔn)確度提升的不多,因?yàn)镈R模型直接使用了RNN結(jié)構(gòu)來進(jìn)行預(yù)測(cè)時(shí)序關(guān)系。然而因?yàn)槲覀兊哪P涂梢园褭?quán)重傳播到?jīng)]有數(shù)據(jù)的邊上去,因此我們模型的準(zhǔn)確度還是會(huì)比DR好一些
  • 于此同時(shí),我們還會(huì)發(fā)現(xiàn),CNN,CR,GCWC,A-GCWC在數(shù)據(jù)集HW上的FLR的表現(xiàn)比在數(shù)據(jù)集CI上要好,原因和MKLR中分析的一樣:這是因?yàn)镃I數(shù)據(jù)集是一個(gè)更大的城市級(jí)別的路網(wǎng),這個(gè)路網(wǎng)有著更多的不確定性,以及不同時(shí)間片段之間有著更少的關(guān)聯(lián)性。

6.7.5 平均:MAPE

在這個(gè)配置中,LSM是最新的先線性方法,DR是最新的非線性方法?

我們有以下的結(jié)論:

  • A-GCWC模型在不同數(shù)據(jù)集下效果都是最好的
  • LSM在CI數(shù)據(jù)集上可能不太有效,原因可能是城市級(jí)別的路網(wǎng)結(jié)構(gòu)比高速公路級(jí)別的路網(wǎng)結(jié)構(gòu)更復(fù)雜,這意味著線性模型不太能夠捕捉系統(tǒng)中的隱藏屬性
  • CNN和DR的效果依舊比LSM好,這說明線性模型中關(guān)聯(lián)性依舊是一個(gè)關(guān)鍵問題
  • DR盡管在數(shù)據(jù)密集的情況下,是目前的最優(yōu)模型,但是當(dāng)數(shù)據(jù)稀疏的時(shí)候(城市級(jí)數(shù)據(jù),如CI;大量數(shù)據(jù)缺失,如較大的rm),DR的效果不如我們提出的GCWC和A-GCWC

6.8 擴(kuò)展性?

? ? ? ? 我們把CI路網(wǎng)的規(guī)模擴(kuò)大10,20,30,40,50倍,使得最大的路網(wǎng)有172×50=8600條邊。

? ? ? ? 如果路網(wǎng)結(jié)構(gòu)過大,以至于不能使用在一個(gè)機(jī)器內(nèi),我們可以把網(wǎng)絡(luò)劃分成子網(wǎng)絡(luò),并且在不同的機(jī)器內(nèi)處理之,或者并行處理之,或者一個(gè)子網(wǎng)絡(luò)處理完之后處理另外一個(gè)子網(wǎng)絡(luò)。

? ? ? ? 為了模擬一個(gè)非常大的路網(wǎng),我們考慮如下的兩個(gè)配置:

? ? ? ? 1)用GCWC和A-GCWC處理一個(gè)非常大的路網(wǎng)結(jié)構(gòu)

? ? ? ? 2)將路網(wǎng)結(jié)構(gòu)劃分成兩個(gè)小的路網(wǎng)結(jié)構(gòu),然后先處理一個(gè)小路網(wǎng)結(jié)構(gòu),然后再處理另外一個(gè)(我們將這個(gè)配置標(biāo)記為 GCWC-M2和A-GCWC-M2)

????????

????????圖6(a)顯示了平均下來一個(gè)batch的訓(xùn)練時(shí)間(一個(gè)batch大小為20【20個(gè)輸入矩陣】)

? ? ? ? 我們可以發(fā)現(xiàn)A-GCWC需要更多的時(shí)間(這也是很直觀的,因?yàn)锳-GCWC需要額外訓(xùn)練一個(gè)CP-CNN)。

? ? ? ? 如果我們把一個(gè)大的網(wǎng)絡(luò)劃分成兩個(gè)子網(wǎng)絡(luò),然后序貫第訓(xùn)練他們,這會(huì)需要更少的時(shí)間,但是會(huì)損失一定的精確度(因?yàn)閯澐值倪^程會(huì)破壞原始路網(wǎng)中一些邊的鄰接關(guān)系)

? ? ? ? 圖6(b)展示了一個(gè)案例的測(cè)試時(shí)間

總結(jié)

以上是生活随笔為你收集整理的论文笔记:Stochastic Weight Completion for Road Networks using Graph Convolutional Networks的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。