日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

去伪存真:因果约束下的图神经网络泛化

發布時間:2024/10/8 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 去伪存真:因果约束下的图神经网络泛化 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

寫在篇首

圖神經網絡(GNN)是在各種圖數據應用上強有力的深度學習算法。其基本學習范式可以歸納為:在訓練節點或圖上訓練圖神經網絡參數,然后利用訓練好的圖神經網絡預測節點或者圖的標簽。保證這種學習范式有效的一個基本假設是IID假設,即訓練數據和測試數據同分布。

然而,由于現實世界的復雜性和數據來源的不可控性,測試數據集在實際中難以保證與訓練數據的同分布這一要求。這就從根本上違背了IID假設。我們據此試圖理解兩個問題:如果測試節點(圖)與訓練集的分布的確不同,GNN的泛化效果會怎樣呢?假如真的泛化性受到很大制約,又能如何突破這一限制呢?

通過分析可以看出,泛化性能受到限制是由于GNN本質上刻畫的還是圖數據之間的相關性,而相關性顯然在Non-IID場景下具有較弱泛化性的。因此,是時候反思要引入因果性的約束了。本文介紹兩篇工作,分別從節點分類和圖分類兩個任務出發,旨在通過引入因果約束的方法到GNN模型,以找到對標簽有穩定因果影響的局部鄰居結構(節點分類)和子圖(圖分類)。

論文標題:

如何去除節點選擇偏差對于GNN的影響?--在不可知標簽選擇偏差下的去偏差圖神經網絡

論文鏈接:

https://arxiv.org/pdf/2201.07708.pdf (TNNLS 2022)

大多數用于節點分類的GNN方法沒有考慮數據中的選擇偏差,即訓練和測試數據非同分布。同時在現實中,我們很難在訓練時獲得測試數據,從而導致測試數據變的不可知。在有選擇偏差的節點上訓練GNN會導致明顯的參數估計偏差,從而嚴重的影響在測試節點上的泛化性能。

在本文中,我們首先進行了實驗性研究,驗證了數據選擇偏差會嚴重的影響到模型的泛化性能,并且從理論上證明了數據選擇偏差將會導致GNN模型參數估計上的偏差。為了消除GNN估計的偏差,我們提出了具有差分去相關正則項的去偏差圖神經網絡。在多個有偏差數據集上數據集上驗證了該方法可以有效的去除數據選擇偏差所帶來的不良影響。

引言

目前的GNN大多采用通過聚合節點鄰居特征的方法學習節點表示,并且這樣的信息傳遞方法通過端到端的方式用節點標簽作為監督信號進行學習。在訓練過程中,GNN可以有效的學習節點局部鄰居結構和標簽之間的相關關系,從而GNN可以利用這種相關關系來學習新節點的embedding并且推測其標簽。一個GNN可以做出精準預測的基本要求是標記的訓練節點和測試節點同分布,也就是說,標記的訓練節點和測試節點服從相同的模式,從而當前圖和標簽之間的相關性可以被很好的泛化到新節點上。然而,在現實中有如下兩個不可避免的問題。

1. 由于很難控制數據收集過程無偏,收集到的訓練圖和標簽之間不可避免的存在偏差。在這樣的一個圖上進行訓練將會導致有偏差的相關性。以一個科學家合作網絡為例,如果在訓練圖中大多數的以“ML”為標簽的科學家和以“CV”為標簽的科學家合作,目前的GNN可能會學習到和CV科學家合作的科學家的標簽是ML的虛假相關性。如果一個新的ML科學家和ML或者其他領域的科學家合作比較多,很大程度上可能會被錯誤的分類。

2. 測試節點通常在訓練階段是無法獲得的,這意味著新節點的分布是不可知的。一旦測試分布和訓練分布存在不一致,目前的GNN都會表現出比較差的效果。

為了提高GNN在這類有偏差數據上的泛化性能,我們提出了一個去偏差圖神經網絡框架來提高圖學習的穩定性,該方法聯合優化了一個差分去相關正則化器和一個加權的GNN模型。具體而言,差分去相關正則化器可以學習一套樣本權重,以消除穩定的和不穩定變量之間的虛假相關。基于對于去相關正則化器因果視角下的分析,我們從理論上證明了變量的權重可以通過回歸系數來區分。

此外,為了更好的結合去相關正則化器和已有的GNN結構,理論結果表示把正則化器加在GNN的倒數第二層上會有較好的適用性。然后,學習到的去相關正則化器被用來加權GNN的損失,從而GNN的參數估計可以無偏。我們在有兩種標簽選擇偏差的真實數據集上驗證了我們方法的有效性和適用性。

標簽選擇偏差對于GNN的影響

我們首先進行了一項實驗性研究來探究目前的GNN對于標簽選擇偏差引起的分布偏移的敏感性。我們選擇的訓練節點其具有不同程度的不同標簽鄰居比例,通過這個比例我們控制節點的偏差程度,以生成不同偏差度的數據。下圖是GCN和GAT在具有不同偏差程度的cora,citeseer和pubmed數據集上的實驗結果。從實驗結果可以看出,隨著偏差程度的增大,GCN和GAT的效果都明顯的下降,證明了選擇偏差可以很大程度上的影響模型效果。

進一步地,我們在理論上,也對數據選擇偏差對于模型參數估計的影響進行了分析。我們首先假設了節點標簽只由學習到的embedding的穩定部分(比如,對于我們所研究的同質網絡,就是相同標簽的鄰居)決定:

基于如上假設,我們利用stable learning技術[1] 推導出了模型參數受穩定變量和不穩定變量 之間的虛假相關的影響:

其中, 和 分別表示GNN的參數和數據生成過程的參數。他們的差表示模型參數的估計偏差,可以看出主要是由 和 引起的,即 和 之間的虛假相關。

模型

為了減小模型估計偏差,根據[1], 我們需要去除embedding的各個維度之間的相關性,其提出了一種去相關的正則化項(Variable Decorrelation,VD):

對于該正則化項如果我們想讓,我們需要樣本量足夠大,但是對于GNN的半監督的設置下,該條件通常很難滿足。因此,我們考慮如何更有效的去除對模型損害最大的虛假相關性。基于該目的,我們首先以因果視角從新審視了VD正則化項,把其與confounder balancing 技術建立起了聯系。受啟發于confounder balancing技術對于不同confounder加權技術思想的啟發[2],我們可以證明出VD正則化器可以被GNN分類器的回歸系數所加權:

從而提出了我們的差分去相關正則化器(Differetiated Variable Decorrelation,VD):

進一步的為了使得正則化器可以適用于多種GNN模型,我們基于如下理論證明了正則化器加在GNN的倒數第二層即有理論保證也容易實現。

正則化器學習到的節點樣本權重重新調整了數據分布,從而使得調整后的數據分布無偏,用該權重對GNN損失加權,從而使得學習到GNN無偏:

模型的整體架構如下圖所示。


實驗結果

我們分別在標簽選擇偏差和小樣本選擇偏差(具有較少的訓練樣本)的四個數據上進行了實驗。

節點分類

從實驗結果可以看出(1)我們提出的方法GCN/GAT-VD/DVD取得了最好的效果,證明了我們提出框架的有效性。(2)對于偏差程度的更大的情況,我們的方法有更大的提升,證明了我們方法可以有效對抗數據選擇偏差問題。(3)對于base model我們的方法都取得了提升,證明了我們提出的正則化器和框架的有效性。

樣本權重分析和參數實驗

我們通過實驗證明了,學習到的樣本權重可以有效降低embedding之間的相關性。同時,我們的方法對于參數選擇也較為魯棒。

模型訓練時間

從實驗結果可以看出我們的方法和GCN具有相同量級的時間復雜度。

參考文獻

[1] K. Kuang, R. Xiong, P. Cui, S. Athey, and B. Li, “Stable prediction with model misspecification and agnostic distribution shift,” in AAAI, 2020.

[2] Kun Kuang, Peng Cui, Bo Li, Meng Jiang and Shiqiang Yang. Estimating Treatment Effect in the Wild via Differentiated Confounder Balancing. In SIGKDD , 2017.

在介紹完如何將因果約束引入到節點級別任務之后,我們進一步考慮如何將因果約束引入到GNN另一大類應用:圖分類當中。與節點分類不同的是,圖分類任務有以下特點:

1. 節點級別任務考慮的是節點和局部鄰居作為一個基本單元,這些單元的訓練和測試分布不同。而圖分類以單張圖作為一個基本單元,如何考慮以圖級別為基本單元的Non-IID問題?

2. 對于節點級別任務,預測中心節點標簽有較為穩定的局部子結構,那么,圖級別任務什么樣的子結構是對于標簽預測較為穩定的?以及如何找到它?帶著這些問題,我們來看第二篇關于圖級別OOD泛化的工作。

論文標題:

如何去除圖選擇偏差對于GNN的影響?--圖神經網絡在分布外圖上的泛化

論文鏈接:

https://arxiv.org/pdf/2111.10657.pdf

目前提出的圖神經網絡 (GNN) 方法沒有考慮訓練圖和測試圖之間的不可知偏差,從而導致GNN在分布外(OOD)圖上的泛化性能變差。導致GNN方法泛化性能下降的根本原因是這些方法都是基于IID假設。在此條件下,GNN模型傾向于利用圖數據中的虛假相關進行預測。但是,這樣的虛假相關可能在未知的測試環境中改變,從而導致GNN的性能下降。因此,消除虛假相關的影響對于實現穩定的GNN模型至關重要。

為了實現此目的,在本文中,我們強調對于圖級別任務虛假相關存在于子圖級別單元,并且用因果視角來分析GNN模型性能下降的原因。基于因果視角的分析,我們提出了一個統一的因果表示框架用于穩定GNN模型,稱之為StableGNN。這個框架的主要思想是首先利用一個可微分的圖池化層提取圖的高層語義特征,然后借助因果分析的區分能力來幫助模型擺脫虛假相關的影響。因此,GNN模型可以更加專注于有區分性的子結構和標簽之間的真實相關性。我們在具有不同偏差程度的仿真數據和8個真實的OOD圖數據上驗證了我們方法的有效性。此外,可解釋性實驗也驗證了StableGNN可以利用因果結構做預測。

引言

圖神經網絡 (GNNs) 是在各種圖數據應用上強有力的深度學習算法。其中一種主要的應用是圖級別的任務,比如分子圖級別的預測,情境圖分類,和社交網絡圖分類。目前GNN方法的基本學習范式是從訓練圖中學習GNN的參數然后將其用于預測未知的圖數據。保證如此學習模式成功的最基本假設是IID假設,即訓練和測試數據是從相同的數據分布中抽取出來的。

然而,在現實中這種假設由于真實據收集過程中的不可控性很難保證。因此測試數據可能會遭受未知的分布偏移,稱為分布外偏移,這種偏移導致大多數GNN模型無法做出穩定的預測。如OGB數據所報告的,到數據采用OOD劃分時,GNN將會遭受5.66%到20%的性能損失。

本質上說,對于一般的機器學習方法,當遭受分布偏移問題時,準確率下降的根本原因是不相關特征和類別標簽之間的虛假相關導致的。這個虛假相關根本上是由不相關特征和相關特征的意外的相關性導致的。而對于本文研究的圖級別任務,由于圖的性質通常由子圖單元決定 (比如,在分子圖中,原子和化學鍵團表示其功能單元),所以我們定義一個子圖單元可以是一個對于標簽相關的或者不相關的特征單元。

如圖1所示,以’‘房子’‘模體分類任務為例,其中圖的標簽表示一個圖中是否有“房子”模體。GCN模型是在“房子”模體和“星星”模體高度相關的訓練圖上訓練的。在這個數據上,“房子”模體和“星星”模體將會高度相關。這個意料之外的相關性將會導致“星星”模體的結構特征和“房子”標簽的虛假相關。圖1的第二列展示了用于GCN預測的最重要的子圖可視化結果 (由GNNExplainer產生)。由結果可知,GNN傾向于利用星星模體做預測。然而當遭遇沒有“星星”模體的圖,或者其他模體(比如,"鉆石"模體)和星星模體在一起時, GCN模型被證明容易產生錯誤的結果。

圖1 "House"模體分類例子

為了去除虛假相關對于GNN模型泛化性的影響,我們提出了一個新穎的用于圖的因果表示框架,稱之為StableGNN,其結合了GNN模型靈活的表示學習和因果學習方法對于區分虛假相關能力的兩方面優勢。對于表示學習部分,我們提出了一個圖高層語義學習模塊,其利用了一個圖池化層來映射相近的節點為簇,其中每一個簇為原始圖中一個緊密連接的子圖單元。

此外,我們理論證明了不同圖的簇的語義含義可以通過一個有序的拼接操作實現匹配。給定了匹配的高層語義變量,我們用因果視角分析GNN的性能退化并且提出了一個新穎的因果變量區分正則化項通過學習一套樣本權重來去除每一個高維變量對之間的相關性。這兩個模塊在我們的模型中聯合訓練。此外,如圖1所示,StableGNN可以有效的排除不相關子圖的影響(“星星”模體)并且利用真實的相關子圖("房子"模體)做預測。

方法

所提出框架的基本想法是設計一個因果表示學習方法來抽取有意義的圖高層語義變量然后估計他們對于圖級別任務的真實因果效應。如圖2所示,所提出的模型框架主要分為兩個部分:圖高層語義表示學習模塊和因果變量區分模塊。

圖2 StableGNN的模型框架

圖高層變量學習

高層變量池化 為了學習節點表示同時映射緊密連接的子圖到幾個簇中,我們采用DIffPool 層學習一個簇分配矩陣來實現這個目標。具體而言,由于GNN可以平滑節點表示同時使得表示更加具有區分性,給定輸入鄰接矩陣, 同時表示為, 和節點屬性 ,我們首先使用一個embedding GNN模塊來得到平滑的節點表示:

其中 是一個3層的GNN模塊,GNN層可以是GCN,GraphSAGE或者其他的。然后我們構建了一個池化層基于這個平滑的特征表示。具體地,我們產生一層的節點表示如下:

402 Payment Required

由于在相同子圖的節點可能會有相似的表示和鄰居結構,GNN模型可以把具有相似特征和結構的節點映射到相同的表示上,因此我們把節點表示 和鄰接矩陣 輸入到一個池化GNN模塊來產生第一層的的簇分配矩陣:

402 Payment Required

其中 和 表示第i個節點的簇分配向量, 同樣是一個3層的GNN模塊,其輸出維度為預設的在層1的最大的簇個數,是一個參數,可以通過端到端的方法學習到。在得到分配矩陣 之后,我們可以知道每個節點在預設的簇上的分配概率。因此,新的節點的表示可以通過如下方法計算:

這個公式根據簇分配矩陣聚合了節點表示 ,產生了 個簇的表示特征。同樣的,我們產生了一個粗化的鄰接矩陣如下所示:

402 Payment Required

我們可以通過堆疊多個Diffpool層來實現層次化的聚類結構。

高層表示匹配 在堆疊L層圖池化層之后,我們可以得到最高層的高層簇表示 。由于我們的目標是編碼子圖結構到圖表示中并且 已經顯示的編碼每個緊密連接的子結構信息到 的行向量中,因此,我們提出使用 的表示矩陣來表示高層語義。然而,由于圖數據的非歐特性,對于兩個圖 和 的第i個學習到的高層表示的 和 的語義含義可能會不同,比如, 可能代表苯環, 可能代表NO2團。為了匹配不同圖之間學習到的高層語義表示我們提出通過高層矩陣的行索引來拼接高層變量:

并且我們堆疊在一個mini-batch中的m個圖的高維表示得到embedding矩陣:

我們通過GNN層的置換不變性,證明了在經過DiffPool層之后,不同圖之間對應的高層語義是匹配的:

因果變量區分正則化項

到目前為止變量學習部分學習的變量可能是虛假相關,在本節中,我們首先分析以因果視角分析導致GNN模型性能下降的原因,然后提出一個因果變量區分正則化器(CVD)。

以因果視角重視GNN

我們的目標是學習到一個分類器 基于相關的特征Z。為了達到這個目的,我們需要區分學習到的表示 哪個是屬于穩定特征Z哪個是屬于不穩定特征M。Z和M的主要區別是對Y有沒有因果效應。對于一個圖級別的分類任務,在學習到節點表示之后,他將會被送到一個分類器里來預測他的標簽。這個預測過程可以表示為圖3(a),其中 T 是處理變量,Y是輸出預測值,X是混淆變量。路徑 表示GNN 的目標是估計一個學習到的表示變量T到Y 的因果效應。同時其他變量將會被視為混淆變量X。

由于子圖之間存在虛假相關,因此他們學習到的表示之間也存在虛假相關。因此,存在一個在X和T之間的路徑。并且由于GNN同樣也使用confounder做預測,所以存在一條路徑 。因此,這兩條路徑形成一個X到T的后門路徑(i.e., ),從而導致T和Y之間的虛假相關。這個虛假相關將會改變處理變量和標簽的之間真實相關性,并且在測試的時候會改變。

在這種情景下,目前的GNN方法不能準確的評估子圖的因果效應,因此GNN的性能可能會衰減。混淆平衡技術通常被用來評估變量的因果效應,但是他們通常針對某一變量是由單個維度的特征組成的數據,我們要處理的數據是是多個高維變量組成的,因此,我們提出一種多變量多維度的混淆變量平衡技術,如圖3b所示:

其中 是第k個混淆變量的embedding矩陣。

圖3 GNN的因果視角

重加權HSIC

但是上述的混淆變量平衡技術主要針對的是二元處理變量,我們需要處理的高維處理變量。基于混淆平衡技術主要目的是去除處理變量和混淆變量之間的關聯,我以我們考慮采用HSIC來度量高維變量之間的關聯,同時提出采用樣本加權的方式去除高維變量之間的關聯,方法如下:對于兩個變量U和V,我們首先采用隨機初始化的樣本權重來重加權它們:

然后我們可以得到加權的HSIC:

對于去除所有變量之間的相關性,我們優化如下的全局高維變量去相關項:

加權的GNN模型

在傳統的GNN模型中,對于每一個圖數據的權重是相等的。因為學習到的樣本權重 可以全局的去除高層變量之間的相關性,我們提出使用這個樣本權重來重加權GNN的損失,并且迭代的優化樣本權重 和加權GNN的參數如下所示:

實驗

我們分別在仿真數據上和真實數據上驗證了我們的實驗效果。

仿真實驗

我們通過控制“房子”模體和“星星”模體的相關性程度,生成了{0.6,0.7,0.8,0.9}四種偏差程度不同的訓練數據,更多生成數據的細節請參考原文。我們分別以GCN/GraphSAGE作為基模型實現了我們的模型,所以本節主要和相應的基模型進行了對比。

實驗結果如表1所示。首先,相較于基模型我們都取得了比較大的提升效果,證明了我們是個有效的框架。其次,在偏差程度越大的數據上提升效果越明顯,證明了我們的方法可以有效對抗數據偏移產生的分布外效果下降的問題。最后,我們的模型相較于GCN/GraphSAGE都有明顯的提升,證明了我們的方法是一個靈活的框架可以提升現有模型的效果。

圖4是一些可解釋性的例子,也能很好的說明我們的模型可以利用因果結構進行預測。

Case 1 : 如我們所見,GCN分配了更高的權重到“Star”模體,然而,StableGNN-GCN更多的關注于“house”模體。盡管GCN可以通過“Star”模體做出正確的預測,但是這樣的預測是不穩定的,并且意味著如果在訓練數據中存在虛假相關,模型將會依賴這種虛假相關做出預測。但是這種不穩定的預測是我們不想要的,因為這些不穩定的結構在測試階段可能會改變。

Case 2 :在這個例子里,有個“grid”模體和“house”模體相連接。如圖所示,GCN更加關注“Grid”模體并且StableGNN-GCN仍然更加關注“house”模體。由于存在虛假相關的子圖,會導致減小因果子圖對于預測的置信度。當存在另一個不相關的子圖時,GCN可能也會關注于這個不相關的子圖,導致不正確預測結果。然而,我們的模型可以專注于因果子圖不管什么樣的子圖和它相連。

Case 3:這是一個負例的例子。虛假相關性導致模型關注于“star”模體。由于“star”模體和正例相關,GCN將會預測這個graph為正例。相反,由于我們模型去除了子圖之間的虛假相關,我們發現“star”模體可能對于標簽沒有決定性作用并且“diamond”模體可能對于負標簽有更大的影響。

圖4?GCN和StableGCN的可解釋性例子

真實數據實驗

我們在OGB的七個分子圖性質預測的數據上展開實驗,與常用的數據不同的是,這些數據都采用scaffold splitting 從而使得具有不同結構的圖數據劃分到訓練集和測試集。此外,我們還采用了常用的MUTAG數據集用于解釋我們的結果。表2是數據集的統計信息。表3是實驗結果。

從表中可以看出,我們的方法綜合性能排在前兩位,遠遠大于排名第3的方法,證明了現有GNN方法在OOD場景下的圖預測任務上表現的都不好而我們的方法可以取得較好的結果。同時在不同類型數據,不同的任務的數據集上我們都取得了較好的效果,證明了我們的方法是一個通用的框架。

圖5是MUTAG數據集上的可解釋性實驗。藍色,綠色,紅色和黃色分別代表N,H,O,C原子。由GNNExplainer產生的最重要的子圖被標為黑色。StableGNN正確的確定了功能團NO2和NH2,這些功能團被認為是對Mutagenic 有決定性作用的,而其他方法不能找到有解釋性的子圖做預測。

圖5?MUTAG數據集上的可解釋性實驗

4 結論和未來工作

在本文中,我們首次研究了圖數據在OOD上的泛化問題。我們以因果視角分析了這個問題,認為子圖之間的虛假相關會影響模型的泛化性。為了提高現有模型的穩定性,我們提出一個一般化的因果表示學習框架,稱之為StableGNN,其有效的結合圖高層表示學習和因果效果評估到一個統一的框架里。豐富的實驗很好的驗證了StableGNN的有效性,靈活性,和可解釋性。

此外,我們認為本文開啟了一個在圖數據上進行因果表示學習的方向。本文的最重要的貢獻是提出了一個通用的因果表示框架:圖高層變量表示學習和因果變量區分,這兩個部分都可以為任務而特殊的設計。比如,多通道的濾波器可以被用來學習圖上的不同的信號到子空間里。然后對于一些數據也許在高層變量之間存在這更復雜的因果結構,因此發現這些因果結構對于重構原始數據生成過程將會更有效。

參考文獻

[1] R. Ying, D. Bourgeois, J. You, M. Zitnik, and J. Leskovec, “Gnnex-plainer: Generating explanations for graph neural networks,” inNeurIPS, 2019.

[2] X. Zhang, P. Cui, R. Xu, L. Zhou, Y. He, and Z. Shen, “Deep stablelearning for out-of-distribution generalization,” inCVPR, 2021, pp.5372–5382

[3] R. Ying, J. You, C. Morris, X. Ren, W. L. Hamilton, and J. Leskovec,“Hierarchical ?graph ?representation ?learning ?with ?differentiablepooling,” inNeurIPS, 2018.

[4] B. ?Sch?lkopf, ?F. ?Locatello, ?S. ?Bauer, ?N. ?R. ?Ke, ?N. ?Kalchbrenner,A. Goyal, and Y. Bengio, “Toward causal representation learning,”Proceedings of the IEEE, vol. 109, no. 5, pp. 612–634, 2021.

特別鳴謝

感謝 TCCI 天橋腦科學研究院對于 PaperWeekly 的支持。TCCI 關注大腦探知、大腦功能和大腦健康。

更多閱讀

#投 稿?通 道#

?讓你的文字被更多人看到?

如何才能讓更多的優質內容以更短路徑到達讀者群體,縮短讀者尋找優質內容的成本呢?答案就是:你不認識的人。

總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發出更多的可能性。?

PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優質內容,可以是最新論文解讀,也可以是學術熱點剖析科研心得競賽經驗講解等。我們的目的只有一個,讓知識真正流動起來。

📝?稿件基本要求:

? 文章確系個人原創作品,未曾在公開渠道發表,如為其他平臺已發表或待發表的文章,請明確標注?

? 稿件建議以?markdown?格式撰寫,文中配圖以附件形式發送,要求圖片清晰,無版權問題

? PaperWeekly 尊重原作者署名權,并將為每篇被采納的原創首發稿件,提供業內具有競爭力稿酬,具體依據文章閱讀量和文章質量階梯制結算

📬?投稿通道:

? 投稿郵箱:hr@paperweekly.site?

? 來稿請備注即時聯系方式(微信),以便我們在稿件選用的第一時間聯系作者

? 您也可以直接添加小編微信(pwbot02)快速投稿,備注:姓名-投稿

△長按添加PaperWeekly小編

🔍

現在,在「知乎」也能找到我們了

進入知乎首頁搜索「PaperWeekly」

點擊「關注」訂閱我們的專欄吧

·

·

總結

以上是生活随笔為你收集整理的去伪存真:因果约束下的图神经网络泛化的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 日韩特级| 国产91香蕉| 狠狠干美女 | 暖暖av在线 | 成人免费影片 | 亚洲成人二区 | 日韩精品一区二区在线看 | 91免费高清在线观看 | 亚洲精品美女在线观看 | 久久午夜电影 | 自拍偷拍99| 亚洲天堂久久 | jizzjizz日本免费视频 | 四虎影院在线免费播放 | 天天草天天干 | 一区二区三区伦理片 | 亚洲短视频 | 三级三级久久三级久久18 | 一本一道久久综合 | 日韩美女黄色 | 日韩av在线一区 | 久久精品一二三 | 国产免费激情视频 | 日韩精品在线观看一区 | 天天干天天操天天爱 | 亚洲成人7777| 国产顶级毛片 | 嫩草免费视频 | 91久久人澡人人添人人爽欧美 | 香港三级日本三级韩国三级 | 日韩专区欧美专区 | 91精品毛片 | 国产精品久久久久久久久久东京 | 久久久精品人妻一区二区三区四 | 亚洲第一页在线 | 夏目彩春娇喘呻吟高潮迭起 | 中文字幕在线视频一区 | 狠狠干综合网 | 欧美做爰全过程免费观看 | 新国产视频 | 成人免费看高清电影在线观看 | 狠狠看| 亚洲三级黄色 | 成人看的视频 | 国产精品一区二区三区免费在线观看 | 国产精品久久久久久久妇 | 美日韩三级 | 鸥美一级片 | 久久不雅视频 | 亚洲欧美校园春色 | 在线免费观看av网址 | 精品视频第一页 | 波多野结衣一区二区三区在线观看 | 成年人网站在线 | 亚洲热在线视频 | 国产亚洲精久久久久久无码77777 | 丰满少妇乱子伦精品看片 | 伊人久久青青 | 日韩精品一区二区三区中文在线 | 理论片一级| 日韩成人一级片 | 国产11页| 日本不卡一区视频 | 国产精品免费精品一区 | 黄色69| 午夜噜噜 | 国产第一页视频 | 色香蕉影院 | 91丨porny丨成人蝌蚪 | 激情综合五月网 | 日韩特黄毛片 | 亚洲成人黄色影院 | 在线观看www视频 | 国产精品久久欧美久久一区 | 欧美色图日韩 | 日本少妇一区 | 亚洲第一视频网 | 毛片在线视频观看 | 精品少妇人妻一区二区黑料社区 | 欧美午夜精品一区 | 精品黑人一区二区三区 | 黄网站色视频免费观看 | 色八区 | 99精品视频一区二区 | 国产精品久久久久毛片 | 在线观看www.| 国产免费一级片 | 91精品久久人妻一区二区夜夜夜 | 色爱区综合 | 一区二区三区在线视频免费观看 | 成人免费网站黄 | 怡红院精品视频 | 欧美精品欧美极品欧美激情 | 日韩成人在线一区 | 黄色香蕉网 | 五月天视频 | 国产做受高潮动漫 | 日本一区二区在线观看视频 | 免费播放毛片 |