日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

遥感影像分类方法

發布時間:2023/12/31 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 遥感影像分类方法 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

最初的遙感影像分類是通過目視解譯(濮靜娟, 1984)來完成的,對研究人員的主觀意識有較強的依賴性,而且效率較低,適用于數據量較小的情況,通常作為其他方法對比的對象。目前的遙感圖像分類主要以計算機分類為主,因此按照人工參與的程度可以將分類方法劃分為監督分類、非監督分類(陶超, 2021)。

近年來,分類方法逐漸向機器學習的方向發展。傳統機器學習方法,如Smolensky的受限玻爾茲曼機(Restricted Boltzmann Machine, RBM)( Midhun M E, 2014)、Olshausen和Field的稀疏編碼(Sparse Coding, SC)(Olshausen B A&Field D J, 1996)等;深度學習是基于人腦學習的思想提出了一種深度神經網絡的機器學習方法(Hinton G E, 2006)。

1監督分類

監督分類(Supervised Classification),是指利用人們對實驗區域的先驗知識,去定義地物的類別,通過選擇訓練樣本將先驗知識應用于分類過程,對不同分類器進行訓練,然后用訓練好的判決規則或者判決函數對未知數據進行分類;利用已知地物的信息對未知地物進行分類的方法。下面主要介紹最大似然、支持向量機、隨機森林三種較為常見分類方法,目前在遙感影像分類中主要應用的是支持向量機和隨機森林兩種分類方法以及相應的優化方法。

1.1 最大似然分類法

最大似然分類(Maximum Likelihood Classification, MLC)(Ahmad A et al., 2012)又稱貝葉斯分類。用統計方法根據最大似然比貝葉斯判決準則法建立非線性判別函數集,假定各類分布函數為正態分布,并選擇訓練區,計算待分類樣區的歸屬概率,而進行分類的一種圖像分類方法。

該方法是一種較為常見的分類方法,它的原理是基于貝葉斯理論:

最大似然分類的原理:設有k個類別,P(wi)表示第 i個類別發生的概率,P(X|wi)為對應類別的條件概率,由貝葉斯定理可以得到選擇樣本X的后驗概率P(wi|X) 。通過這個后驗概率來作為分類原則,將概率最大的判定為屬于哪一個類別。

圖 4 最大似然分類步驟

最大似然法的優點是簡單,便于操作,而且可以和貝葉斯理論、其他先驗知識融合,但是它也有自身的缺陷,如只適合于波段數少的多波段數據,還有分類時間長,訓練樣本要求較高等問題。

1.2 支持向量機分類法

支持向量機(Support Vector Machine, SVM)是一種基于統計學習理論的機器學習算法(Corinna C et al., 1995; Gualfieri J A&Cromp R F, 1998),采用結構風險最小化(Structural Risk Minimization, SRM )原理。根據有限的樣本信息在模型的復雜性和學習能力之間尋求最佳平衡,以求獲得最好的推廣能力。是一種對線性和非線性數據進行分類的方法。它使用一種非線性映射,把原始訓練數據映射到較高的維上,在新的維上搜索最佳分離超平面。

SVM可分為線性可分的線性SVM、線性不可分的線性SVM、非線性SVM。如果訓練數據線性可分,則通過硬間隔最大化學習得到一個線性分類器即線性可分支持向量機,也稱硬間隔支持向量機(Tzotsos A et al., 2008);如果訓練數據近似線性可分,則通過軟間隔最大化學習得到一個線性分類器即線性支持向量機,也稱軟間隔支持向量機(Theodoridis S et al., 2003);對于數據非線性可分的情況,通過擴展線性SVM的方法,得到非線性的SVM,即采用非線性映射把輸入數據變換到較高維空間,在新的空間搜索分離超平面(Optimal Separating Hyperplane, OSH) (Mountrakis G et al., 2011; Min J H et al., 2005)。

對于一個二分類問題, 在 d 維特征空間中有N個訓練模式,每個模式的目標屬性yi∈(-1,1) 。非線性 SVM 把數據投影到一個更高維的特征空間 ,在這個空間里,兩個類別的區分是通過尋找一個權向量為w偏置為b的OSH:

?????????????????????????????????????????????????????

f(x)是超平面的判別函數, 與OSH平行且在平面f(x)=±1上的訓練樣本稱為支持向量 (Support Vectors, SVs)。OSH是通過最大化兩個超平面的距離和最小化訓練錯誤優化計算。

圖 5 SVM二維線性分類

通常采用的核函數有以下兩種:

多項式函數(Polynomial Kernel):????

徑向基函數(Radial Basis Function):

?

其中:d是多項式函數的階數, γ是徑向基函數的寬度。

SVM最初是用來解決兩類模式識別問題,通常有兩種多類SVM算法:一對一(One Against One, OAO)和一對多(One Against All, OAA),對每個兩類問題使用一個SVM,最終的類別歸屬用投票的方式確定;而OAA則是對k類問題采用k個分類器,每個分類器解決類別i和其它所有類別的區分問題,最終根據區分函數值的大小來確定每個樣本的屬性。

SVM算法,使用核函數可以向高維空間進行映射;使用核函數可以解決非線性的分類;分類思想很簡單,就是將樣本與決策面的間隔最大化,分類效果較好。但是SVM算法對大規模訓練樣本難以實施,解決多分類問題存在困難,對缺失數據敏感,對參數和核函數的選擇敏感。

1.3 隨機森林分類方法

隨機森林 (Random Forest, RF)算法(Breiman L, 2001)是一種將多顆決策樹組合到一起進行分類的算法。隨機森林就是通過集成學習的Bagging思想將多棵樹集成的一種算法,它的基本單元就是決策樹。

圖 6 隨機森林構建步驟

每一顆決策樹模型的訓練是通過自助采樣法抽出來的,在構建每一顆決策樹模型的時候是從所有特征中隨機抽取一個子集來對模型進行訓練。隨機森林算法是由眾多的決策樹組成,每一決策樹會產生一種分類結果,而隨機森林則是將所有結果匯總從中選出最佳的分類器,進行分類。

圖 7 隨機森林分類流程

隨機森林算法是一種比較成熟的算法,在光學遙感影像土地利用分類中普遍使用,特別是在數據維度較高,樣本數據少,同時對準確性要求較高的多光譜、多時相遙感影像分類中,隨機森林算法更能體現速度快、精度高、穩定性好的優勢,取得了很好的應用效果。

2 非監督分類

非監督分類主要采用聚類分析的方法, 根據光譜或者空間特征 , 把像素按照相似性歸成若干類別 "它的目的是使得屬于同一類別的像素之間的距離盡可能的小而不同類別上像素間的距離盡可能的大。非監督分類憑計算機自己對數據進行處理從而分出不同類別,但是不能確定分類結果的屬性(Hemalatha S and Anouncia S M, 2016)。下面主要介紹K均值和ISODATA分類方法。

2.1 K均值分類方法

K均值分類算法(K-Means)是一種迭代求解的聚類分析算法,是由MacQueen首先提出。其基本思想對于給定的聚類數目K,首先隨機創建一個初始劃分,然后采用迭代方法通過將聚類中心不斷移動來嘗試著改進劃分(張文君, 2006)。

圖 8 K均值分類步驟

K均值采用距離作為相似性指標,從而發現給定數據集中的K個類,且每個類的中心是根據類中所有值的均值得到,每個類用聚類中心來描述。對于給定的一個包含n個d維數據點的數據集X以及要分得的類別K,選取歐式距離作為相似度指標,聚類目標是使得各類的聚類平方和最小,即使得距離J最小化:

結合最小二乘法和拉格朗日原理,聚類中心為對應類別中各數據點的平均值,同時為了使得算法收斂,在迭代過程中,應使最終的聚類中心盡可能的不變。

K-Means算法對孤立點敏感。因為是相似度的度量是以某個樣本到類別中心的距離作為依據的,同時,類別中心也是用所有屬于當前類別的樣本的均值計算得到的,所以如果總體樣本集合中存在噪聲點,或者孤立點,那么,它必然會影響到最后的分類結果。

2.1 ISODATA分類方法

迭代自組織的數據分析算法(Iterative Self Organizing Data Analysis Techniques Algorithm , ISODATA)與K均值分類有很多相似之處,它在K-均值算法的基礎上,對分類過程增加了“合并”和“分裂”兩個操作,并通過設定參數來控制這兩個操作的一種聚類算法(Ball G H&Hall D J, 1965)。

該算法思想首先確定初始分類個數確定歸類閾值,通過引入歸并與分裂過程不斷調整類別個數,兩種類別之間的樣本均值距離小于參數值時,就觸發歸并機制進行歸類,如果大于參數值則進行分裂,分成兩類,如此不斷調整分類樣本個數和參數值進行分類,直到迭代結果較為滿意為止。與K均值的目標函數是相同的:

圖 9 ISODATA算法分類步驟

ISODATA 算法簡單具有較好的分類精度,同物異譜和同譜異物對 ISODATA 算法分類精度影像較大。傳統的 ISODATA 算法以一整幅遙感影像為處理對象,邊學習邊分類,分類效率低,并行計算技術和 ISODATA 算法的結合解決了運算耗時問題。

3 深度學習分類方法

深度學習(LECUN Y, 2015)是一種端到端的模型,它起源于人工神經網絡的研究,是模擬人腦神經元認知過程的一種抽象計算模型,能夠從原始數據中學習一個低層次的表達,并在此基礎上通過線性或非線性組合獲得高層次的表達(Hinton G E, 2006)。其主要的思想就是利用神經網絡進行信息識別,通過利用大量的樣本進行訓練,尋找樣本數據內在的規律,得到最優訓練模型,然后將待處理數據輸入訓練模型得到最優分類的過程。

深度神經網絡(Deep Neural Network, DNN)也稱深度學習(Deep Learning)已成為一種從海量圖像數據中直接學習圖像特征表達的強大框架。從計算機視覺的角度提取遙感影像信息,能夠極大地提高含有大量未知信息的遙感圖像分類的精度。因此,深度學習成為遙感圖像分類研究中的熱點。下面介紹幾種主要的深度學習方法。

3.1 卷積神經網絡

卷積神經網絡(Convolutional Neural Networks, CNN)是對二維數字圖像進行處理的復雜神經網絡結構(LeCun Y, 1989; Krizhevsky A et al., 2012)。

圖 10 卷積神經網絡架構

CNN 是一種帶有卷積結構的神經網絡,包含卷積層(Convolutional Layer)、池化層(Pooling Layer)和全連接層(Fully Connected Layers),其“,通過卷積、池化等操作,對圖像的高層語義特征進行提取。CNN 采用局部感知、權值共享和下采樣的方式,一方面減少了參數量使網絡易于優化,另一方面能提高了網絡訓練性能,提升分類效果。

卷積層是 CNN 的最核心部分,它是利用卷積核對上一層得到的特征圖進行卷積運算并產生相應輸出的網絡層。假設輸入圖像為 3×3 大小的圖像,通常邊界填充補0得到一個 5×5 大小圖像,從圖像的左上角開始,用一個 3×3 的卷積核(Kernel Size)以步距為1在原圖中從左至右、從上至下進行滑動,將卷積核與相應的圖像像元相乘再相加計算,并用計算結果代替窗口中心的像元值,由此得到輸出的特征圖。利用不同的卷積核提取影像不同的特征。

圖 11 卷積過程示意圖

池化層又叫作下采樣層,池化層能夠縮小特征圖尺寸,減少參數量,降低網絡的復雜度和計算量;另外池化層能夠對特征進行壓縮,使特征更加抽象和具有概括性。

池化計算公式:

CNN因其強大的圖像特征提取能力,現在也被廣泛應用在遙感影像分類中, CNN發展出更深的模型包括LeNet、A1exNet、VGG、ResNet等(LeCun Y, 1990;LeCun Y, 1998;Fan J et al., 2010; Simonyan K& Zisserman A, 2014;He K, 2016)。CNN 的強大之處在于它的多層神經網絡結構能夠自動學習影像的深層次特征,同時,CNN 的局部連接、權值感知和下采樣的特點,使學習到的特征具有平移、旋轉和縮放不變性,更重要的是,它能夠學習遙感影像中由于傳感器拍攝角度不同、地物尺度不同等原因造成的地物不同形態的特征,有利于提高遙感影像的分類精度。然而,CNN 的下采樣操作會降低影像分辨率,丟失細節信息,輸出的結果通常是待分類圖像屬于某一類別的概率向量值,且 CNN 的全連接層中的向量長度是固定的,限制了輸入圖像的尺寸也必須為固定值。

3.2 全卷積神經網絡

全卷積神經網絡(Fully Convolutional Networks, FCN)是在 CNN 基礎上的發展和延伸。針對CNN的缺點進行了改進并提出了FCN(Long J et al., 2015)。用于解決圖像語義分割方面的問題。

圖像語義分割的概念延伸至遙感領域即是遙感影像的分類,因此,FCN 能夠確定遙感影像中每一個像素的類別,不僅能夠識別像素“是什么”,還能夠定位像素“在哪里”,實現了從 CNN 圖像級別的分類進一步延伸到像素級別的分類。

FCN可以接受任意尺寸的輸入圖像,采用反卷積層對最后一個卷基層的特征圖進行上采樣,使它恢復到輸入圖像相同的尺寸,從而可以對每一個像素都產生一個預測,同時保留了原始輸入圖像中的空間信息。

圖 12 FCN網絡結構示意圖(Long J et al., 2015)

FCN仍有一些缺點,得到的結果還不夠精細,對細節不夠敏感;沒有考慮像素與像素之間的關系,缺乏空間一致性等。

FCN 主要有三個特點,分別是全卷積化、上采樣和跳躍結構。 全卷積化是指將網絡結構中的全連接層全部轉換成卷積層。一方面,它將輸出結果從一維向量轉換為二維矩陣,有利于進行后續的上采樣操作。另一方面,由于全連接層的神經元節點是固定的,因此它與上一層特征圖中所有神經元節點之間的權值個數也是固定的,當神經網絡結構確定后,權值個數不能改變,特征圖的大小也不能改變,所以層層反推。

全卷積化的 FCN 可以接受任意尺寸的輸入圖像。同時,GPU能夠加速卷積操作,進而縮短計算時間,提高計算效率。上采樣能夠保證預測圖與輸入圖像間具有相同的尺寸,實現像素到像素之間的映射。但由于 FCN 中的池化操作會降低圖像分辨率,因此最后一層卷積層輸出的特征圖會丟失細節信息,且上采樣過程只能還原圖像尺寸,無法還原圖像的本來特征,因此對特征圖進行上采樣后獲得的圖像分割精度低,分割邊緣粗糙。基于此,J Long 提出了跳躍結構(Long J et al., 2015)。

3.3 U-Net模型

U-Net模型是O Ronneberger 等人提出的一種改進的 FCN 結構,最初應用于醫學圖像的語義分割,它由左半邊的壓縮通道(Contracting Path)和右半邊擴展通道(Expansive Path)組成,因結構清晰優雅呈 U 狀而得名。

圖 13 U-Net結構(Ronneberger O et al.,2015)

壓縮通道是典型的卷積神經網絡結構,它重復采用 2 個卷積層和 1 個最大池化層的結構,每進行一次池化操作后特征圖的維數就增加 1 倍。在擴展通道,先進行 1 次反卷積操作,使特征圖的維數減半,然后拼接對應壓縮通道裁剪得到的特征圖,重新組成一個 2 倍大小的特征圖,再采用 2 個卷積層進行特征提取,并重復這一結構。在最后的輸出層,用 2 個卷積層將 64 維的特征圖映射成 2 維的輸出圖。

U-Net 模型是 FCN 的改進和延伸,它沿用了 FCN 進行圖像語義分割的思想,即利用卷積層、池化層進行特征提取,再利用反卷積層還原圖像尺寸。然而 U-Net 融合了編碼-解碼結構和跳躍網絡的特點。

U-Net 模型在較少的訓練樣本情況下也能得到更加準確的分類結果。U-Net以模型結構簡潔、魯棒性高等優勢,受到了遙感領域研究人員的關注,其模型也被不斷改進,并廣泛應用影像分類中。

圖像的語義分割模型還有DeepLab、SegNet等,其中DeepLab已經有V1、V2、V3、V3+四個版本(Chen L C et al., 2014; Badrinarayanan V, 2015;Chen L C et al., 2017; Chen L C et al., 2018),并且有很多研究者都提出了各種優化模型以改善模型的適用性以及準確性。針對應用中的缺陷進行優化。這些模型其最初都是在其他的領域應用,如計算機視覺、醫學影像等領域,因為其優勢在遙感領域受到研究者的關注被逐漸應用在了遙感影像分類。

深度學習具有特征學習和深層結構兩個特點,有利于遙感圖像分類精度的提升。特征學習能夠根據不同的應用自動從海量數據中學習到所需的高級特征表示,更能表達數據的內在信息。深層結構通常擁有多層的隱層節點,包含更多的非線性變換,使得擬合復雜模型的能力大大增強。

4 分類方法應用分析

各種分類方法的最終目的都是將影像中的每個像元根據其在不同的波段、空間或其他信息中表現出來與其他周圍像元不同的特征,依據一定的規則和算法將其進行歸類。最簡單的是依靠專業人士的專業經驗對像元信息進行判斷,隨之便是利用單一光譜亮度值進行半自動化分類。

對于復雜的異構景觀的空間單元,目視解譯提供了一個有效方法(Antrop M&Van Eetvelde V, 2000),Antrop利用目視解譯方法對郊區景觀全方位進行研究,構建了景觀指數圖;目視解譯可以從遙感影像中直接獲取目標地物(Schepaschenko, D, 2019);而且目視解譯還能夠較為準確的從影像中獲取時序影像的變化(Bastin J-F et al., 2017)。

目視解譯主要依靠專業人士的專業知識對遙感圖像的分析解譯以及相應的光譜特征描述。通過解譯標識的建立、類別的判斷等工作完成分類,該方法過于依賴人的專業知識,面對海量影像數據分類效率不高,但是總體分類精度較高。監督分類利用計算機自動分類,計算效率遠高于目視解譯方法,適用于大范圍的研究區域,是目前遙感影像信息提取普及率較高的方法之一。

Otukei 等(Otukei J R et al., 2009)以Landsat影像為實驗數據,研究帕利薩區的基巴萊縣的土地利用變化,最大似然分類精度達到87%以上。鄭彥龍等(鄭彥龍等, 2017)用Landsat 影像對咸安區進行最大似然分類,將該區域的土地利用類型分為六類,分類總體精度高達 90% 以上。樊利恒(樊利恒等, 2017)等用多光譜數據得到了印第安納州Tippecanoe 郡的分類結果,改進后的最大似然法總體分類精度提高3%以上。李杰等(李杰等, 2018)以0.5m分辨率的 WorldView-2 影像數據和1m分辨率的 IKONOS 全色遙感圖像數據,利用最大似然分類方法進行實驗,結果總體精度都高達85%。趙恒謙等(趙恒謙等, 2019)使用SVM分類方法對2006—2016年北京市通州區地物類型進行分類,整體分類精度均高于80%以上。張靜(張靜等, 2019)等使用 Landsat TM 多光譜影像, 通過對支持向量機引入地表植被指數以及地物在影像中的紋理信息特征進行優化,分類總體精度最高達到 97%。郭玉寶等(郭玉寶等, 2016)以北京市某區國產高分一號影像數據,利用隨機森林算法進行土地利用情況進行分類提取分析,3種分類方法中隨機森林總體分類精度達到 85%以上。李玉等(李玉等, 2019)人提出一種基于熵加權的K-Means全局信息聚類的分類算法,對高光譜圖像中具有不同光譜反射率差異程度的各類地物目標均能取得很好的分類結果。

監督分類可以根據研究區域和研究目的,充分利用該地區的先驗經驗,來決定分類類別,避免不必要的分類,可以通過對訓練樣本的控制與檢查判斷樣本數據是否被精準分類,避免重大錯誤。由于監督分類中訓練樣本的選擇人為因素較強,研究人員定義的分類類別可能并非影像中存在的類別,或者影像中某些類別沒有被定義均會導致監督分類方法無法識別。

Abbas 等(Abbas, 2016)以巴基斯坦大氣研究委員會的衛星數據為數據源,選擇巴基斯坦東北部巴德地區作為研究區域,以 ISODATA 算法作為影像分類的研究方法,迭代次數增加時分類精度也相應提高。韓潔等(韓潔, 2017)使用ISODATA對QuickBird 影像數據初步分割,同時融合了幾何、紋理等信息進行道路提取,最終結果表明實驗相比其他算法在完整率、正確率和監測質量平均提高了 26. 61% 、5. 57% 和 26. 77%。朱爽等(朱爽, 2020)利用 ISODATA 算法對北京郊區 Landsat TM 影像中冬小麥種植區進行提取,ISODATA 算法的像元精度達到86.6%。

非監督分類不需要像監督分類預先對研究區域進行樣本訓練,降低了研究人員對樣本分類差錯導致的分類錯誤的概率,但是仍然需要經驗豐富的研究員對分類集群進行解譯。非監督分類只需要設定初始參數( 迭代次數,誤差閾值等) 即可自動進行分類,而且可以識別影像中特殊的、小覆蓋類別。由于分類之前沒有進行過訓練,其分類結果需要大量的分析,結果中的類別可能并非研究員所需要的類別,研究人員需要對結果進行類別匹配,而且分集群會因光譜特征的變化(時間、地形變化) 無法連續。

Chen等人(Chen J et al., 2020)使用帶標記的數據集自動學習 CNN 架構,從而獲得可以適應不同類型數據的CNN網絡。該方法的提出可以幫助理解哪些類型的特征對于遙感圖像的智能理解是至關重要的。Zhang等(Zhang W et al., 2019)人將CNN和CapsNet結合起來用于場景分類,使最終的分類結果相比單一網絡而言得到有效提升。REZAEE等(Rezaee M et al.,2018)采用在ImageNet上預訓練的A1exNet網絡進行了濕地土地覆被制圖的研究,并將其與隨機森林等經典機器學習模型進行比較,結果表明卷積神經網絡可以有效改善濕地土地覆被分類精度。吳永靜等(吳永靜等, 2021)采用ResNet作為特征提取網絡對DeepLab進行改進,并基于高分辨率遙感影像實現了光伏用地的高精度分類。Han等(Fu H, 2021)人基于DeepLab V3+網絡的深度學習方法,利用多源數據(包括光學遙感影像和數字高程模型DEM數據)記錄錐體溶巖景觀。采用基于深度學習的像素級圖像分割方法,以四通道數據作為訓練樣本的并集平均交集最高,精度可達95.5%。

深度學習分類模型有很多類,神經網絡對于待分類別的先驗知識要求較少,計算過程高速并行,可以處理海量數據,處理特征空間較為復雜數據,在處理非線性分類時優勢明顯。由于神經網絡層數確定并沒有理論基礎,目前均以實驗確定,因此算法存在收斂速度慢,參數復雜,易限于局部極小,網絡層和神經元個數難確定的局限。但是各種分類方法都有自身的局限性又各有優點。

參考:

  • Ball G H, Hall D J. ISODATA, a novel method of data analysis and pattern classification[R]. Stanford research inst Menlo Park CA, 1965.
  • LeCun Y, Boser B, Denker J S, et al. Backpropagation applied to handwritten zip code recognition[J]. Neural computation, 1989, 1(4): 541-551.
  • LeCun Y, Denker J, Henderson D, et al. Imagenet classification with deep convolutional neural networks[J]. Advances in neural information processing systems, 1990.
  • Bastin J-F, Berrahmouni N, Grainger A et al (2017a) The extent of forest in dryland biomes. Science 356:635–638.
  • Cortes C, Vapnik V. Support-vector networks[J]. Machine learning, 1995, 20(3): 273-297.
  • Olshausen B A, Field D J. Emergence of simple-cell receptive field properties by learning a sparse code for natural images[J]. Nature, 1996, 381(6583): 607-609.
  • LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.
  • Gualtieri J A, Cromp R F. Support vector machines for hyperspectral remote sensing classification[C]. 27th AIPR workshop: advances in computer-assisted recognition. SPIE, 1999, 3584: 221-232.
  • Antrop M, Van Eetvelde V. Holistic aspects of suburban landscapes: visual image interpretation and landscape metrics[J]. Landscape and urban planning, 2000, 50(1-3): 43-58.
  • Breiman L. Random forests[J]. Machine learning, 2001, 45(1): 5-32.
  • Theodoridis S,Koutroumbas K. Pattern recognition[M]. 2nd ed, 2003, New York: Elsevier Academic Press.
  • Min J H, Lee Y C. Bankruptcy prediction using support vector machine with optimal choice of kernel function parameters[J]. Expert systems with applications, 2005, 28(4): 603-614.
  • HINTON G E,SALAKHUTDINOV P R.Reducing the dimensionality of data with neural networks[J].Science,2006,313(5786) : 504-507.
  • Tzotsos A, Argialas D. Support vector machine classification for object-based image analysis[M]. Object-based image analysis. Springer, Berlin, Heidelberg, 2008: 663-677.
  • Otukei J R, Blaschke T. Land cover change assessment using decision trees,support vector machines and maximum likelihood classification algorithms[J]. International Journal of Applied Earth Observations and Geoinformation, 2009, 12: 27-31.
  • Fan J, Xu W, Wu Y, et al. Human tracking using convolutional neural networks[J]. IEEE transactions on Neural Networks, 2010, 21(10): 1610-1623.
  • Mountrakis G, Im J, Ogole C. Support vector machines in remote sensing: A review[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2011, 66(3): 247-259.
  • Hinton G E, Deng L, Yu D, et al. Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups[J]. IEEE Signal Processing Magazine, 2012, 29(6): 82-97.
  • Ahmad A, Quegan S. Analysis of maximum likelihood classification on multispectral data[J]. Applied Mathematical Sciences, 2012, 6( 129): 6425-6436.
  • Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[J]. Advances in neural information processing systems, 2012, 25.
  • Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. arXiv preprint arXiv:1409.1556, 2014.
  • Chen L C, Papandreou G, Kokkinos I, et al. Semantic image segmentation with deep convolutional nets and fully connected crfs[J]. arXiv preprint arXiv:1412.7062, 2014.
  • Midhun M E, Nair S R, Prabhakar V T, et al. Deep model for classification of hyperspectral image using restricted boltzmann machine[C]. Proceedings of the 2014 International Conference on Interdisciplinary Advances in Applied Computing. ACM, 2014: 35.
  • Badrinarayanan V, Kendall A, SegNet R C. A deep convolutional encoder-decoder architecture for image segmentation[J]. arXiv preprint arXiv:1511.00561, 2015, 5.
  • Ronneberger O, Fischer P, Brox T. U-Net: Convolutional networks for biomedical image segmentation[M]. Medical Image Computing and Computer-Assisted Intervention—MICCAI 2015. Springer International Publishing, 2015:234-241.
  • LECUN Y,BENGl0 Y,HINTON G.Deep learningI[J].Nature,2015,521:436—444.
  • Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[C]. Proceedings of the IEEE conference on computer vision and pattern recognition. 2015: 3431-3440.
  • Abbas A W, Minallh N, Ahmad N, et al. K-means and ISODATA clustering algorithms for landcover classification using remote sensing[J]. Sindh University Research Journal (Science Series), 2016,48(2) : 315-318.
  • He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]. Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 770-778.
  • Chen L C, Papandreou G, Kokkinos I, et al. Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs[J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 40(4): 834-848.
  • Hemalatha S, Anouncia S M. Unsupervised segmentation of remote sensing images using FD based texture analysis model and ISODATA[J]. International Journal of Ambient Computing and Intelligence (IJACI), 2017, 8(3): 58-75.
  • Chen L C, Papandreou G, Schroff F, et al. Rethinking atrous convolution for semantic image segmentation[J]. arXiv preprint arXiv:1706.05587, 2017.
  • Chen L C, Zhu Y, Papandreou G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]. Proceedings of the European conference on computer vision (ECCV). 2018: 801-818.
  • Rezaee M, Mahdianpari M, Zhang Y, et al. Deep convolutional neural network for complex wetland classification using optical remote sensing imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(9): 3030-3039.
  • Schepaschenko, D, See, L, Lesiv, M,.?et al.?Recent Advances in Forest Observation with Visual Interpretation of Very High-Resolution Imagery.?Surv Geophys?40,?839–862 (2019).
  • Zhang W, Tang P, Zhao L. Remote sensing image scene classification using CNN-CapsNet[J]. Remote Sensing, 2019, 11(5): 494.
  • Chen J, Huang H, Peng J, et al. Convolution neural network architecture learning for remote sensing scene classification[J]. arXiv preprint arXiv:2001.09614, 2020.
  • Fu H, Fu B, Shi P. An improved segmentation method for automatic mapping of cone karst from remote sensing data based on deeplab V3+ model[J]. Remote Sensing, 2021, 13(3): 441.
  • 濮靜娟. 應用遙感圖象研究河床演變[J].地理科學,1984(03):235-242+293.
  • 張文君,顧行發,陳良富,余濤,許華.基于均值-標準差的K均值初始聚類中心選取算法[J].遙感學報,2006(05):715-721.
  • 樊利恒,呂俊偉,于振濤,等. 基于改進最大似然方法的多光譜遙感圖像分類方法[J].電光與控制,2014,21 ( 10) : 52-56,74
  • 翁健. 基于全卷積神經網絡的全向場景分割研究與算法實現 [D].山東大學,2017.
  • 郭玉寶,池天河,彭玲, 等. 利用隨機森林的高分一號遙感數據進行城市用地分類[J]. 測繪通報,2016(5) : 73-76.
  • 鄭彥龍,江輝仙,劉文霞. 基于高分遙感影像的城市精細土地分類研究[J].福建師范大學學報(自然科學版) , 2017, 33(6) : 60-68.
  • 韓潔,郭擎,李安. 結合非監督分類和幾何-紋理-光譜特征的高分影像道路提取[J].中國圖象圖形學報,2017,22(12) : 1788-1797.
  • 張靜,張翔,田龍等. 西北旱區遙感影像分類的支持向量機法[J]. 測繪科學,2017,42(1) : 49-52, 58
  • 李杰,李玉,王玉,等. 結合最大似然算法和波利亞罐模型的全色遙感圖像分類[J].測繪通報, 2018( 4) : 36-43, 49.
  • 李玉,甄暢,石雪,趙泉華.基于熵加權K-means全局信息聚類的高光譜圖像分類[J].中國圖象圖形學報,2019,24(04):630-638.
  • 趙恒謙,賈梁,尹政然,等. 基于多源遙感數據的北京市通州區土地利用/覆蓋與生態環境變化監測研究[J].地理與地理信息科學,2019,35(1) : 38-43.
  • 朱爽,張錦水,李長青等. 軟硬結合分類方法提取特定地物信息--以冬小麥為例[J].中國農業資源與區劃, 2020,41(8) : 31-40.
  • 陶超,陰紫薇,朱慶,李海峰. 遙感影像智能解譯:從監督學習到自監督學習[J].測繪學報,2021,50(08):1122-1134.
  • 吳永靜,吳錦超,林超,竇寶成,黎珂.基于深度學習的高分辨率遙感影像光伏用地提取[J].測繪通報,2021(05):96-101.
  • 總結

    以上是生活随笔為你收集整理的遥感影像分类方法的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。