日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

特征值与特征向量_机器学习和线性代数 - 特征值和特征向量

發(fā)布時(shí)間:2024/4/11 编程问答 45 豆豆
生活随笔 收集整理的這篇文章主要介紹了 特征值与特征向量_机器学习和线性代数 - 特征值和特征向量 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

特征值和特征向量可能是線性代數(shù)中最重要的概念之一。從機(jī)器學(xué)習(xí)、量子計(jì)算、物理到許多數(shù)學(xué)和工程的問題,都可以通過找到一個(gè)矩陣的特征值和特征向量來解決。

根據(jù)定義(標(biāo)量λ、向量v是特征值、特征向量A):

視覺上,Av與特征向量v位于同一直線上。

這里有些例子。

然而,Ax通常不會(huì)等于λx。只有一些特殊的向量滿足條件。

應(yīng)用

許多問題可以用線性變換建模,其中解決方案來自特征值和特征向量。讓我們先用一個(gè)抽象的例子來詳細(xì)說明這個(gè)問題。在許多系統(tǒng)中,我們可以在向量中表達(dá)屬性,其變化率線性地取決于當(dāng)前屬性(例如,人口增長率線性地取決于當(dāng)前人口和GDP)。一般等式是

我們來猜一下滿足上面方程的u(t)。因?yàn)橐粋€(gè)指數(shù)函數(shù)的導(dǎo)數(shù)等于它本身,我們從一個(gè)t的指數(shù)函數(shù)開始然后乘以一個(gè)向量x,輸出就是一個(gè)向量。

根據(jù)上面的計(jì)算,u(t)的解是

接下來,我們將找到它的完全解。一階導(dǎo)數(shù)方程是一個(gè)線性函數(shù)。

對(duì)于線性函數(shù),完全解是特定解的線性組合。如果u和v是解,則C?u + C?v也是解。從我們之前的特征值λ= 4,-2和-2的例子中,完全解將是

在t = 0時(shí),我們可以測(cè)量初始狀態(tài)u(0),比如說[u??,u??,u??]?,并求解常數(shù)C?,C?,C?。

讓我們用諧振子來說明這個(gè)想法。我們選擇這個(gè)例子是因?yàn)橹C波振蕩器及其近親(量子諧振子)在研究粒子物理學(xué),量子力學(xué)或物理學(xué)方面幾乎無處不在。我們從著名的F=ma方程開始用特征值和特征向量來解二階導(dǎo)數(shù)。由于我們確實(shí)可以自由選擇質(zhì)量單位,物理學(xué)家通常設(shè)m = 1來簡化討論,即

我們把諧振子問題重新寫成矩陣的形式。

阻尼諧振子

這與我們上一個(gè)例子的形式相同,因此,我們可以使用A的特征值和特征向量來形成完全解。

這不是一個(gè)證明特征值能力的孤立例子。著名的定態(tài)(time-independent)薛定諤方程用特征值和特征向量表示。所有觀察到的屬性都是通過量子力學(xué)中的特征值建模的。還有很多其他的例子,包括機(jī)器學(xué)習(xí)。

從根本上說,許多系統(tǒng)都可以建模為

讓我們?cè)傺芯繒r(shí)間序列模型。

首先,我們假設(shè)初始狀態(tài)u 0是A的特征向量。因此,未來狀態(tài)可以計(jì)算為

簡而言之,我們可以通過用標(biāo)量的冪代替矩陣(A?)的冪來簡化計(jì)算。 接下來,考慮A具有n個(gè)線性獨(dú)立的特征向量,它們構(gòu)成R?的basis 。 我們可以將R?的任何向量分解為該basis,并通過再次計(jì)算特征值的冪來簡化計(jì)算。

讓我們簡化討論,假設(shè)整個(gè)互聯(lián)網(wǎng)只包含三個(gè)網(wǎng)頁。矩陣A的元素A??是當(dāng)用戶在頁面j上時(shí)用戶去頁面i的概率。

如果我們總結(jié)給定特定頁面的下一頁的所有可能性,它等于1。因此,A的所有列總和為1.0,這種矩陣稱為隨機(jī)矩陣(轉(zhuǎn)移矩陣或馬爾可夫矩陣)。

馬爾可夫矩陣具有一些重要的性質(zhì)。Ax或A?x的結(jié)果總是其列相加的和為1。此結(jié)果表示每次點(diǎn)擊后分別位于第1,2和3頁的可能性。所以很明顯它的和應(yīng)該是1。

任何馬爾可夫矩陣A的特征值都是1,其他特征值(正或負(fù))的絕對(duì)值都小于1。這種行為非常重要。在我們的例子中,

對(duì)于馬爾可夫矩陣,我們可以選擇λ= 1的特征向量,使元素總和達(dá)到1.0。 元素總和為1的向量v也可以使用A的特征向量進(jìn)行分解,其中c 1等于1。

由于u 1,u 2,...和un是特征向量,所以A?可以用λ?代替。除了特征值λ= 1之外,馬爾可夫矩陣的特征值(λ?)的冪將減小,因?yàn)檫@些特征值的絕對(duì)值小于1。 因此,無論初始狀態(tài)如何,系統(tǒng)都達(dá)到接近特征向量u 1的穩(wěn)態(tài)。 A?和穩(wěn)態(tài)都可以從特征向量u 1導(dǎo)出,如下所示。

在我們的例子中,我們到達(dá)第1、2和3頁的概率分別是0.41、0.34和0.44。這個(gè)概念有許多潛在的應(yīng)用。許多問題可以用馬爾可夫過程和馬爾可夫/轉(zhuǎn)移矩陣來建模。

馬爾可夫過程和轉(zhuǎn)移矩陣

PageRank

以谷歌聯(lián)合創(chuàng)始人拉里佩奇命名的PageRanking算法也有類似的概念。它是第一個(gè)谷歌搜索排名算法,即使它現(xiàn)在經(jīng)過大量修改,增加了排名算法,以改善用戶體驗(yàn)并避免人們操縱系統(tǒng)。 核心概念可視化如下。PageRanking通過跟蹤到其他頁面的Web鏈接,輸出您在隨機(jī)游走后可能點(diǎn)擊頁面的概率分布。該概率充當(dāng)網(wǎng)頁的排名。當(dāng)很多頁面鏈接到您的網(wǎng)頁時(shí),谷歌會(huì)將它排序更高,因?yàn)殒溄拥骄W(wǎng)頁的頁面數(shù)量是其受歡迎程度的指標(biāo)。 這意味著在隨機(jī)游走中點(diǎn)擊頁面的機(jī)會(huì)。

從概念上講,我們計(jì)算一個(gè)頁面排名,它等于鏈接到這個(gè)頁面的其他頁面排名的總和,除以經(jīng)過某種歸一化后的出站頁面總數(shù)。

我們迭代地執(zhí)行計(jì)算,直到它達(dá)到穩(wěn)態(tài)。在數(shù)學(xué)上,PageRank嘗試在以下等式中求解PageRank R.

這與我們之前討論的例子有很大的相似之處,如果我們忽略阻尼因子d。引入這個(gè)因子是因?yàn)殡S機(jī)游走不會(huì)永遠(yuǎn)持續(xù)。

對(duì)于Google,他們不直接計(jì)算特征向量。在我們前面的例子中,A的冪收斂得很快,A3的列已經(jīng)收斂到本征向量u 1 。

PageRank論文證明,有3.22億個(gè)頁面鏈接,該解決方案在52次迭代中收斂到一個(gè)可容忍的極限。

馬爾可夫矩陣使我們得到下面的方程,其中穩(wěn)態(tài)依賴于一個(gè)主成分。

在機(jī)器學(xué)習(xí)中,信息與原始數(shù)據(jù)糾纏在一起。 在數(shù)學(xué)上,特征值和特征向量提供了識(shí)別它們的方法。 特征向量識(shí)別成分,特征值量化其重要性。 下面的等式將A中的信息分解為成分。 我們可以基于特征值的平方根對(duì)它們進(jìn)行優(yōu)先級(jí)排序,并忽略具有小α值的項(xiàng)。 這樣可以降低噪聲并幫助我們?cè)贏中提取核心信息。

希望你現(xiàn)在可以看到Ax =λx的美感。 特征值和特征向量可以通過求解(A-λI)v = 0來計(jì)算。對(duì)于Ax =λx,對(duì)于v = 0以外的解,矩陣(A-λI)是不可逆的。 即它是單數(shù)的。 即它的行列式是零。 det(A - λI)= 0稱為特征多項(xiàng)式。 特征值是該多項(xiàng)式的根。

特征值是:

應(yīng)用Av =λv:

讓我們通過一個(gè)更復(fù)雜的例子詳細(xì)說明這一步驟,

要找到特征值λ,

16的可能因數(shù)是1 2 4 8 16。

讓我們計(jì)算特征值λ= 4的特征向量,通過減少行。

我們有三個(gè)變量,有2個(gè)方程。我們將x 3任意設(shè)置為1并計(jì)算其他兩個(gè)變量。因此,對(duì)于λ= 4,特征向量是:

我們重復(fù)計(jì)算λ= -2并得到

通過3個(gè)變量和1個(gè)方程,我們的解決方案中有2個(gè)自由度。讓我們?cè)谂c其他(多個(gè))時(shí)間設(shè)定為1?自由之一的一個(gè)度為0而設(shè)定為X 2 = 1時(shí),X 3 = 0,和X 2 = 0,X 3 = 1分開,所計(jì)算出的特征向量是:

有3個(gè)變量和1個(gè)方程,解有2個(gè)自由度。讓我們一次把一個(gè)自由度設(shè)為1,另一個(gè)自由度設(shè)為0。 即設(shè)置x 2 = 1,x 3 = 0,x 2 = 0,x 3 = 1,計(jì)算出的特征向量為:

請(qǐng)注意,特征值和特征向量的解集不是唯一的。我們可以重新縮放特征向量。我們還可以為上面的x 2,x 3設(shè)置不同的值。因此,選擇我們的特征向量以滿足某些條件是可能的,也是可取的。例如,對(duì)于對(duì)稱矩陣,總是可以選擇具有單位長度并且彼此正交的特征向量。

在我們的例子中,我們有一個(gè)重復(fù)的特征值“-2”。它生成兩個(gè)不同的特征向量。然而,情況并非總是如此 - 有些情況下重復(fù)的特征值不具有多個(gè)特征向量。

對(duì)角化

假設(shè)矩陣A具有兩個(gè)特征值和特征向量。

我們可以將它們連接在一起并以矩陣形式重寫方程式。

我們可以將它推廣到任意數(shù)量的特征向量:

其中V連接所有特征向量,Λ(λ的大寫字母)是包含特征值的對(duì)角矩陣。

矩陣A一個(gè)是可對(duì)角化的(如果我們可以把它轉(zhuǎn)換成一個(gè)對(duì)角矩陣),

如果n×n矩陣具有n個(gè)線性獨(dú)立的特征向量,則它是可對(duì)角化的。如果矩陣是對(duì)稱的,則它是可對(duì)角化的。如果矩陣沒有重復(fù)的特征值,它總是生成足夠的特征向量來對(duì)向量進(jìn)行對(duì)角化。如果沒有,則無法保證。

特征分解

如果A是一個(gè)具有N個(gè)線性獨(dú)立特征向量的矩形矩陣(v 1,v 2,...&vn和相應(yīng)的特征值λ1,λ2,...和λn),我們可以重新排列

例如,

特征值和特征向量的性質(zhì)

  • Ax與特征向量x在同一直線上(方向相同或相反)。
  • 特征值的和等于矩陣的跡(對(duì)角元素的和)。
  • 特征值的乘積等于行列式。
  • 如果沒有特征值重復(fù),所有特征向量都是線性無關(guān)的。
  • 如果特征值是重復(fù)的,我們可能有也可能沒有足夠的線性無關(guān)的特征向量來對(duì)角化一個(gè)方陣。
  • 正特征值的數(shù)量等于正pivots的數(shù)量。
  • 對(duì)于Ax =λx,
  • 如果A是奇異的,它的特征值是0。可逆矩陣的所有特征值都是非零的。
  • 特征值和特征向量可以是復(fù)數(shù)。
  • 投影矩陣的特征值始終僅為1和0。反射矩陣的特征值為1和-1。

可視化

因?yàn)楹茈y看到超過3個(gè)維度的任何東西。 此處的示例保留2維。 假設(shè)v 1和v 2是2×2矩陣A的線性無關(guān)特征向量。任何向量都可以在v 1和v 2方向上分解為components 。 當(dāng)我們將A與特征向量相乘時(shí),結(jié)果在特征向量的同一條線上。 如果特征值為正,則它將向量按特征值在相同方向上縮放。 否則,它會(huì)向相反方向縮放向量。

因此,對(duì)于下面紅色單位圓上的所有點(diǎn),都將轉(zhuǎn)換為橢圓上的點(diǎn)。但是對(duì)于非特征向量,它不會(huì)在原向量的同一條直線上。當(dāng)我們繼續(xù)將結(jié)果與A相乘時(shí),結(jié)果會(huì)更接近特征向量。

在這種可視化中有一件非常重要的事情。變換后的單位向量(Ax)的最大范數(shù)(長度)小于或等于最大特征值。另一方面,范數(shù)大于或等于最小特征值,即

事實(shí)上,這可以很容易地在下面看到。

目標(biāo)或成本函數(shù)通常以x?Ax的二次形式表示。假設(shè)m×n矩陣A保持n個(gè)主體的屬性。AA?保持這些屬性之間的關(guān)系,這個(gè)矩陣S是對(duì)稱的。

特征值和特征向量可以幫助我們改變不同方向的特征。具有最大值的特征向量向我們顯示這些屬性之間的相關(guān)性。這些概念可以在SVD和PCA看到。

總結(jié)

以上是生活随笔為你收集整理的特征值与特征向量_机器学习和线性代数 - 特征值和特征向量的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。