数模笔记_多变量最优化计算之牛顿法
Date: 2_22
Name: Guo Yehao
Theme: Calculation in Optimality with multiple variables
Reference: 數(shù)學(xué)建模方法與分析(華章)
在上一節(jié)中,我們討論多變量最優(yōu)化計(jì)算中的隨機(jī)搜索算法,它的精度并不是眾多算法中最高的。在精度問題上,有的時(shí)候問題本身就帶有明顯的誤差性,以至于我們不能將其忽略,比如上一節(jié)消防站部署的問題,我們在區(qū)域劃分時(shí)就有了誤差,因此我們并不需要對結(jié)果要求很高的精確度,所以用一些比較粗略的算法就可以滿足要求,比如隨機(jī)搜索算法;然而有的時(shí)候,問題本身不帶有離散的特征,比如連續(xù)型的題目,或者誤差不明顯表現(xiàn)出來,以致于我們可以當(dāng)作數(shù)據(jù)沒有可疑數(shù)字(或者大物實(shí)驗(yàn)中稱為可靠位數(shù)無窮多位),這個(gè)時(shí)候我們就不能僅僅用粗略一點(diǎn)的算法了,我們需要一種更加精確的算法。
在本節(jié)中討論了多變量函數(shù)的牛頓法,它是基于梯度的快速收斂算法的一種,數(shù)學(xué)思想是微分的線性近似,幾何上講是用超平面(低維情況下就是切線和切平面)近似原始曲面,用這種線性近似不斷迭代,迭代次數(shù)決定結(jié)果的精度。和我們在單變量最優(yōu)化問題中討論的一樣,用牛頓法快速收斂之前需要一個(gè)零點(diǎn)方程的近似解,這個(gè)近似解通過某些全局方法產(chǎn)生。低維的情況可以通過圖像法直接觀察得出,高維的情況就需要用到隨機(jī)搜索算法了。
問題的背景來源于生產(chǎn)收益問題,價(jià)格和數(shù)量之間有著較復(fù)雜的函數(shù)關(guān)系,最終我們得到收益的復(fù)雜函數(shù)表達(dá)式,如書中所示。通過圖像法,我們得到目標(biāo)函數(shù)由唯一取到極大值的內(nèi)點(diǎn)。我們現(xiàn)在的目的是求解函數(shù)的駐點(diǎn),復(fù)雜的表達(dá)式使得我們不能通過人工的方法求出解析解。駐點(diǎn)處有梯度向量為零的特征,之后我們會(huì)通過梯度向量討論,可以得到一些“整體”的表示方法,所謂“整體”就是通過矩陣整體運(yùn)算。
- 對于多元向量值函數(shù),每個(gè)分量的泰勒級(jí)數(shù)展開只保留到一階項(xiàng),這樣多元向量值函數(shù)就可以近似地表示為一個(gè)基準(zhǔn)點(diǎn)處的函數(shù)值和一個(gè)偏導(dǎo)數(shù)矩陣(Jocabi矩陣)和自變量列向量的乘積。
- 令這個(gè)近似表達(dá)式為零,求解自變量的列向量,作為向量值函數(shù)為零的近似解,求解的問題就是我們在線性代數(shù)里面接觸的那些解方程的問題,唯一復(fù)雜的地方在于Jocabi矩陣求逆,低維的情況可以手算出來(伴隨矩陣除以行列式),以得到固定的迭代公式,高維的情況也許有現(xiàn)成的計(jì)算機(jī)程序(實(shí)際上自己寫程序也不難,把行列式用定義法展開就可以計(jì)算,伴隨矩陣的固定求法也使得很容易程序?qū)崿F(xiàn))。
- 新求解出的自變量向量作為新的基準(zhǔn)點(diǎn),用相同的方法求解出下一組自變量,如此迭代就可以不斷提高解的精度。
PS: 牛頓法是非??斓木植渴諗糠椒?#xff0c;然而切記在使用前要有一個(gè)相對精確的近似解,這個(gè)近似解通常由像隨機(jī)搜索算法這樣的全局方法得到。
總結(jié)
以上是生活随笔為你收集整理的数模笔记_多变量最优化计算之牛顿法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 数模笔记_多变量最优化计算之随机搜索算法
- 下一篇: 文献检索实践