日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python迭代法求极值_用Python实现最速下降法求极值的方法

發布時間:2023/12/8 python 46 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python迭代法求极值_用Python实现最速下降法求极值的方法 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

對于一個多元函數

,用最速下降法(又稱梯度下降法)求其極小值的迭代格式為

其中

為負梯度方向,即最速下降方向,αkαk為搜索步長。

一般情況下,最優步長αkαk的確定要用到線性搜索技術,比如精確線性搜索,但是更常用的是不精確線性搜索,主要是Goldstein不精確線性搜索和Wolfe法線性搜索。

為了調用的方便,編寫一個Python文件,里面存放線性搜索的子函數,命名為linesearch.py,這里先只編寫了Goldstein線性搜索的函數,關于Goldstein原則,可以參看最優化課本。

線性搜索的代碼如下(使用版本為Python3.3):

'''

線性搜索子函數

'''

import numpy as np

import random

def goldsteinsearch(f,df,d,x,alpham,rho,t):

flag=0

a=0

b=alpham

fk=f(x)

gk=df(x)

phi0=fk

dphi0=np.dot(gk,d)

alpha=b*random.uniform(0,1)

while(flag==0):

newfk=f(x+alpha*d)

phi=newfk

if(phi-phi0<=rho*alpha*dphi0):

if(phi-phi0>=(1-rho)*alpha*dphi0):

flag=1

else:

a=alpha

b=b

if(b

alpha=(a+b)/2

else:

alpha=t*alpha

else:

a=a

b=alpha

alpha=(a+b)/2

return alpha

上述函數的輸入參數主要包括一個多元函數f,其導數df,當前迭代點x和當前搜索方向d,返回值是根據Goldstein準則確定的搜索步長。

我們仍以Rosenbrock函數為例,即有

于是可得函數的梯度為

最速下降法的代碼如下:

"""

最速下降法

Rosenbrock函數

函數 f(x)=100*(x(2)-x(1).^2).^2+(1-x(1)).^2

梯度 g(x)=(-400*(x(2)-x(1)^2)*x(1)-2*(1-x(1)),200*(x(2)-x(1)^2))^(T)

"""

import numpy as np

import matplotlib.pyplot as plt

import random

import linesearch

from linesearch import goldsteinsearch

def rosenbrock(x):

return 100*(x[1]-x[0]**2)**2+(1-x[0])**2

def jacobian(x):

return np.array([-400*x[0]*(x[1]-x[0]**2)-2*(1-x[0]),200*(x[1]-x[0]**2)])

X1=np.arange(-1.5,1.5+0.05,0.05)

X2=np.arange(-3.5,2+0.05,0.05)

[x1,x2]=np.meshgrid(X1,X2)

f=100*(x2-x1**2)**2+(1-x1)**2; # 給定的函數

plt.contour(x1,x2,f,20) # 畫出函數的20條輪廓線

def steepest(x0):

print('初始點為:')

print(x0,'\n')

imax = 20000

W=np.zeros((2,imax))

W[:,0] = x0

i = 1

x = x0

grad = jacobian(x)

delta = sum(grad**2) # 初始誤差

while i10**(-5):

p = -jacobian(x)

x0=x

alpha = goldsteinsearch(rosenbrock,jacobian,p,x,1,0.1,2)

x = x + alpha*p

W[:,i] = x

grad = jacobian(x)

delta = sum(grad**2)

i=i+1

print("迭代次數為:",i)

print("近似最優解為:")

print(x,'\n')

W=W[:,0:i] # 記錄迭代點

return W

x0 = np.array([-1.2,1])

W=steepest(x0)

plt.plot(W[0,:],W[1,:],'g*',W[0,:],W[1,:]) # 畫出迭代點收斂的軌跡

plt.show()

為了實現不同文件中函數的調用,我們先用import函數導入了線性搜索的子函數,也就是下面的2行代碼

import linesearch

from linesearch import goldsteinsearch

當然,如果把定義goldsteinsearch函數的代碼直接放到程序里面,就不需要這么麻煩了,但是那樣的話,不僅會使程序顯得很長,而且不便于goldsteinsearch函數的重用。

此外,Python對函數式編程也支持的很好,在定義goldsteinsearch函數時,可以允許抽象的函數f,df作為其輸入參數,只要在調用時實例化就可以了。與Matlab不同的是,傳遞函數作為參數時,Python是不需要使用@將其變為函數句柄的。

運行結果為

初始點為:

[-1.2 1. ]

迭代次數為: 1504

近似最優解為:

[ 1.00318532 1.00639618]

迭代點的軌跡為

由于在線性搜索子程序中使用了隨機函數,初始搜索點是隨機產生的,因此每次運行的結果不太相同,比如再運行一次程序,得到

初始點為:

[-1.2 1. ]

迭代次數為: 1994

近似最優解為:

[ 0.99735222 0.99469882]

所得圖像為

以上這篇用Python實現最速下降法求極值的方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持。

總結

以上是生活随笔為你收集整理的python迭代法求极值_用Python实现最速下降法求极值的方法的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。