日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

ML之UliR:利用非线性回归,梯度下降法(迭代十万次)求出学习参数θ,进而求得Cost函数最优值

發布時間:2025/3/21 编程问答 47 豆豆
生活随笔 收集整理的這篇文章主要介紹了 ML之UliR:利用非线性回归,梯度下降法(迭代十万次)求出学习参数θ,进而求得Cost函数最优值 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

ML之UliR:利用非線性回歸,梯度下降法(迭代十萬次)求出學習參數θ,進而求得Cost函數最優值

?

?

目錄

輸出結果

代碼設計


?

?

輸出結果

更新……

?

代碼設計

import numpy as np import random def genData(numPoints,bias,variance): x = np.zeros(shape=(numPoints,2)) y = np.zeros(shape=(numPoints)) for i in range(0,numPoints): x[i][0]=1 x[i][1]=i y[i]=(i+bias)+random.uniform(0,1)%variance return x,ydef gradientDescent(x,y,theta,alpha,m,numIterations): xTran = np.transpose(x) for i in range(numIterations):hypothesis = np.dot(x,theta) loss = hypothesis-y cost = np.sum(loss**2)/(2*m) gradient=np.dot(xTran,loss)/mtheta = theta-alpha*gradient print ("Iteration %d | cost :%f" %(i,cost))return thetax,y = genData(100, 25, 10) #100行, print ("x:") print (x) print ("y:") print (y)m,n = np.shape(x) n_y = np.shape(y) print("m:"+str(m)+" n:"+str(n)+" n_y:"+str(n_y))numIterations = 100000 alpha = 0.0005 theta = np.ones(n) theta= gradientDescent(x, y, theta, alpha, m, numIterations) print(theta)

?

?

相關文章
ML之UliR:利用非線性回歸,梯度下降法(迭代十萬次)求出學習參數θ,進而求得Cost函數最優值

?

?

?

總結

以上是生活随笔為你收集整理的ML之UliR:利用非线性回归,梯度下降法(迭代十万次)求出学习参数θ,进而求得Cost函数最优值的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。