日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 前端技术 > HTML >内容正文

HTML

前端机器学习——线性回归

發(fā)布時間:2023/12/20 HTML 43 豆豆
生活随笔 收集整理的這篇文章主要介紹了 前端机器学习——线性回归 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

前端機器學(xué)習(xí)——線性回歸

前端機器學(xué)習(xí)——邏輯回歸傳送門
哈,現(xiàn)在我們再跳回機器學(xué)習(xí)的入門模型——線性回歸,上一波我們使用邏輯回歸完成了一個用戶喜愛顏色預(yù)測的功能,那么我們這次就用線性回歸完成一個將好多點擬合在一條線上的功能,嘿嘿,還是蠻實用,echarts.js本身是自帶這個功能的。
但是本著能用就行 追本溯源的精神,我們來從零開始實現(xiàn)一波。
線性回歸,就是通過這些點,找到一條合適的直線或者平面,或者超平面。
h=w0+w1x1+w2x2+......+wnxnh = w_0+w_1x_1+w_2x_2+......+w_nx_n h=w0?+w1?x1?+w2?x2?+......+wn?xn?
我們的目的就是求出這一系列的w。那么接下來就說怎么找到合適的w。

我們直接在echart.js的官網(wǎng)上寫一個z=9x+14y方程式加隨機誤差生成的五百個點,我們的目的就是要回歸再根據(jù)這500個點再找到這條直線(或者平面或者超平面)


我們可以看到所有的點幾乎都是幾乎都是分布在z=9x+14y這個平面上的,但是上下還是有一點誤差,同時我們能看到下面的輸出[9.033991469275728, 13.966111482227832, 0.16362569478706737]
代表他線性回歸后的式子是 z= 9.034x + 13.96y + 0.16,擬合回歸程度還是可以的。
下面直接上主體函數(shù)代碼,輸入的x是入?yún)?shù)組,輸入的y是輸出數(shù)組,他和上次的sigmod函數(shù)——邏輯回歸幾乎是一摸一樣的,唯一的區(qū)別就是少了個sigmod轉(zhuǎn)化的過程,都是用的梯度下降法。

function MyGetline(x, y) {//我們使用梯度下降法,所以要求梯度方向const gradient = function(x, h, y) {let g = []for(let j = 0; j < x[0].length; j++) {let c = 0for(let i = 0; i < y.length; i++) {c = c + x[i][j] * (h[i] - y[i])}c = c / y.lengthg.push(c)}return g}//線性回歸過程x,y是入?yún)⒑洼敵鰯?shù)組,lr是學(xué)習(xí)率(沿梯度方向下降距離),count是重復(fù)次數(shù)function Line_Regression(x, y, lr=0.000001, count=50000) {let w = []x.map(item => {item.push(1)})for(let i = 0; i < x[0].length; i++) {w.push(0)}for(let m = 0; m < count; m++) {let z = []for(let i = 0; i < x.length; i++) {let item = 0for(let j = 0; j < w.length; j++) {item = item + x[i][j] * w[j]}z.push(item)}let g = gradient(x, z, y)for(let i = 0; i < w.length; i++) {w[i] = w[i] - lr * g[i]}}return w}let w = Line_Regression(x,y)//返回w系數(shù)return w}

把下面的代碼復(fù)制到echart.js的在線編輯器上去,就可以直接看效果并且隨心修修改改了
(注:在3D散點圖的實例提供的那個編輯界面有效,隨便找個折線圖實例進入編輯器是不行的哦 )

$.get(ROOT_PATH + 'data/asset/data/life-expectancy-table.json', function (data) {let symbolSize = 2.5;let mydata = []let x = []let y = []for(let i=0; i<500; i++) {let a = i * Math.random() * 10let b = i * Math.random() * 10let c = 9 * a + 14 * b + (Math.random() - 0.5) * i * 30let item = []item.push(a)item.push(b)item.push(c)let xitem = []xitem.push(a)xitem.push(b)x.push(xitem)y.push(c)mydata.push(item)}console.log(mydata)option = {grid3D: {},xAxis3D: {},yAxis3D: {},zAxis3D: {},dataset: {source: mydata},series: [{type: 'scatter3D',symbolSize: symbolSize}]};myChart.setOption(option);//入?yún)是輸入因變量數(shù)組,入?yún)是輸出數(shù)組function MyGetline(x, y) {//梯度方向const gradient = function(x, h, y) {let g = []for(let j = 0; j < x[0].length; j++) {let c = 0for(let i = 0; i < y.length; i++) {c = c + x[i][j] * (h[i] - y[i])}c = c / y.lengthg.push(c)}return g}//邏輯回歸過程function Line_Regression(x, y, lr=0.0000001, count=50000) {let w = []x.map(item => {item.push(1)})for(let i = 0; i < x[0].length; i++) {w.push(0)}for(let m = 0; m < count; m++) {let z = []for(let i = 0; i < x.length; i++) {let item = 0for(let j = 0; j < w.length; j++) {item = item + x[i][j] * w[j]}z.push(item)}let g = gradient(x, z, y)for(let i = 0; i < w.length; i++) {w[i] = w[i] - lr * g[i]}// l = loss(h, y)}return w}let w = Line_Regression(x,y)//使用求出的權(quán)重系數(shù)進行選擇console.log(w)}MyGetline(x,y) });

總結(jié)

以上是生活随笔為你收集整理的前端机器学习——线性回归的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。