日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

machine learning (2)-linear regression with one variable

發布時間:2025/3/14 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 machine learning (2)-linear regression with one variable 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

machine learning- linear regression with one variable(2)

  • Linear regression with one variable = univariate linear regression: 由一個輸入變量預測出一個output (regression problem預測連續的值). ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?single input<--->single output?
  • training set: 機器進行學習的元素集
  • ? ? ? ? ??

    • univariate linear regression =?Linear regression with one variable?
    • The Hypothesis Function(for linear regression):,這是一個關于x的函數(θ0與θ1是固定的).這是一個假設的函數(求出假設的?θ0 和 θ1,這個是我們的目標,愈近的接近真實的y值),這樣可以根據input value(x)來計算output value(y)

    • Cost Function(for linear regression): (y為真實的值),這是一個關于θ1與θ2(parameters)的函數,用來衡量假設函數(hypothesis function)的準確性,目的是選擇使cost function最小的θ1與θ2的值,這樣就能確定假設函數(Hypothesis Function)了.

      • 圖片?
    • Squared error function = cost function
    • Mean squared error?= cost function
    • Gradient Descent: 一種用來自動提高hypothesis function準確性的方法,使cost function取最小值(不僅適用于linear regression,可用于整個機器學習).

    • 圖片?(非cost function for linear regression,一般情況下的J(θ01))

    • 由上圖可知,不同的初始值,利用gradient descent可能得出不同的局部最優解(有不同的極小值)

    ? ? ?大概方法步驟:

    ? ? ? function: J(θ01)?

    ? ? ? 目標: 求出J(θ01)的最小值

  • ?先預設 θ01的值 ? ?
  • ?利用gradient descent反復求θ01的值? ??
  • ?直至θ01的值收斂于一個確定的值(J(θ01)的極小值),(收斂是因為當到達極值時,cost function的偏導為0,這時會收斂)
      • learning rate:??(大于0),朝著cost function的梯度方向以a(learning rate)系數倍數逼近cost function(θ01為參數)的最小值。
        • learning rate太小:使求出收斂的值時迭代的次數變多,使收斂過程變慢(下圖是假設θ0已知,θ1未知時的cost function圖形,若都未知則圖應是立體的,如上圖)
        • learning rate太大:可能會導致無法收斂,得不到正確的值(下圖是假設θ0已知,θ1未知時的cost function圖形,若都未知則圖應是立體的,如上圖)
      • The gradient descent equation:?? (j=0,1) ?
        • :=為賦值操作,=為truth assertion操作
        • 要同時更新θ01的值(update simultaneously),即算出θ0的新值后,不能利用這個新值的J(θ01)去算θ1,而是同時更新θ0,θ1
        • 求的是局部最優解(即cost function的極小值,但是不是最小值)
        • 但是由cost function for linear regression的圖(像一個碗狀)可知,它只有一個極小值(也是它的最小值),所以對于linear regression問題,gradient descent求的是cost function的最小值
      • Gradient Descent for Linear Regression:(是將h(x)=θ01x和J(θ0,θ1)代入求導求得)

        • cost function for linear regression由它的圖(上圖)可知,它沒有局部極小值,只有一個全局最小值。所以用gradient descent求出的是使cost function取最小值的θ01
      • "batch" gradient descent = gradient descent algorithm,因為在計算θ01時是利用了所有的trainning set,幫稱為batch

    轉載于:https://www.cnblogs.com/yan2015/p/4505618.html

    總結

    以上是生活随笔為你收集整理的machine learning (2)-linear regression with one variable的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。