日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

线性回归与 logistic回归

發(fā)布時間:2023/12/10 编程问答 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 线性回归与 logistic回归 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

線性回歸

算法方程:hθ(x)=∑i=0nθixi=θTxh_{\theta}(x)=\sum_{i=0}^{n} \theta_{i} x_{i}=\theta^{T} xhθ?(x)=i=0n?θi?xi?=θTx

損失函數(shù):J(θ0,θ1,…,θn)=12m∑i=1m(hθ(x(i))?y(i))2J\left(\theta_{0}, \theta_{1}, \ldots, \theta_{n}\right)=\frac{1}{2 m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right)^{2}J(θ0?,θ1?,,θn?)=2m1?i=1m?(hθ?(x(i))?y(i))2
將損失函數(shù)看做是關(guān)于θ\thetaθ的函數(shù)。

最小化損失函數(shù):凸函數(shù)可以找到全局最優(yōu)解,算法梯度下降。
θ0:=θ0?α1m∑i=1m(hθ(x(i))?y(i))x0(i)θ1:=θ1?α1m∑i=1m(hθ(x(i))?y(i))x1(i)θ2:=θ2?α1m∑i=1m(hθ(x(i))?y(i))x2(i)…\begin{array}{l}{\theta_{0}:=\theta_{0}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) x_{0}^{(i)}} \\ {\theta_{1}:=\theta_{1}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) x_{1}^{(i)}} \\ {\theta_{2}:=\theta_{2}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) x_{2}^{(i)}} \\ {\ldots}\end{array}θ0?:=θ0??αm1?i=1m?(hθ?(x(i))?y(i))x0(i)?θ1?:=θ1??αm1?i=1m?(hθ?(x(i))?y(i))x1(i)?θ2?:=θ2??αm1?i=1m?(hθ?(x(i))?y(i))x2(i)??

學(xué)習(xí)率:θ1:=θ1?αddθ1J(θ1)\theta_{1}:=\theta_{1}-\alpha \fracozvdkddzhkzd{d \theta_{1}} J\left(\theta_{1}\right)θ1?:=θ1??αdθ1?d?J(θ1?)
與收斂速度相關(guān)

過擬合與欠擬合:我們的假設(shè)函數(shù)曲線對原始數(shù)據(jù)擬合得非常好,但喪失了一般推到性,以致于預(yù)測效果很差。
解決方法:正則化
作用:控制參數(shù)幅度;限制參數(shù)搜索空間
J(θ)=12m[∑i=1m(hθ(x(i))?y(i))2+λ∑j=1nθj2]J(\theta)=\frac{1}{2 m}\left[\sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right)^{2}+\lambda \sum_{j=1}^{n} \theta_{j}^{2}\right]J(θ)=2m1?[i=1m?(hθ?(x(i))?y(i))2+λj=1n?θj2?]
假設(shè)原始線程方式是hθ(x)=θ1x1+θ2x2+θ3x3+θ4x4h_{\theta}(x)=\theta_1x_1+\theta_2x_2+\theta_3x_3+\theta_4x_4hθ?(x)=θ1?x1?+θ2?x2?+θ3?x3?+θ4?x4?,在線訓(xùn)練過程中,根據(jù)訓(xùn)練集數(shù)據(jù)大小,每一個θ\thetaθ的都可能非常大,或者非常小,這條線抖動非常大。如果在損失函數(shù)中加入∑j=1nθj2\sum_{j=1}^{n} \theta_{j}^{2}j=1n?θj2?,因為損失函數(shù)要求最小值,所以每一個θ\thetaθ的值就不可能很大。
λ\lambdaλ是一個超參數(shù)。λ\lambdaλ太小,正則化項不起作用;λ\lambdaλ太大,學(xué)習(xí)到的參數(shù)主要由正則化項決定,與訓(xùn)練數(shù)據(jù)無關(guān),也是錯誤的。
通常使用L1、L2正則化。

logistic回歸

線性回歸在分類問題上使用,健壯性差,所以使用logistic回歸。
sigmoid函數(shù)值域在(0,1)之間,可以看做一個概率函數(shù)。
在線性回歸外面套一層sigmoid函數(shù)。

算法方程:hθ(x)=g(θ0+θ1x1+θ2x2)h_{\theta}(x)=g\left(\theta_{0}+\theta_{1} x_{1}+\theta_{2} x_{2}\right)hθ?(x)=g(θ0?+θ1?x1?+θ2?x2?)
hθ(x)=g(θ0+θ1x1+θ2x2+θ3x12+θ4x22)h_{\theta}(x)=g\left(\theta_{0}+\theta_{1} x_{1}+\theta_{2} x_{2}+\theta_{3} x_{1}^{2}+\theta_{4} x_{2}^{2}\right)hθ?(x)=g(θ0?+θ1?x1?+θ2?x2?+θ3?x12?+θ4?x22?)

損失函數(shù):cost?(hθ(x),y)={?log?(hθ(x))if?y=1?log?(1?hθ(x))if?y=0\operatorname{cost}\left(h_{\theta}(x), y\right)=\left\{\begin{aligned}-\log \left(h_{\theta}(x)\right) & \text { if } y=1 \\-\log \left(1-h_{\theta}(x)\right) & \text { if } y=0 \end{aligned}\right.cost(hθ?(x),y)={?log(hθ?(x))?log(1?hθ?(x))??if?y=1?if?y=0?

J(θ)=?1m[∑i=1my(i)log?hθ(x(i))+(1?y(i))log?(1?hθ(x(i)))]J(\theta)=-\frac{1}{m}\left[\sum_{i=1}^{m} y^{(i)} \log h_{\theta}\left(x^{(i)}\right)+\left(1-y^{(i)}\right) \log \left(1-h_{\theta}\left(x^{(i)}\right)\right)\right]J(θ)=?m1?[i=1m?y(i)loghθ?(x(i))+(1?y(i))log(1?hθ?(x(i)))]

梯度下降優(yōu)化公式:θj:=θj?α??θjJ(θ)\theta_{j}:=\theta_{j}-\alpha \frac{\partial}{\partial \theta_{j}} J(\theta)θj?:=θj??α?θj???J(θ)

加入正則化:J(θ)=[?1m∑i=1my(i)log?(hθ(x(i))+(1?y(i))log?1?hθ(x(i))]+λ2m∑j=1nθj2J(\theta)=\left[-\frac{1}{m} \sum_{i=1}^{m} y^{(i)} \log \left(h_{\theta}\left(x^{(i)}\right)+\left(1-y^{(i)}\right) \log 1-h_{\theta}\left(x^{(i)}\right)\right]+\frac{\lambda}{2 m} \sum_{j=1}^{n} \theta_{j}^{2}\right.J(θ)=[?m1?i=1m?y(i)log(hθ?(x(i))+(1?y(i))log1?hθ?(x(i))]+2mλ?j=1n?θj2?

總結(jié)

以上是生活随笔為你收集整理的线性回归与 logistic回归的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。