日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

scikit-learn学习笔记(四)Ridge Regression ( 岭回归 )

發布時間:2024/1/23 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 scikit-learn学习笔记(四)Ridge Regression ( 岭回归 ) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

嶺回歸通過對系數的大小施加懲罰來解決 普通最小二乘 的一些問題。 ridge coefficients ( 嶺系數?)?最小化了懲罰的殘差平方和,

這里, ?是控制收縮量的復雜度參數: ?值越大,收縮量越大,因此系數變得對共線性變得更加魯棒。

與其他線性模型一樣,Ridge 將采用其擬合方法數組 X , y 并將其線性模型的系數 ?存儲在其 coef_ 成員中:

>>> from sklearn import linear_model >>> reg = linear_model.Ridge (alpha = .5) >>> reg.fit ([[0, 0], [0, 0], [1, 1]], [0, .1, 1]) Ridge(alpha=0.5, copy_X=True, fit_intercept=True, max_iter=None, ??????normalize=False, random_state=None, solver='auto', tol=0.001) >>> reg.coef_ array([ 0.34545455,? 0.34545455]) >>> reg.intercept_ 0.13636...

Ridge Complexity ( 嶺復雜性 )

這種方法與 Ordinary Least Squares ( 普通最小二乘方法?) 的復雜度相同。

例子1: ( 作為正則化的函數,繪制嶺系數 )

# -*- coding: utf-8 -*-
"""
Created on Sat Jul 29 21:27:04 2017

@author: Administrator
"""

import numpy as np
import matplotlib.pyplot as plt
from sklearn import linear_model

# X is the 10x10 Hilbert matrix
X = 1. / (np.arange(1, 11) + np.arange(0, 10)[:, np.newaxis])
y = np.ones(10)

n_alphas = 200
alphas = np.logspace(-10, -2, n_alphas)
clf = linear_model.Ridge(fit_intercept=False)

coefs = []
for a in alphas:
??? clf.set_params(alpha=a)
??? clf.fit(X, y)
??? coefs.append(clf.coef_)
ax = plt.gca()
ax.plot(alphas, coefs)
ax.set_xscale('log')
ax.set_xlim(ax.get_xlim()[::-1])? # reverse axis
plt.xlabel('alpha')
plt.ylabel('weights')
plt.title('Ridge coefficients as a function of the regularization')
plt.axis('tight')
plt.show()??

總結

以上是生活随笔為你收集整理的scikit-learn学习笔记(四)Ridge Regression ( 岭回归 )的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。