日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python scikit learn 封装_python的scikit-learn的主要模块和基本使用

發布時間:2024/9/15 python 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python scikit learn 封装_python的scikit-learn的主要模块和基本使用 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

在從事數據科學的人中,最常用的工具就是R和Python了,每個工具都有其利弊,但是Python在各方面都相對勝出一些,這是因為scikit-learn庫實現了很多機器學習算法。

加載數據(Data Loading)

我們假設輸入時一個特征矩陣或者csv文件。

首先,數據應該被載入內存中。

scikit-learn的實現使用了NumPy中的arrays,所以,我們要使用NumPy來載入csv文件。

以下是從UCI機器學習數據倉庫中下載的數據。

import numpy as np

import urllib

# url with dataset

url = "http://archive.ics.uci.edu/ml/machine-learning-databases/pima-indians-diabetes/pima-indians-diabetes.data"

# download the file

raw_data = urllib.urlopen(url)

# load the CSV file as a numpy matrix

dataset = np.loadtxt(raw_data, delimiter=",")

# separate the data from the target attributes

X = dataset[:,0:7]

y = dataset[:,8]

我們要使用該數據集作為例子,將特征矩陣作為X,目標變量作為y。

數據歸一化(Data Normalization)

大多數機器學習算法中的梯度方法對于數據的縮放和尺度都是很敏感的,在開始跑算法之前,我們應該進行歸一化或者標準化的過程,這使得特征數據縮放到0-1范圍中。scikit-learn提供了歸一化的方法:

from sklearn import preprocessing

# normalize the data attributes

normalized_X = preprocessing.normalize(X)

# standardize the data attributes

standardized_X = preprocessing.scale(X)

特征選擇(Feature Selection)

在解決一個實際問題的過程中,選擇合適的特征或者構建特征的能力特別重要。這成為特征選擇或者特征工程。

特征選擇時一個很需要創造力的過程,更多的依賴于直覺和專業知識,并且有很多現成的算法來進行特征的選擇。

下面的樹算法(Tree algorithms)計算特征的信息量:

from sklearn import metrics

from sklearn.ensemble import ExtraTreesClassifier

model = ExtraTreesClassifier()

model.fit(X, y)

# display the relative importance of each attribute

print(model.feature_importances_)

算法的使用

scikit-learn實現了機器學習的大部分基礎算法,讓我們快速了解一下。

邏輯回歸

大多數問題都可以歸結為二元分類問題。這個算法的優點是可以給出數據所在類別的概率。

from sklearn import metrics

from sklearn.linear_model import LogisticRegression

model = LogisticRegression()

model.fit(X, y)

print(model)

# make predictions

expected = y

predicted = model.predict(X)

# summarize the fit of the model

print(metrics.classification_report(expected, predicted))

print(metrics.confusion_matrix(expected, predicted))

結果:

LogisticRegression(C=1.0, class_weight=None, dual=False, fit_intercept=True,

intercept_scaling=1, penalty=l2, random_state=None, tol=0.0001)

precision recall f1-score support

0.0 0.79 0.89 0.84 500

1.0 0.74 0.55 0.63 268

avg / total 0.77 0.77 0.77 768

[[447 53]

[120 148]]

樸素貝葉斯

這也是著名的機器學習算法,該方法的任務是還原訓練樣本數據的分布密度,其在多類別分類中有很好的效果。

from sklearn import metrics

from sklearn.naive_bayes import GaussianNB

model = GaussianNB()

model.fit(X, y)

print(model)

# make predictions

expected = y

predicted = model.predict(X)

# summarize the fit of the model

print(metrics.classification_report(expected, predicted))

print(metrics.confusion_matrix(expected, predicted))

結果:

GaussianNB()

precision recall f1-score support

0.0 0.80 0.86 0.83 500

1.0 0.69 0.60 0.64 268

avg / total 0.76 0.77 0.76 768

[[429 71]

[108 160]]

k近鄰

k近鄰算法常常被用作是分類算法一部分,比如可以用它來評估特征,在特征選擇上我們可以用到它。

from sklearn import metrics

from sklearn.neighbors import KNeighborsClassifier

# fit a k-nearest neighbor model to the data

model = KNeighborsClassifier()

model.fit(X, y)

print(model)

# make predictions

expected = y

predicted = model.predict(X)

# summarize the fit of the model

print(metrics.classification_report(expected, predicted))

print(metrics.confusion_matrix(expected, predicted))

結果:

KNeighborsClassifier(algorithm=auto, leaf_size=30, metric=minkowski,

n_neighbors=5, p=2, weights=uniform)

precision recall f1-score support

0.0 0.82 0.90 0.86 500

1.0 0.77 0.63 0.69 268

avg / total 0.80 0.80 0.80 768

[[448 52]

[ 98 170]]

決策樹

分類與回歸樹(Classification and Regression Trees ,CART)算法常用于特征含有類別信息的分類或者回歸問題,這種方法非常適用于多分類情況。

from sklearn import metrics

from sklearn.tree import DecisionTreeClassifier

# fit a CART model to the data

model = DecisionTreeClassifier()

model.fit(X, y)

print(model)

# make predictions

expected = y

predicted = model.predict(X)

# summarize the fit of the model

print(metrics.classification_report(expected, predicted))

print(metrics.confusion_matrix(expected, predicted))

結果:

DecisionTreeClassifier(compute_importances=None, criterion=gini,

max_depth=None, max_features=None, min_density=None,

min_samples_leaf=1, min_samples_split=2, random_state=None,

splitter=best)

precision recall f1-score support

0.0 1.00 1.00 1.00 500

1.0 1.00 1.00 1.00 268

avg / total 1.00 1.00 1.00 768

[[500 0]

[ 0 268]]

支持向量機

SVM是非常流行的機器學習算法,主要用于分類問題,如同邏輯回歸問題,它可以使用一對多的方法進行多類別的分類。

from sklearn import metrics

from sklearn.svm import SVC

# fit a SVM model to the data

model = SVC()

model.fit(X, y)

print(model)

# make predictions

expected = y

predicted = model.predict(X)

# summarize the fit of the model

print(metrics.classification_report(expected, predicted))

print(metrics.confusion_matrix(expected, predicted))

結果:

SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0, degree=3, gamma=0.0,

kernel=rbf, max_iter=-1, probability=False, random_state=None,

shrinking=True, tol=0.001, verbose=False)

precision recall f1-score support

0.0 1.00 1.00 1.00 500

1.0 1.00 1.00 1.00 268

avg / total 1.00 1.00 1.00 768

[[500 0]

[ 0 268]]

除了分類和回歸算法外,scikit-learn提供了更加復雜的算法,比如聚類算法,還實現了算法組合的技術,如Bagging和Boosting算法。

如何優化算法參數

一項更加困難的任務是構建一個有效的方法用于選擇正確的參數,我們需要用搜索的方法來確定參數。scikit-learn提供了實現這一目標的函數。

下面的例子是一個進行正則參數選擇的程序:

import numpy as np

from sklearn.linear_model import Ridge

from sklearn.grid_search import GridSearchCV

# prepare a range of alpha values to test

alphas = np.array([1,0.1,0.01,0.001,0.0001,0])

# create and fit a ridge regression model, testing each alpha

model = Ridge()

grid = GridSearchCV(estimator=model, param_grid=dict(alpha=alphas))

grid.fit(X, y)

print(grid)

# summarize the results of the grid search

print(grid.best_score_)

print(grid.best_estimator_.alpha)

結果:

GridSearchCV(cv=None,

estimator=Ridge(alpha=1.0, copy_X=True, fit_intercept=True, max_iter=None,

normalize=False, solver=auto, tol=0.001),

estimator__alpha=1.0, estimator__copy_X=True,

estimator__fit_intercept=True, estimator__max_iter=None,

estimator__normalize=False, estimator__solver=auto,

estimator__tol=0.001, fit_params={}, iid=True, loss_func=None,

n_jobs=1,

param_grid={'alpha': array([ 1.00000e+00, 1.00000e-01, 1.00000e-02, 1.00000e-03,

1.00000e-04, 0.00000e+00])},

pre_dispatch=2*n_jobs, refit=True, score_func=None, scoring=None,

verbose=0)

0.282118955686

1.0

有時隨機從給定區間中選擇參數是很有效的方法,然后根據這些參數來評估算法的效果進而選擇最佳的那個。

import numpy as np

from scipy.stats import uniform as sp_rand

from sklearn.linear_model import Ridge

from sklearn.grid_search import RandomizedSearchCV

# prepare a uniform distribution to sample for the alpha parameter

param_grid = {'alpha': sp_rand()}

# create and fit a ridge regression model, testing random alpha values

model = Ridge()

rsearch = RandomizedSearchCV(estimator=model, param_distributions=param_grid, n_iter=100)

rsearch.fit(X, y)

print(rsearch)

# summarize the results of the random parameter search

print(rsearch.best_score_)

print(rsearch.best_estimator_.alpha)

結果:

RandomizedSearchCV(cv=None,

estimator=Ridge(alpha=1.0, copy_X=True, fit_intercept=True, max_iter=None,

normalize=False, solver=auto, tol=0.001),

estimator__alpha=1.0, estimator__copy_X=True,

estimator__fit_intercept=True, estimator__max_iter=None,

estimator__normalize=False, estimator__solver=auto,

estimator__tol=0.001, fit_params={}, iid=True, n_iter=100,

n_jobs=1,

param_distributions={'alpha': },

pre_dispatch=2*n_jobs, random_state=None, refit=True,

scoring=None, verbose=0)

0.282118643885

0.988443794636

小結

我們總體了解了使用scikit-learn庫的大致流程,希望這些總結能讓初學者沉下心來,一步一步盡快的學習如何去解決具體的機器學習問題。

總結

以上是生活随笔為你收集整理的python scikit learn 封装_python的scikit-learn的主要模块和基本使用的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。