日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Scikit-Learn 机器学习笔记 -- SVM

發布時間:2025/3/12 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Scikit-Learn 机器学习笔记 -- SVM 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Scikit-Learn 機器學習筆記 – SVM


參考文檔: handson-ml


import numpy as np# 加載鳶尾花數據集 def load_dataset():from sklearn import datasetsiris = datasets.load_iris()# print(iris)# 使用第3和第4個特征X = iris['data'][:, (2, 3)]# bool類型轉為數值型y = (iris['target'] == 2).astype(np.float64)return X, y# 線性SVM二分類器 def linear_svm_classify(X, y):from sklearn.preprocessing import StandardScalerfrom sklearn.svm import LinearSVC# 特征縮放scale = StandardScaler()X_scaled = scale.fit_transform(X.astype(np.float64))# C是損失函數項的系數,稱為懲罰系數svm_clf = LinearSVC(C=1, loss='hinge')svm_clf.fit(X_scaled, y)# 預測predict = svm_clf.predict([[5.5, 1.7]])print('線性SVM二分類器預測為:', predict)# 非線性SVM二分類器、 def nonlinear_svm_classify(X, y):from sklearn.preprocessing import PolynomialFeatures, StandardScalerfrom sklearn.svm import LinearSVC# 增加多項式特征poly_features = PolynomialFeatures(degree=3)X_poly = poly_features.fit_transform(X.astype(np.float64))# 特征縮放scale = StandardScaler()X_scaled = scale.fit_transform(X_poly)# 需要指定損失函數poly_svm_clf = LinearSVC(C=10, loss='hinge')poly_svm_clf.fit(X_scaled, y)# 預測,先把樣本特征向量轉為包含多項式特征得向量sample_poly = poly_features.fit_transform([[5.5, 1.7]])predict = poly_svm_clf.predict(sample_poly)print('非線性SVM二分類器預測為:', predict)# 多項式核SVM二分類器 def kernel_poly_svm_classify(X, y):from sklearn.preprocessing import StandardScalerfrom sklearn.svm import SVC# 特征縮放scale = StandardScaler()X_scaled = scale.fit_transform(X)# 使用多項式核,kernel_poly_svm_clf = SVC(kernel="poly", degree=3, coef0=1, C=5)kernel_poly_svm_clf.fit(X_scaled, y)# 預測,特征向量不用轉換predict = kernel_poly_svm_clf.predict([[5.5, 1.7]])print('核SVM二分類器預測為:', predict)# 高斯RBF核SVM二分類器 def kernel_rbf_svm_classify(X, y):from sklearn.preprocessing import StandardScalerfrom sklearn.svm import SVC# 特征縮放scale = StandardScaler()X_scaled = scale.fit_transform(X)# 增大gamma和減小C都會加大擬合kernel_rbf_svm_clf = SVC(kernel="rbf", gamma=5, C=1)kernel_rbf_svm_clf.fit(X_scaled, y)# 預測,特征向量不用縮放predict = kernel_rbf_svm_clf.predict([[5.5, 1.7]])print('高斯RBF核SVM二分類器預測為:', predict)if __name__ == '__main__':# 加載數據集X, y = load_dataset()# 線性SVM二分類器# linear_svm_classify(X, y)# 非線性SVM二分類器# nonlinear_svm_classify(X, y)# 多項式核SVM二分類器kernel_poly_svm_classify(X, y)# 高斯rbf核SVM二分類器kernel_rbf_svm_classify(X, y)
與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的Scikit-Learn 机器学习笔记 -- SVM的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。