日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

机器学习算法基础(基础机器学习课程)——第一天

發布時間:2025/3/21 编程问答 21 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器学习算法基础(基础机器学习课程)——第一天 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

01.機器學習簡介

演變過程

02.機器學習概述

什么是機器學習

機器學習是從數據中自動分析獲得規律(模型),并利用規律對未知數據進行預測

為什么需要機器學習

機器學習的應用場景

醫療、航空、教育、物流、電商......

03.數據集的組成

數據來源以及數據格式

可用數據集?

常用數據集數據的結構組成

結構:特征值+目標值

04.特征工程的定義

特征工程是什么

特征工程是將原始數據轉換為更好地代表預測模型的潛在問題的特征的過程,從而提高了對未知數據的模型準確性

Scikit-learn庫介紹

  • Python語言的機器學習工具
  • Scikit-learn包括許多知名的機器學習算法的實現
  • Scikit-learn文檔完善,容易上手,豐富的API,使其在學術界頗受歡迎。
  • 目前穩定版本0.18
  • 05.字典特征數據抽取

    sklearn特征抽取API

    sklearn.feature_extraction

    字典特征抽取

    作用:對字典數據進行特征值化類:sklearn.feature_extraction.DictVectorizer

    DictVectorizer.fit_transform(X) ? ? ?

  • X:字典或者包含字典的迭代器
  • 返回值:返回sparse矩陣
  • DictVectorizer.inverse_transform(X)

  • X:array數組或者sparse矩陣
  • 返回值:轉換之前數據格式
  • DictVectorizer.get_feature_names()

  • 返回類別名稱
  • DictVectorizer.transform(X)

  • 按照原先的標準轉換
  • one-hot編碼分析?

    ???

    06.文本特征抽取以及中文問題

    文本特征抽取

    作用:對文本數據進行特征值化類:sklearn.feature_extraction.text.CountVectorizer

    CountVectorizer語法

    • CountVectorizer(max_df=1.0,min_df=1,…)
    • 返回詞頻矩陣
    • CountVectorizer.fit_transform(X,y) ? ? ?
    • X:文本或者包含文本字符串的可迭代對象
    • 返回值:返回sparse矩陣
    • CountVectorizer.inverse_transform(X)
    • X:array數組或者sparse矩陣
    • 返回值:轉換之前數據格式
    • CountVectorizer.get_feature_names()
    • 返回值:單詞列表
    import matplotlib.pyplot as plt import pandas as pd import numpy as np import sklearn from sklearn import feature_extractioncv = sklearn.feature_extraction.text.CountVectorizer() data = cv.fit_transform(["life is short,i like python","life is too long,i dislike python"]) print(cv.get_feature_names()) print(data.toarray()) /Users/zhucan/PycharmProjects/pythonProject9/venv/bin/python /Users/zhucan/PycharmProjects/pythonProject9/main.py ['dislike', 'is', 'life', 'like', 'long', 'python', 'short', 'too'] [[0 1 1 1 0 1 1 0][1 1 1 0 1 1 0 1]]

    注意:

  • 單個字母不會被提取
  • 中文需要分詞后才能被提取
  • from sklearn import feature_extraction import jieba def cutword():con1 = jieba.cut("今天很殘酷,明天更殘酷,后天很美好,但絕對大部分是死在明天晚上,所以每個人不要放棄今天")con2 = jieba.cut("我們看到的從很遠星系來的光是在幾百萬年之前發出的,這樣當我們看到宇宙時,我們是在看它的過去。")con3 = jieba.cut("如果只用一種方式了解某樣事物,你就不會真正了解它。了解事物真正含義的秘密取決于如何將其與我們所了解的事物相聯系。") #轉換成列表content1 = list(con1)content2 = list(con2)content3 = list(con3) #把列表轉換成字符串c1 = ' '.join(content1)c2 = ' '.join(content2)c3 = ' '.join(content3)return c1,c2,c3def hanzivec():c1,c2,c3 = cutword()print(c1,c2,c3)cv = sklearn.feature_extraction.text.CountVectorizer()data = cv.fit_transform([c1,c2,c3])print(cv.get_feature_names())print(data.toarray())hanzivec() 今天 很 殘酷 , 明天 更 殘酷 , 后天 很 美好 , 但 絕對 大部分 是 死 在 明天 晚上 , 所以 每個 人 不要 放棄 今天 我們 看到 的 從 很 遠 星系 來 的 光是在 幾百萬年 之前 發出 的 , 這樣 當 我們 看到 宇宙 時 , 我們 是 在 看 它 的 過去 。 如果 只用 一種 方式 了解 某樣 事物 , 你 就 不會 真正 了解 它 。 了解 事物 真正 含義 的 秘密 取決于 如何 將 其 與 我們 所 了解 的 事物 相 聯系 。 ['一種', '不會', '不要', '之前', '了解', '事物', '今天', '光是在', '幾百萬年', '發出', '取決于', '只用', '后天', '含義', '大部分', '如何', '如果', '宇宙', '我們', '所以', '放棄', '方式', '明天', '星系', '晚上', '某樣', '殘酷', '每個', '看到', '真正', '秘密', '絕對', '美好', '聯系', '過去', '這樣'] [[0 0 1 0 0 0 2 0 0 0 0 0 1 0 1 0 0 0 0 1 1 0 2 0 1 0 2 1 0 0 0 1 1 0 0 0][0 0 0 1 0 0 0 1 1 1 0 0 0 0 0 0 0 1 3 0 0 0 0 1 0 0 0 0 2 0 0 0 0 0 1 1][1 1 0 0 4 3 0 0 0 0 1 1 0 1 0 1 1 0 1 0 0 1 0 0 0 1 0 0 0 2 1 0 0 1 0 0]]

    07.tf-df分析問題

    TF-IDF

    TF-IDF的主要思想是:如果某個詞或短語在一篇文章中出現的概率高, 并且在其他文章中很少出現,則認為此詞或者短語具有很好的類別區分能力,適合用來分類。

    TF-IDF作用:用以評估一字詞對于一個文件集或一個語料庫中的其中一份文件的重要程度。

    import sklearn from sklearn import feature_extraction import jieba def cutword():con1 = jieba.cut("今天很殘酷,明天更殘酷,后天很美好,但絕對大部分是死在明天晚上,所以每個人不要放棄今天")con2 = jieba.cut("我們看到的從很遠星系來的光是在幾百萬年之前發出的,這樣當我們看到宇宙時,我們是在看它的過去。")con3 = jieba.cut("如果只用一種方式了解某樣事物,你就不會真正了解它。了解事物真正含義的秘密取決于如何將其與我們所了解的事物相聯系。") #轉換成列表content1 = list(con1)content2 = list(con2)content3 = list(con3) #把列表轉換成字符串c1 = ' '.join(content1)c2 = ' '.join(content2)c3 = ' '.join(content3)return c1,c2,c3def tfidfvec():c1,c2,c3 = cutword()print(c1,c2,c3)tf = sklearn.feature_extraction.text.TfidfVectorizer()data = tf.fit_transform([c1,c2,c3])print(tf.get_feature_names())print(data.toarray())tfidfvec() 今天 很 殘酷 , 明天 更 殘酷 , 后天 很 美好 , 但 絕對 大部分 是 死 在 明天 晚上 , 所以 每個 人 不要 放棄 今天 我們 看到 的 從 很 遠 星系 來 的 光是在 幾百萬年 之前 發出 的 , 這樣 當 我們 看到 宇宙 時 , 我們 是 在 看 它 的 過去 。 如果 只用 一種 方式 了解 某樣 事物 , 你 就 不會 真正 了解 它 。 了解 事物 真正 含義 的 秘密 取決于 如何 將 其 與 我們 所 了解 的 事物 相 聯系 。 ['一種', '不會', '不要', '之前', '了解', '事物', '今天', '光是在', '幾百萬年', '發出', '取決于', '只用', '后天', '含義', '大部分', '如何', '如果', '宇宙', '我們', '所以', '放棄', '方式', '明天', '星系', '晚上', '某樣', '殘酷', '每個', '看到', '真正', '秘密', '絕對', '美好', '聯系', '過去', '這樣'] [[0. 0. 0.21821789 0. 0. 0.0.43643578 0. 0. 0. 0. 0.0.21821789 0. 0.21821789 0. 0. 0.0. 0.21821789 0.21821789 0. 0.43643578 0.0.21821789 0. 0.43643578 0.21821789 0. 0.0. 0.21821789 0.21821789 0. 0. 0. ][0. 0. 0. 0.2410822 0. 0.0. 0.2410822 0.2410822 0.2410822 0. 0.0. 0. 0. 0. 0. 0.24108220.55004769 0. 0. 0. 0. 0.24108220. 0. 0. 0. 0.48216441 0.0. 0. 0. 0. 0.2410822 0.2410822 ][0.15698297 0.15698297 0. 0. 0.62793188 0.470948910. 0. 0. 0. 0.15698297 0.156982970. 0.15698297 0. 0.15698297 0.15698297 0.0.1193896 0. 0. 0.15698297 0. 0.0. 0.15698297 0. 0. 0. 0.313965940.15698297 0. 0. 0.15698297 0. 0. ]]

    總結

    以上是生活随笔為你收集整理的机器学习算法基础(基础机器学习课程)——第一天的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。