DL之NN/Average_Darkness/SVM:手写数字图片识别(本地数据集50000训练集+数据集加4倍)比较3种算法Average_Darkness、SVM、NN各自的准确率
DL之NN/Average_Darkness/SVM:手寫(xiě)數(shù)字圖片識(shí)別(本地?cái)?shù)據(jù)集50000訓(xùn)練集+數(shù)據(jù)集加4倍)比較3種算法Average_Darkness、SVM、NN各自的準(zhǔn)確率
?
?
目錄
?數(shù)據(jù)集下載以及展示
代碼實(shí)現(xiàn)
設(shè)計(jì)思路及代碼
1、圖片灰度平均值識(shí)別分類(lèi)
2、SVM算法
3、神經(jīng)網(wǎng)絡(luò)
4、總結(jié)
?
?數(shù)據(jù)集下載以及展示
?
? ? ? 在上圖中右側(cè)顯示了一張數(shù)字1的圖片,而右側(cè)顯示了這個(gè)圖片所對(duì)應(yīng)的像素矩陣,MNIST數(shù)據(jù)集提供了4個(gè)下載文件。
? ? ? 對(duì)手寫(xiě)數(shù)據(jù)集50000張圖片實(shí)現(xiàn)阿拉伯?dāng)?shù)字0~9識(shí)別,并且對(duì)結(jié)果進(jìn)行分析準(zhǔn)確率。從這個(gè)頁(yè)面獲得的手寫(xiě)數(shù)字的MNIST數(shù)據(jù)庫(kù)具有60000個(gè)示例,包括50000張圖片訓(xùn)練集和10000張圖片測(cè)試集。它是從NIST獲得的更大集合的子集。數(shù)字已被規(guī)格化,并以固定大小的圖像為中心。
? ? ?手寫(xiě)數(shù)字識(shí)別也是比較常見(jiàn)的例子了,這個(gè)數(shù)據(jù)集包含有60000張用于訓(xùn)練的手寫(xiě)數(shù)字的圖片,10000張用于測(cè)試的圖片,所有圖片的尺寸都已經(jīng)被標(biāo)準(zhǔn)化了,并且,尺寸為2828.每個(gè)像素值0~1區(qū)間內(nèi)的值,其中0代表白色,1代表黑色,區(qū)間內(nèi)的值表示灰色。為了簡(jiǎn)化,每張圖片已經(jīng)被轉(zhuǎn)換成一個(gè) 1728的一維數(shù)組,表示784個(gè)特征(28'28)。?
手寫(xiě)數(shù)字?jǐn)?shù)據(jù)集下載:http://yann.lecun.com/exdb/mnist/
代碼實(shí)現(xiàn)
#查看手寫(xiě)數(shù)字圖片數(shù)據(jù)集的大小等參數(shù) import mnist_loader import networktraining_data, validation_data, test_data = mnist_loader.load_data_wrapper() #調(diào)用mnist_loader文件的load_data_wrapper函數(shù),加載data/mnist.pkl.gz數(shù)據(jù)集 print("training_data") print(type(training_data)) print(list(training_data)) #list print(len(training_data)) #長(zhǎng)度 print(training_data[0][0].shape) #x的維度784 print(training_data[0][1].shape) #y的維度10?
設(shè)計(jì)思路及代碼
1、圖片灰度平均值識(shí)別分類(lèi)
首先,利用圖片本身的屬性,圖片的灰度平均值進(jìn)行識(shí)別分類(lèi),我運(yùn)行出來(lái)的準(zhǔn)確率是22%左右
利用圖片的灰度平均值來(lái)進(jìn)行分類(lèi)實(shí)現(xiàn)手寫(xiě)圖片識(shí)別(數(shù)據(jù)集50000張圖片)——Jason niu
?
2、SVM算法
其次,利用SVM算法,我運(yùn)行出來(lái)的準(zhǔn)確率是93%左右,具體代碼請(qǐng)點(diǎn)擊
SVM:利用SVM算法實(shí)現(xiàn)手寫(xiě)圖片識(shí)別(數(shù)據(jù)集50000張圖片)—Jason niu?
?
3、神經(jīng)網(wǎng)絡(luò)
最后,利用深度學(xué)習(xí)之神經(jīng)網(wǎng)絡(luò),我運(yùn)行出來(lái)的準(zhǔn)確率是94%左右,具體代碼請(qǐng)點(diǎn)擊
NN:利用深度學(xué)習(xí)之神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別(數(shù)據(jù)集50000張圖片)—Jason niu
1、神經(jīng)網(wǎng)絡(luò)進(jìn)行手寫(xiě)數(shù)字圖片識(shí)別原理
損失函數(shù)
?
?
?
?
4、總結(jié)
最后,我們發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)和SVM的算法學(xué)習(xí)質(zhì)量非常高,而傳統(tǒng)的灰度平均值算法則差強(qiáng)人意!
相關(guān)文章
DL之NN:利用調(diào)用自定義神經(jīng)網(wǎng)絡(luò)network.py文件(調(diào)用mnist_loader.py文件的load_data_wrapper函數(shù),加載mnist.pkl.gz數(shù)據(jù)集)實(shí)現(xiàn)手寫(xiě)圖片識(shí)別,準(zhǔn)確率94%
Average_Darkness/SVM:手寫(xiě)數(shù)字識(shí)別(數(shù)據(jù)集50000張圖片訓(xùn)練集)比較Average_Darkness、SVM各自的準(zhǔn)確率
?
?
總結(jié)
以上是生活随笔為你收集整理的DL之NN/Average_Darkness/SVM:手写数字图片识别(本地数据集50000训练集+数据集加4倍)比较3种算法Average_Darkness、SVM、NN各自的准确率的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 成功解决AttributeError:
- 下一篇: DL之NN:NN算法(本地数据集5000