日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

七层神经网络 PK logstic 回归

發布時間:2025/4/5 编程问答 23 豆豆
生活随笔 收集整理的這篇文章主要介紹了 七层神经网络 PK logstic 回归 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

????

????logstic鏈接????在這 篇文章中,我們討論了logstic 回歸,但是logstic回歸的正確率太低了
在那個算例中,正確率只有66.2%

import pandas as pdinputfile1='horseColicTraining.xlsx' input1= pd.read_excel(inputfile1).valuesdata_train=input1 ''' data_max = data_train.max() data_min = data_train.min()# data_std = data_train.std() #data_train1 = (data_train-data_min)/(data_max-data_min) #數據標準化''' train_input=data_train[:,0:21] train_label=data_train[:,21:22]from keras.models import Sequential from keras.layers.core import Dense, Dropout, Activationmodel = Sequential() #建立模型 model.add(Dense(input_dim = 21, output_dim = 48)) #添加輸入層、隱藏層的連接 model.add(Activation('tanh')) #以Relu函數為激活函數model.add(Dense(input_dim = 48, output_dim = 48)) #添加隱藏層、隱藏層的連接 model.add(Activation('relu')) #以Relu函數為激活函數 model.add(Dropout(0.2))model.add(Dense(input_dim = 48, output_dim = 36)) #添加隱藏層、隱藏層的連接 model.add(Activation('relu')) #以Relu函數為激活函數 model.add(Dropout(0.2)) model.add(Dense(input_dim = 36, output_dim = 36)) #添加隱藏層、隱藏層的連接 model.add(Activation('relu')) #以Relu函數為激活函數model.add(Dense(input_dim = 36, output_dim = 12)) #添加隱藏層、隱藏層的連接 model.add(Activation('relu')) #以Relu函數為激活函數 model.add(Dense(input_dim = 36, output_dim = 36)) #添加隱藏層、隱藏層的連接 model.add(Activation('relu')) #以Relu函數為激活函數model.add(Dense(input_dim = 36, output_dim = 1)) #添加隱藏層、輸出層的連接 model.add(Activation('sigmoid')) #以sigmoid函數為激活函數 #編譯模型,損失函數為binary_crossentropy,用adam法求解 model.compile(loss='mean_squared_error', optimizer='adam') model.fit(train_input, train_label, nb_epoch = 1000, batch_size = 20) #訓練模型inputfile2='horseColicTest.xlsx' input2= pd.read_excel(inputfile1).valuesdata_test=input2 ''' test_max = data_test.max() test_min = data_test.min()# data_std = data_train.std() test_train = (data_test-test_min)/(test_max-test_min) #數據標準化''' test_input=data_test[:,0:21] test_label=data_test[:,21:22]r = pd.DataFrame(model.predict_classes(test_input))print('/n') print('I love tt and cc') from sklearn.metrics import accuracy_score print(accuracy_score(test_label, r)) 0.993288590604

????
????當我采用神經網絡時,正確率取得了驚人的提高
達到99.3%

????logstic 回歸 ,從本質上說,就是一個單層感知器,僅此而已。 一個輸入層 ,一個激活層的單層感知機。
????在本文中,我采用的是一個七層神經網絡,更深沉的大腦才能進行深度思考,單純的logstic 回歸 太淺薄了。

提取密碼 l1hr

github

總結

以上是生活随笔為你收集整理的七层神经网络 PK logstic 回归的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。