日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

TensorFlow7-多元线性回归模型

發布時間:2025/3/15 编程问答 15 豆豆
生活随笔 收集整理的這篇文章主要介紹了 TensorFlow7-多元线性回归模型 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

?

?

運行結果:錯誤

?

# 不確定多少行為None。列為12列。即12個數據特征 x=tf.placeholder(tf.float32,[None,12],name="X") # 12個特征數據y=tf.placeholder(tf.float32,[None,1],name="Y") # 1個標簽數據### 創建變量 定義模型結構# 定義了一個命令空間 with tf.name_scope("Model"):# w 初始化值為shape=(12,1)的隨機數w=tf.Variable(tf.random_normal([12,1],stddev=0.01),name="W") # 列向量 標準差為0。01# b 初始值為1.0b=tf.Variable(1.0,name="b")# w和x是矩陣叉乘,用matmul def model(x,w,b):return tf.matmul(x,w)+b# 預測計算操作,前向計算節點pred=model(x,w,b)### 訓練模型# 迭代次數 train_epochs=50 # 學習率 learning_rate=0.01### 定義均方差損失函數with tf.name_scope("LossFunction"):loss_function=tf.reduce_mean(tf.pow(y-pred,2)) #均方誤差### 創建優化器optimizer=tf.train.GradientDescentOptimizer(learning_rate).minimize(loss_function)### 模型訓練# 創建會話 sess=tf.Session() init=tf.global_variables_initializer() # 啟動會話 sess.run(init)# 迭代結果 for epoch in range(train_epochs):loss_sum=0for xs,ys in zip(x_data,y_data):xs=xs.reshape(1,12)ys=ys.reshape(1,1)_,loss=sess.run([optimizer,loss_function],feed_dict={x:xs,y:ys})loss_sum=loss_sum+loss# 打亂數據順序xvalues,yvalues=shuffle(x_data,y_data)b0temp=b.eval(session=sess)w0temp=w.eval(session=sess)loss_average=loss_sum/len(y_data)print("epoch:",epoch+1,"loss=",loss_average,"b=",b0temp,"w=",w0temp)

運行結果:成功

### 特征數據歸一化 # 對特征數據【0到11】做(0-1)歸一化 for i in range(12):df[:,i]=df[:,i]/(df[:,i].max()-df[:,i].min())x_data=df[:,:12] y_data=df[:,12]print(x_data,'\n shape=',x_data.shape)# 不確定多少行為None。列為12列。即12個數據特征 x=tf.placeholder(tf.float32,[None,12],name="X") # 12個特征數據y=tf.placeholder(tf.float32,[None,1],name="Y") # 1個標簽數據### 創建變量 定義模型結構# 定義了一個命令空間 with tf.name_scope("Model"):# w 初始化值為shape=(12,1)的隨機數w=tf.Variable(tf.random_normal([12,1],stddev=0.01),name="W") # 列向量 標準差為0。01# b 初始值為1.0b=tf.Variable(1.0,name="b")# w和x是矩陣叉乘,用matmul def model(x,w,b):return tf.matmul(x,w)+b# 預測計算操作,前向計算節點pred=model(x,w,b)### 訓練模型# 迭代次數 train_epochs=100 # 學習率 learning_rate=0.01### 定義均方差損失函數with tf.name_scope("LossFunction"):loss_function=tf.reduce_mean(tf.pow(y-pred,2)) #均方誤差### 創建優化器optimizer=tf.train.GradientDescentOptimizer(learning_rate).minimize(loss_function)### 模型訓練# 創建會話 sess=tf.Session() init=tf.global_variables_initializer() # 啟動會話 sess.run(init) loss_list=[] # 迭代結果 for epoch in range(train_epochs):loss_sum=0for xs,ys in zip(x_data,y_data):xs=xs.reshape(1,12)ys=ys.reshape(1,1)_,loss=sess.run([optimizer,loss_function],feed_dict={x:xs,y:ys})loss_sum=loss_sum+lossloss_list.append(loss)# 打亂數據順序xvalues,yvalues=shuffle(x_data,y_data)b0temp=b.eval(session=sess)w0temp=w.eval(session=sess)loss_average=loss_sum/len(y_data)print("epoch:",epoch+1,"loss=",loss_average,"b=",b0temp,"w=",w0temp)

### 特征數據歸一化 # 對特征數據【0到11】做(0-1)歸一化 for i in range(12):df[:,i]=df[:,i]/(df[:,i].max()-df[:,i].min())x_data=df[:,:12] y_data=df[:,12]print(x_data,'\n shape=',x_data.shape)# 不確定多少行為None。列為12列。即12個數據特征 x=tf.placeholder(tf.float32,[None,12],name="X") # 12個特征數據y=tf.placeholder(tf.float32,[None,1],name="Y") # 1個標簽數據### 創建變量 定義模型結構# 定義了一個命令空間 with tf.name_scope("Model"):# w 初始化值為shape=(12,1)的隨機數w=tf.Variable(tf.random_normal([12,1],stddev=0.01),name="W") # 列向量 標準差為0。01# b 初始值為1.0b=tf.Variable(1.0,name="b")# w和x是矩陣叉乘,用matmul def model(x,w,b):return tf.matmul(x,w)+b# 預測計算操作,前向計算節點pred=model(x,w,b)### 訓練模型# 迭代次數 train_epochs=100 # 學習率 learning_rate=0.01### 定義均方差損失函數with tf.name_scope("LossFunction"):loss_function=tf.reduce_mean(tf.pow(y-pred,2)) #均方誤差### 創建優化器optimizer=tf.train.GradientDescentOptimizer(learning_rate).minimize(loss_function)### 模型訓練# 創建會話 sess=tf.Session() init=tf.global_variables_initializer()#設置日志存儲日志 logdir='D:/tensorflowLog' # 創建一個操作 用于記錄損失值loss 后面在TensorBoard中SCALARS欄可見 sum_loss_op=tf.summary.scalar("loss",loss_function) #把所有需要記錄摘要日志文件的合并 方便一次性寫入 merged=tf.summary.merge_all()# 啟動會話 sess.run(init)#創建摘要writer 將計算圖寫入摘要文件。后面在TensorFlow中GRAPH可見 writer =tf.summary.FileWriter(logdir,sess.graph)loss_list=[] # 迭代結果 for epoch in range(train_epochs):loss_sum=0for xs,ys in zip(x_data,y_data):xs=xs.reshape(1,12)ys=ys.reshape(1,1)_,summary_str,loss=sess.run([optimizer,sum_loss_op,loss_function],feed_dict={x:xs,y:ys})writer.add_summary(summary_str,epoch)loss_sum=loss_sum+lossloss_list.append(loss)# 打亂數據順序xvalues,yvalues=shuffle(x_data,y_data)b0temp=b.eval(session=sess)w0temp=w.eval(session=sess)loss_average=loss_sum/len(y_data)print("epoch:",epoch+1,"loss=",loss_average,"b=",b0temp,"w=",w0temp)

總結

以上是生活随笔為你收集整理的TensorFlow7-多元线性回归模型的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。