日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

【Tensorflow】小白入门实战基础篇(下)

發(fā)布時間:2024/7/5 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【Tensorflow】小白入门实战基础篇(下) 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
import tensorflow as tf import numpy as npsess = tf.Session()# 一、矩陣運(yùn)算# div返回的是商的向下取整 數(shù)據(jù)類型與輸入數(shù)據(jù)類型一致 print(sess.run(tf.div(3,4))) # truediv在除法前強(qiáng)制轉(zhuǎn)換整數(shù)為浮點數(shù) print(sess.run(tf.truediv(3,4))) # 對浮點數(shù)進(jìn)行整數(shù)除法,可以使用floordiv()函數(shù)。 # 注意,此函數(shù)也返回浮點數(shù)結(jié)果,但是其會向下舍去小數(shù)位到最近的整數(shù) print(sess.run(tf.floordiv(3.0,4.0))) # 另外一個重要的函數(shù)是mod()(取模)。此函數(shù)返回除法的余數(shù) print(sess.run(tf.mod(22.0,5.0))) # 通過cross()函數(shù)計算兩個張量間的點積。 # 記住,點積函數(shù)只為三維向量定義,所以cross()函數(shù)以兩個三維張量作為輸入 print(sess.run(tf.cross([1.,0.,0.],[0.,1.,0.])))# 二、實現(xiàn)激勵函數(shù) # 激勵函數(shù)是神經(jīng)網(wǎng)絡(luò)引入的非線性部分,并需要知道在什么位置使用激勵函數(shù)。 # ①如果激勵函數(shù)的取值范圍在0和1之間,比如sigmoid激勵函數(shù), # 那計算圖輸出結(jié)果也只能在0到1之間取值。 # ②如果激勵函數(shù)隱藏在節(jié)點之間, # 就要意識到激勵函數(shù)作用于傳入的張量的影響。 # ③如果張量要縮放為均值為0, # 就需要使用激勵函數(shù)使得盡可能多的變量在0附近。 # 這暗示我們選用(tanh)函數(shù)或者softsign函數(shù)。# 1. 整流線性單元ReLU=max(0,x)連續(xù)但不平滑 print(sess.run(tf.nn.relu([-3.,3.,10.]))) # [ 0. 3. 10.]# 2. ReLU6=min(max(0,x),6)用來抵消ReLU的線性增長的部分 # hard-sigmod函數(shù)的變種,運(yùn)行速度快,解決梯度消失 print(sess.run(tf.nn.relu6([-3.,3,10]))) # [0. 3. 6.]# 3. sigmod=1/1+(exp(-x))∈[-1,1]是最常用的連續(xù)平滑的激勵函數(shù)也被成為邏輯函數(shù) # 由于在機(jī)器學(xué)習(xí)訓(xùn)練過程中反向傳播項趨近于0,因此不怎么使用 print(sess.run(tf.nn.sigmoid([-1.,0.,1.]))) #[0.26894143 0.5 0.7310586 ]# 4. tanh=((exp(x)-exp(-x))/(exp(x)+exp(-x))雙曲正切函數(shù)∈[0,1]曲線類似于sigmoid print(sess.run(tf.nn.tanh([-1.,0.,1.])))# 5. softsign=x/(abs(x)+1) 是符號函數(shù)的連續(xù)估計(-1,1) print(sess.run(tf.nn.softsign([-1.,0.,-1.])))# 6. softplus激勵函數(shù)是ReLU激勵函數(shù)的平滑版(0,∞) # 表達(dá)式為:log(exp(x)+1) print(sess.run(tf.nn.softplus([-1.,0.,-1.]))) # 當(dāng)輸入增加時,softplus激勵函數(shù)趨近于∞,softsign函數(shù)趨近于1; # 當(dāng)輸入減小時,softplus激勵函數(shù)趨近于0,softsign函數(shù)趨近于-1。# 7. ELU激勵函數(shù)與softplus激勵函數(shù)相似 # 不同點在于:當(dāng)輸入無限小時,ELU激勵函數(shù)趨近于-1,而softplus激勵函數(shù)趨近于0 # 表達(dá)式為(exp(x)+1) if x<0 else x print(sess.run(tf.nn.elu([-1.,0.,-1.])))# 三、讀取數(shù)據(jù)源# 1.鳶尾花數(shù)據(jù)集 from sklearn import datasets iris = datasets.load_iris() # 鳶尾花數(shù)據(jù)集 print(len(iris.data)) # 150 特征 print(len(iris.target)) # 150 標(biāo)簽 print(iris.data[0]) # [5.1 3.5 1.4 0.2] print(set(iris.target)) # {0, 1, 2}# 2.出生體重數(shù)據(jù) birth_url = 'https://www.umass.edu/statdata/statdata/data/lowbwt.dat'# 3.波士頓房價 house_url='https://archive.ics.uci.edu/ml/machine-learning-databases/housing/housing.data' house_header = ['CRIM','ZN','INDUS','CHAS','NOX','RM','AGE','DIS','RAD','TAX','PTRATIO','B','LSTAT','MEDV0']# 4. MNIST手寫字體庫 要科學(xué)上網(wǎng)才能訪問 # from tensorflow.examples.tutorials.mnist import input_data # mnist = input_data.read_data_sets("MNIST_data/",one_hot=True) # print(len(mnist.test.images)) # print(len(mnist.train.images)) # print(len(mnist.validation.images)) # print(mnist.train.labels[1,:])# 5. 電影數(shù)據(jù)集 file_url ='http://www.cs.cornell.edu/people/pabo/movie-review-data/' # 6. 垃圾短信 message_url = 'https://archive.ics.uci.edu/ml/machine-learning-databases/00228/smsspamcollection.zip' # 7. 莎士比亞文本數(shù)據(jù)集 text_url = 'http://gutenberg.org/cache/epub/100/pg100.txt' # 8. 翻譯樣本集 sentence_url = 'http://www.manythings.org/anki/deu-eng.zip' 創(chuàng)作挑戰(zhàn)賽新人創(chuàng)作獎勵來咯,堅持創(chuàng)作打卡瓜分現(xiàn)金大獎

總結(jié)

以上是生活随笔為你收集整理的【Tensorflow】小白入门实战基础篇(下)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。