【深度学习】Coursera的TensorFlow课程练习题精华部分
大家好,這次給大家翻譯的是來自 Coursera,由 deeplearning.ai 提供的 TensorFlow in Practice 的課程系列的QUIZ部分
本文來源:www.kesci.com
該系列課程共分為4個專項
一、人工智能、機器學(xué)習(xí)和深度學(xué)習(xí)的TensorFlow簡介
二、TensorFlow中的卷積神經(jīng)網(wǎng)絡(luò)
三、TensorFlow中的自然語言處理
四、序列、時間序列與預(yù)測
原教程鏈接在此:TensorFlow in Practice 專項課程
教大家在機器學(xué)習(xí)的不同方向如何應(yīng)用TensorFlow。課程前7天是免費的,之后按月收費,所以如果我學(xué)得夠快,月費就追不上我嘿嘿嘿。
話說回這次翻譯的QUIZ部分,個人感覺偏基礎(chǔ),問了很多函數(shù)調(diào)用的細節(jié),夾雜一些很迷的問題比如“Fashion MNIST數(shù)據(jù)集中有多少張圖片?”。但總體而言適合新手上路查漏補缺。
由于這次題目數(shù)量比較多,知乎版本進行了刪減。主要刪去了一些蜜汁問題,以及隨機選中的一些幸運兒,完整版請移步和鯨社區(qū)(閱讀原文)
114題精選
第 4 題
什么是Dense?
A.質(zhì)量除以體積
B.單個神經(jīng)元
C.一層連接的神經(jīng)元
D.一層不連接的神經(jīng)元
第 5 題
Loss函數(shù)是用來做什么的?
A.生成預(yù)測結(jié)果
B.決定是否停止神經(jīng)網(wǎng)絡(luò)的訓(xùn)練
C.評價現(xiàn)有的預(yù)測
D.評判你猜對沒
第 6 題
優(yōu)化器是用來做什么的
A.生成更新的優(yōu)化的預(yù)測
B.決定是否停止神經(jīng)網(wǎng)絡(luò)的訓(xùn)練
C.評價現(xiàn)有的預(yù)測
D.找出如何有效地編譯代碼
第 7 題
什么是Convergence?
A.下一部《星球大戰(zhàn)》電影中的壞蛋
B.損失急劇增加
C.接近正確答案的過程
D.AI的編程API
第 8 題
model.fit是用來做什么的?
A.它訓(xùn)練神經(jīng)網(wǎng)絡(luò)將一組值轉(zhuǎn)換為另一組
B.它使模型可以記憶
C.優(yōu)化一個已經(jīng)存在的模型
D.它確定您的運動是否對身體有益
上5題答案
4.C 5.C 6.A 7.C 8.A
第 17 題
什么是卷積?
A.縮小圖像的技術(shù)
B.放大圖像的技術(shù)
C.隔離圖像特征的技術(shù)
D.過濾掉不需要的圖像的技術(shù)、
第 18 題
什么是池化?
A.隔離圖像特征的技術(shù)
B.一種在保持特征的同時減少圖像信息的技術(shù)
C.一種使圖像更清晰的技術(shù)
D.組合圖片的技術(shù)
第 19 題
卷積如何改善圖像識別?
A.它們使圖像變小
B.它們使圖像處理更快
C.它們使圖像更清晰
D.它們隔離圖像中的特征
第 20 題
在28x28的圖像上使用3x3的過濾器后,輸出將是多少?
A.31x31
B.25x25
C.28x28
D.26x26
第 22 題
在神經(jīng)網(wǎng)絡(luò)一開始應(yīng)用卷積層將使訓(xùn)練:
A.更快
B.這取決于許多因素。它可能會使您的訓(xùn)練更快或更慢,并且設(shè)計不良的卷積層可能甚至比普通的DNN還低效!
C.更慢
D.持平
上5題答案
17.C 18.B 19.D 20.D 22.B
第 26 題
當我們將input_shape指定為(300,300,3)時,這意味著什么?
A.將有300匹馬和300名人類,分3批
B.將有300張圖片,每個尺寸300,分3批
C.每個圖像將為300x300像素,有3個通道
D.每個圖像將為300x300像素,并且應(yīng)該有3個卷積層
第 29 題
縮小圖像尺寸后,訓(xùn)練結(jié)果有所不同。為什么?
A.圖片的信息變少了
B.我們刪除了一些卷積以處理較小的圖像
C.圖像中壓縮了更多信息
D.訓(xùn)練更快
第 33 題
如果我想查看訓(xùn)練的歷史記錄,該如何訪問?
A.創(chuàng)建一個變量“history”,并將其分配給model.t或model.t_generator的返回值
B.將參數(shù)“ history = true”傳遞給model.t
C.下載模型并檢查
D.使用model.t_generator
第 35 題
當檢查數(shù)據(jù)時,損失在2個周期后穩(wěn)定在大約0.75,但在15個周期后精度上升到接近1.0。這代表了什么?
A.2周期后的訓(xùn)練是沒有意義的,因為我們過擬合了驗證數(shù)據(jù)
B.2周期后的訓(xùn)練是沒有意義的,因為我們過擬合了訓(xùn)練數(shù)據(jù)
C.更大的訓(xùn)練集將使我們具有更好的驗證準確性
D.更大的驗證集將使我們具有更好的訓(xùn)練準確性
第 37 題
為什么在較小的數(shù)據(jù)集上更容易出現(xiàn)過擬合現(xiàn)象?
A.因為在較小的數(shù)據(jù)集中,您的驗證數(shù)據(jù)更有可能和訓(xùn)練數(shù)據(jù)類似
B.因為沒有足夠的數(shù)據(jù)來激活所有卷積或神經(jīng)元
C.因為使用較少的數(shù)據(jù),訓(xùn)練會更快地進行,并且某些功能可能會丟失
D.因為在訓(xùn)練過程中遇到所有可能特征的可能性較小
上5題答案
26.C 29.A 33.A B 35 37.D
第 39 題
如果我的訓(xùn)練數(shù)據(jù)中只有面朝左的人,但我想對面朝右的人進行分類,我該如何避免過擬合?
A.在Y軸上使用“ ip_vertical”參數(shù)
B.使用“ horizontal_ip”參數(shù)
C.使用“ ip”參數(shù)
D.使用“ ip”參數(shù)并設(shè)置“水平”
第 40 題
使用增強訓(xùn)練時,您注意到訓(xùn)練會慢一些。為什么?
A.因為有更多數(shù)據(jù)需要訓(xùn)練
B.因為擴充后的數(shù)據(jù)更大
C.因為圖像處理需要周期
D.因為訓(xùn)練會犯更多錯誤
第 42 題
將Image Augmentation與ImageDataGenerator一起使用時,磁盤上的原始圖像數(shù)據(jù)會發(fā)生什么情況?
A.它會被覆蓋,因此請務(wù)必進行備份
B.制作副本并對該副本進行擴充
C.沒什么,所有擴充都在內(nèi)存中完成
D.它被刪除
第 43 題
圖像增強如何幫助解決過擬合?
A.它減慢了訓(xùn)練過程
B.它操縱訓(xùn)練集,為圖像中的特征生成更多場景
C.它操縱驗證集為圖像中的特征生成更多場景
D.通過圖像處理技術(shù)找到特征,自動將特征擬合到圖像
第 45 題
使用“圖像增強”有效地模擬具有較大數(shù)據(jù)集的訓(xùn)練
A.不對
B.對
上5題答案
39.B 40.C 42.C 43.B 45.B
第 47 題
為什么遷移學(xué)習(xí)有用?
A.因為我可以使用原始訓(xùn)練集中的所有數(shù)據(jù)
B.因為我可以使用原始驗證集中的所有數(shù)據(jù)
C.因為我可以使用從大型數(shù)據(jù)集中學(xué)習(xí)到的,我可能無法獲得的特征
D.因為我可以使用可能無法訪問的大型數(shù)據(jù)集中的驗證數(shù)據(jù)
第 49 題
使用遷移學(xué)習(xí)時,如何更改模型可以分類的數(shù)量?(即處理的原始模型可以處理1000個分類,但您只處理2個分類)
A.忽略所有高于您的類別(即,2之后的類都算2)
B.使用所有類,但將其權(quán)重設(shè)置為0
C.當您在網(wǎng)絡(luò)底部添加DNN時,用您所擁有的類數(shù)來指定輸出層
D.使用dropout消除不必要的類
第 50 題
您可以在遷移學(xué)習(xí)模型中使用圖像增強嗎?
A.否,因為您正在使用預(yù)設(shè)功能
B.是的,因為您要在網(wǎng)絡(luò)底部添加新層,并且能在訓(xùn)練這些層的時候使用圖像增強
第 51 題
為何dropout有助于避免過擬合?
A.因為鄰居神經(jīng)元的權(quán)重可能相似,因此可能會影響最終訓(xùn)練的準確性
B.減少神經(jīng)元可加快訓(xùn)練速度
第 52 題
dropout設(shè)置過高會有什么現(xiàn)象?
A.網(wǎng)絡(luò)將失去專業(yè)性,從而導(dǎo)致學(xué)習(xí)效率低下或效率低下,從而降低準確性
B.訓(xùn)練時間將增加,這是因為dropout高需要額外的計算
上5題答案
47.C 49.C 50.B 51.A 52.A
第 59 題
如果您沒有在詞匯表中使用token,那么編碼時會發(fā)生什么?
A.該單詞未編碼,序列化結(jié)束
B.這個詞被最常見的token代替
C.這個單詞沒有經(jīng)過編碼,因此會被跳過
D.該單詞未編碼,序列中被替換為0
第 60 題
如果您有許多不同長度的序列,當將它們輸入到神經(jīng)網(wǎng)絡(luò)時,如何確保它們被理解?
A.使用token生成器的pad_sequences方法確保它們的長度都相同
B.使用tensorflow.keras.preprocessing.sequence命名空間中的pad_sequences對象
C.指定神經(jīng)網(wǎng)絡(luò)的輸入層以期望dynamic_length有不同大小
D.使用pad_sequences屬性在神經(jīng)網(wǎng)絡(luò)的輸入層上對其進行處理
第 61 題
如果您有許多長度不同的序列,并在其上調(diào)用pad_sequences,默認結(jié)果是什么?
A.沒什么,他們會保持不變
B.通過將零添加到較短序列的開頭,它們將填充到最長序列的長度
C.它們會被裁剪到最短序列的長度
D.通過在較短的序列末尾添加零,可以將它們填充到最長序列的長度中
第 62 題
在填充序列時,如果您希望填充位于序列的末尾,該如何做?
A.調(diào)用pad_sequences對象的padding方法,傳遞“ after”
B.初始化時將padding ='post'傳遞至pad_sequences
C.調(diào)用pad_sequences對象的padding方法,傳遞“ post”
D.初始化時將padding =“ after”傳遞給pad_sequences
第 66 題
Embedding維數(shù)是什么?
A.它是表示單詞編碼的向量的維數(shù)
B.它是單詞中字母的數(shù)量,表示編碼的大小
C.是嵌入中要編碼的單詞數(shù)
D.它是對語料庫中的每個單詞進行編碼所需的維數(shù)
上5題答案
59.C 60.B 61.B 62.B 66.A
第 71 題
為什么順序在確定語言的語義時有很大的影響?
A.并不
B.因為單詞出現(xiàn)的順序決定了它們的含義
C.因為單詞順序無關(guān)緊要
D.因為單詞出現(xiàn)的順序決定了它們對句子含義的影響
第 73 題
當句子中相互限定的單詞不一定彼此并排時,LSTM如何幫助理解含義?
A.他們將所有單詞加載到單元格狀態(tài)
B.并沒幫助
C.他們隨機打亂單詞
D.較早單詞的值可以通過單元狀態(tài)傳遞給較晚單詞
第 78 題
避免NLP數(shù)據(jù)集過度擬合的最佳方法是什么?
A.LSTMs
B.GRUs
C.Conv1D
D.以上都不
第 79 題
當預(yù)測單詞產(chǎn)生詩歌時,預(yù)測的單詞越多,最終產(chǎn)生亂碼的可能性就越大。為什么?
A.因為預(yù)測的可能性增加,因此總體上增加了
B.不會,亂碼的可能性不會改變
C.創(chuàng)建的單詞越多,每個單詞與現(xiàn)有短語匹配的概率下降
D.因為您更有可能擊中不在訓(xùn)練集中的單詞
第 80 題
基于單詞的訓(xùn)練而不是基于字符的生成的主要缺點是什么?
A.基于字符的生成更準確,因為要預(yù)測的字符較少
B.基于單詞的生成更加準確,因為可以從中提取更大的單詞
C.沒有主要缺點,進行基于單詞的訓(xùn)練總是更好
D.由于典型語料庫中的單詞比字符多得多,因此占用大量內(nèi)存
上5題答案
71.D 73.D 78.D 79.C 80.D
第 86 題
什么是趨勢?
A.數(shù)據(jù)的總體方向,與方向無關(guān)
B.數(shù)據(jù)的整體一致向下方向
C.數(shù)據(jù)的總體統(tǒng)一方向
D.數(shù)據(jù)整體向上一致
第 87 題
在時間序列的背景下,什么是噪聲?
A.時間序列數(shù)據(jù)的不可預(yù)測的變化
B.沒有趨勢的數(shù)據(jù)
C.聲波形成一個時間序列
D.沒有季節(jié)性的數(shù)據(jù)
第 88 題
什么是自相關(guān)?
A.數(shù)據(jù)遵循可預(yù)測的形狀,即使比例不同
B.季節(jié)性自動排列的數(shù)據(jù)
C.自動按趨勢排列的數(shù)據(jù)
D.沒有噪音的數(shù)據(jù)
第 89 題
什么是非平穩(wěn)時間序列?
A.具有建設(shè)性事件形成趨勢和季節(jié)性
B.一個具有破壞性事件,突破趨勢和季節(jié)性的事件
C.在所有季節(jié)都一致的一種
D.一個季節(jié)性移動
第 90 題
什么是窗口數(shù)據(jù)集?
A.沒有這種東西
B.時間序列與固定形狀對齊
C.時間序列的固定大小一個子集
D.一系列時間序列的子集
上5題答案
86.A 87.A 88.A 89.B 90.C
第 101 題
神經(jīng)網(wǎng)絡(luò)中的Lambda層有什么作用?
A.允許您在訓(xùn)練時執(zhí)行任意代碼
B.神經(jīng)網(wǎng)絡(luò)中沒有Lambda層
C.更改輸入或輸出數(shù)據(jù)的形狀
D.暫停訓(xùn)練而無需回調(diào)
第 104 題
淺顯的RNN和LSTM之間的主要區(qū)別是什么
A.LSTM具有單個輸出,RNN具有多個輸出
B.除了H輸出外,LSTM的單元狀態(tài)貫穿所有單元
C.除了H輸出外,RNN的單元狀態(tài)貫穿所有單元
D.LSTM具有多個輸出,RNN具有單個輸出
第 106 題
如果用這兩層定義一個神經(jīng)網(wǎng)絡(luò)會怎樣?
tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(32)), tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(32)), tf.keras.layers.Dense(1),A.您的模型將編譯并正確運行
B.您的模型將失敗,因為在第一個LSTM層之后需要return_sequences = True
C.您的模型將失敗,因為在每個LSTM層之后都需要return_sequences = True
D.您的模型將失敗,因為每個LSTM中具有相同數(shù)量的單元
第 107 題
如何為模型添加一維卷積以預(yù)測時間序列數(shù)據(jù)?
A.使用1DConvolution類型
B.使用Conv1D類型
C.使用Convolution1D類型
D.使用1DConv類型
第 114 題
為什么MAE是較好的衡量時間序列預(yù)測準確性的方法?
A.它偏向于小錯誤
B.它不會像平方誤差那樣嚴重懲罰較大的誤差
C.它懲罰更大的錯誤
D.它只計算正錯誤
上5題答案
101.A 104.B 106.B 107.B 114.B
完整版在和鯨社區(qū):
www.kesci.com(閱讀原文)
往期精彩回顧適合初學(xué)者入門人工智能的路線及資料下載機器學(xué)習(xí)及深度學(xué)習(xí)筆記等資料打印機器學(xué)習(xí)在線手冊深度學(xué)習(xí)筆記專輯AI基礎(chǔ)下載(pdf更新到25集)機器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)專輯獲取一折本站知識星球優(yōu)惠券,復(fù)制鏈接直接打開:https://t.zsxq.com/yFQV7am本站qq群1003271085,加入微信群請掃碼喜歡文章,點個在看總結(jié)
以上是生活随笔為你收集整理的【深度学习】Coursera的TensorFlow课程练习题精华部分的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 2020年6月学术会议变动汇总
- 下一篇: 梳理百年深度学习发展史-七月在线机器学习