日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

【深度学习】Coursera的TensorFlow课程练习题精华部分

發(fā)布時間:2025/3/8 pytorch 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【深度学习】Coursera的TensorFlow课程练习题精华部分 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

大家好,這次給大家翻譯的是來自 Coursera,由 deeplearning.ai 提供的 TensorFlow in Practice 的課程系列的QUIZ部分

本文來源:www.kesci.com

該系列課程共分為4個專項

一、人工智能、機器學(xué)習(xí)和深度學(xué)習(xí)的TensorFlow簡介
二、TensorFlow中的卷積神經(jīng)網(wǎng)絡(luò)
三、TensorFlow中的自然語言處理
四、序列、時間序列與預(yù)測

原教程鏈接在此:TensorFlow in Practice 專項課程

教大家在機器學(xué)習(xí)的不同方向如何應(yīng)用TensorFlow。課程前7天是免費的,之后按月收費,所以如果我學(xué)得夠快,月費就追不上我嘿嘿嘿。

話說回這次翻譯的QUIZ部分,個人感覺偏基礎(chǔ),問了很多函數(shù)調(diào)用的細節(jié),夾雜一些很迷的問題比如“Fashion MNIST數(shù)據(jù)集中有多少張圖片?”。但總體而言適合新手上路查漏補缺。

由于這次題目數(shù)量比較多,知乎版本進行了刪減。主要刪去了一些蜜汁問題,以及隨機選中的一些幸運兒,完整版請移步和鯨社區(qū)(閱讀原文)

114題精選

第 4 題

什么是Dense?

A.質(zhì)量除以體積

B.單個神經(jīng)元

C.一層連接的神經(jīng)元

D.一層不連接的神經(jīng)元

第 5 題

Loss函數(shù)是用來做什么的?

A.生成預(yù)測結(jié)果

B.決定是否停止神經(jīng)網(wǎng)絡(luò)的訓(xùn)練

C.評價現(xiàn)有的預(yù)測

D.評判你猜對沒

第 6 題

優(yōu)化器是用來做什么的

A.生成更新的優(yōu)化的預(yù)測

B.決定是否停止神經(jīng)網(wǎng)絡(luò)的訓(xùn)練

C.評價現(xiàn)有的預(yù)測

D.找出如何有效地編譯代碼

第 7 題

什么是Convergence?

A.下一部《星球大戰(zhàn)》電影中的壞蛋

B.損失急劇增加

C.接近正確答案的過程

D.AI的編程API

第 8 題

model.fit是用來做什么的?

A.它訓(xùn)練神經(jīng)網(wǎng)絡(luò)將一組值轉(zhuǎn)換為另一組

B.它使模型可以記憶

C.優(yōu)化一個已經(jīng)存在的模型

D.它確定您的運動是否對身體有益

上5題答案

4.C 5.C 6.A 7.C 8.A

第 17 題

什么是卷積?

A.縮小圖像的技術(shù)

B.放大圖像的技術(shù)

C.隔離圖像特征的技術(shù)

D.過濾掉不需要的圖像的技術(shù)、

第 18 題

什么是池化?

A.隔離圖像特征的技術(shù)

B.一種在保持特征的同時減少圖像信息的技術(shù)

C.一種使圖像更清晰的技術(shù)

D.組合圖片的技術(shù)

第 19 題

卷積如何改善圖像識別?

A.它們使圖像變小

B.它們使圖像處理更快

C.它們使圖像更清晰

D.它們隔離圖像中的特征

第 20 題

在28x28的圖像上使用3x3的過濾器后,輸出將是多少?

A.31x31

B.25x25

C.28x28

D.26x26

第 22 題

在神經(jīng)網(wǎng)絡(luò)一開始應(yīng)用卷積層將使訓(xùn)練:

A.更快

B.這取決于許多因素。它可能會使您的訓(xùn)練更快或更慢,并且設(shè)計不良的卷積層可能甚至比普通的DNN還低效!

C.更慢

D.持平

上5題答案

17.C 18.B 19.D 20.D 22.B

第 26 題

當我們將input_shape指定為(300,300,3)時,這意味著什么?

A.將有300匹馬和300名人類,分3批

B.將有300張圖片,每個尺寸300,分3批

C.每個圖像將為300x300像素,有3個通道

D.每個圖像將為300x300像素,并且應(yīng)該有3個卷積層

第 29 題

縮小圖像尺寸后,訓(xùn)練結(jié)果有所不同。為什么?

A.圖片的信息變少了

B.我們刪除了一些卷積以處理較小的圖像

C.圖像中壓縮了更多信息

D.訓(xùn)練更快

第 33 題

如果我想查看訓(xùn)練的歷史記錄,該如何訪問?

A.創(chuàng)建一個變量“history”,并將其分配給model.t或model.t_generator的返回值

B.將參數(shù)“ history = true”傳遞給model.t

C.下載模型并檢查

D.使用model.t_generator

第 35 題

當檢查數(shù)據(jù)時,損失在2個周期后穩(wěn)定在大約0.75,但在15個周期后精度上升到接近1.0。這代表了什么?

A.2周期后的訓(xùn)練是沒有意義的,因為我們過擬合了驗證數(shù)據(jù)

B.2周期后的訓(xùn)練是沒有意義的,因為我們過擬合了訓(xùn)練數(shù)據(jù)

C.更大的訓(xùn)練集將使我們具有更好的驗證準確性

D.更大的驗證集將使我們具有更好的訓(xùn)練準確性

第 37 題

為什么在較小的數(shù)據(jù)集上更容易出現(xiàn)過擬合現(xiàn)象?

A.因為在較小的數(shù)據(jù)集中,您的驗證數(shù)據(jù)更有可能和訓(xùn)練數(shù)據(jù)類似

B.因為沒有足夠的數(shù)據(jù)來激活所有卷積或神經(jīng)元

C.因為使用較少的數(shù)據(jù),訓(xùn)練會更快地進行,并且某些功能可能會丟失

D.因為在訓(xùn)練過程中遇到所有可能特征的可能性較小

上5題答案

26.C 29.A 33.A B 35 37.D

第 39 題

如果我的訓(xùn)練數(shù)據(jù)中只有面朝左的人,但我想對面朝右的人進行分類,我該如何避免過擬合?

A.在Y軸上使用“ ip_vertical”參數(shù)

B.使用“ horizontal_ip”參數(shù)

C.使用“ ip”參數(shù)

D.使用“ ip”參數(shù)并設(shè)置“水平”

第 40 題

使用增強訓(xùn)練時,您注意到訓(xùn)練會慢一些。為什么?

A.因為有更多數(shù)據(jù)需要訓(xùn)練

B.因為擴充后的數(shù)據(jù)更大

C.因為圖像處理需要周期

D.因為訓(xùn)練會犯更多錯誤

第 42 題

將Image Augmentation與ImageDataGenerator一起使用時,磁盤上的原始圖像數(shù)據(jù)會發(fā)生什么情況?

A.它會被覆蓋,因此請務(wù)必進行備份

B.制作副本并對該副本進行擴充

C.沒什么,所有擴充都在內(nèi)存中完成

D.它被刪除

第 43 題

圖像增強如何幫助解決過擬合?

A.它減慢了訓(xùn)練過程

B.它操縱訓(xùn)練集,為圖像中的特征生成更多場景

C.它操縱驗證集為圖像中的特征生成更多場景

D.通過圖像處理技術(shù)找到特征,自動將特征擬合到圖像

第 45 題

使用“圖像增強”有效地模擬具有較大數(shù)據(jù)集的訓(xùn)練

A.不對

B.對

上5題答案

39.B 40.C 42.C 43.B 45.B

第 47 題

為什么遷移學(xué)習(xí)有用?

A.因為我可以使用原始訓(xùn)練集中的所有數(shù)據(jù)

B.因為我可以使用原始驗證集中的所有數(shù)據(jù)

C.因為我可以使用從大型數(shù)據(jù)集中學(xué)習(xí)到的,我可能無法獲得的特征

D.因為我可以使用可能無法訪問的大型數(shù)據(jù)集中的驗證數(shù)據(jù)

第 49 題

使用遷移學(xué)習(xí)時,如何更改模型可以分類的數(shù)量?(即處理的原始模型可以處理1000個分類,但您只處理2個分類)

A.忽略所有高于您的類別(即,2之后的類都算2)

B.使用所有類,但將其權(quán)重設(shè)置為0

C.當您在網(wǎng)絡(luò)底部添加DNN時,用您所擁有的類數(shù)來指定輸出層

D.使用dropout消除不必要的類

第 50 題

您可以在遷移學(xué)習(xí)模型中使用圖像增強嗎?

A.否,因為您正在使用預(yù)設(shè)功能

B.是的,因為您要在網(wǎng)絡(luò)底部添加新層,并且能在訓(xùn)練這些層的時候使用圖像增強

第 51 題

為何dropout有助于避免過擬合?

A.因為鄰居神經(jīng)元的權(quán)重可能相似,因此可能會影響最終訓(xùn)練的準確性

B.減少神經(jīng)元可加快訓(xùn)練速度

第 52 題

dropout設(shè)置過高會有什么現(xiàn)象?

A.網(wǎng)絡(luò)將失去專業(yè)性,從而導(dǎo)致學(xué)習(xí)效率低下或效率低下,從而降低準確性

B.訓(xùn)練時間將增加,這是因為dropout高需要額外的計算

上5題答案

47.C 49.C 50.B 51.A 52.A

第 59 題

如果您沒有在詞匯表中使用token,那么編碼時會發(fā)生什么?

A.該單詞未編碼,序列化結(jié)束

B.這個詞被最常見的token代替

C.這個單詞沒有經(jīng)過編碼,因此會被跳過

D.該單詞未編碼,序列中被替換為0

第 60 題

如果您有許多不同長度的序列,當將它們輸入到神經(jīng)網(wǎng)絡(luò)時,如何確保它們被理解?

A.使用token生成器的pad_sequences方法確保它們的長度都相同

B.使用tensorflow.keras.preprocessing.sequence命名空間中的pad_sequences對象

C.指定神經(jīng)網(wǎng)絡(luò)的輸入層以期望dynamic_length有不同大小

D.使用pad_sequences屬性在神經(jīng)網(wǎng)絡(luò)的輸入層上對其進行處理

第 61 題

如果您有許多長度不同的序列,并在其上調(diào)用pad_sequences,默認結(jié)果是什么?

A.沒什么,他們會保持不變

B.通過將零添加到較短序列的開頭,它們將填充到最長序列的長度

C.它們會被裁剪到最短序列的長度

D.通過在較短的序列末尾添加零,可以將它們填充到最長序列的長度中

第 62 題

在填充序列時,如果您希望填充位于序列的末尾,該如何做?

A.調(diào)用pad_sequences對象的padding方法,傳遞“ after”

B.初始化時將padding ='post'傳遞至pad_sequences

C.調(diào)用pad_sequences對象的padding方法,傳遞“ post”

D.初始化時將padding =“ after”傳遞給pad_sequences

第 66 題

Embedding維數(shù)是什么?

A.它是表示單詞編碼的向量的維數(shù)

B.它是單詞中字母的數(shù)量,表示編碼的大小

C.是嵌入中要編碼的單詞數(shù)

D.它是對語料庫中的每個單詞進行編碼所需的維數(shù)

上5題答案

59.C 60.B 61.B 62.B 66.A

第 71 題

為什么順序在確定語言的語義時有很大的影響?

A.并不

B.因為單詞出現(xiàn)的順序決定了它們的含義

C.因為單詞順序無關(guān)緊要

D.因為單詞出現(xiàn)的順序決定了它們對句子含義的影響

第 73 題

當句子中相互限定的單詞不一定彼此并排時,LSTM如何幫助理解含義?

A.他們將所有單詞加載到單元格狀態(tài)

B.并沒幫助

C.他們隨機打亂單詞

D.較早單詞的值可以通過單元狀態(tài)傳遞給較晚單詞

第 78 題

避免NLP數(shù)據(jù)集過度擬合的最佳方法是什么?

A.LSTMs

B.GRUs

C.Conv1D

D.以上都不

第 79 題

當預(yù)測單詞產(chǎn)生詩歌時,預(yù)測的單詞越多,最終產(chǎn)生亂碼的可能性就越大。為什么?

A.因為預(yù)測的可能性增加,因此總體上增加了

B.不會,亂碼的可能性不會改變

C.創(chuàng)建的單詞越多,每個單詞與現(xiàn)有短語匹配的概率下降

D.因為您更有可能擊中不在訓(xùn)練集中的單詞

第 80 題

基于單詞的訓(xùn)練而不是基于字符的生成的主要缺點是什么?

A.基于字符的生成更準確,因為要預(yù)測的字符較少

B.基于單詞的生成更加準確,因為可以從中提取更大的單詞

C.沒有主要缺點,進行基于單詞的訓(xùn)練總是更好

D.由于典型語料庫中的單詞比字符多得多,因此占用大量內(nèi)存

上5題答案

71.D 73.D 78.D 79.C 80.D

第 86 題

什么是趨勢?

A.數(shù)據(jù)的總體方向,與方向無關(guān)

B.數(shù)據(jù)的整體一致向下方向

C.數(shù)據(jù)的總體統(tǒng)一方向

D.數(shù)據(jù)整體向上一致

第 87 題

在時間序列的背景下,什么是噪聲?

A.時間序列數(shù)據(jù)的不可預(yù)測的變化

B.沒有趨勢的數(shù)據(jù)

C.聲波形成一個時間序列

D.沒有季節(jié)性的數(shù)據(jù)

第 88 題

什么是自相關(guān)?

A.數(shù)據(jù)遵循可預(yù)測的形狀,即使比例不同

B.季節(jié)性自動排列的數(shù)據(jù)

C.自動按趨勢排列的數(shù)據(jù)

D.沒有噪音的數(shù)據(jù)

第 89 題

什么是非平穩(wěn)時間序列?

A.具有建設(shè)性事件形成趨勢和季節(jié)性

B.一個具有破壞性事件,突破趨勢和季節(jié)性的事件

C.在所有季節(jié)都一致的一種

D.一個季節(jié)性移動

第 90 題

什么是窗口數(shù)據(jù)集?

A.沒有這種東西

B.時間序列與固定形狀對齊

C.時間序列的固定大小一個子集

D.一系列時間序列的子集

上5題答案

86.A 87.A 88.A 89.B 90.C

第 101 題

神經(jīng)網(wǎng)絡(luò)中的Lambda層有什么作用?

A.允許您在訓(xùn)練時執(zhí)行任意代碼

B.神經(jīng)網(wǎng)絡(luò)中沒有Lambda層

C.更改輸入或輸出數(shù)據(jù)的形狀

D.暫停訓(xùn)練而無需回調(diào)

第 104 題

淺顯的RNN和LSTM之間的主要區(qū)別是什么

A.LSTM具有單個輸出,RNN具有多個輸出

B.除了H輸出外,LSTM的單元狀態(tài)貫穿所有單元

C.除了H輸出外,RNN的單元狀態(tài)貫穿所有單元

D.LSTM具有多個輸出,RNN具有單個輸出

第 106 題

如果用這兩層定義一個神經(jīng)網(wǎng)絡(luò)會怎樣?

tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(32)), tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(32)), tf.keras.layers.Dense(1),

A.您的模型將編譯并正確運行

B.您的模型將失敗,因為在第一個LSTM層之后需要return_sequences = True

C.您的模型將失敗,因為在每個LSTM層之后都需要return_sequences = True

D.您的模型將失敗,因為每個LSTM中具有相同數(shù)量的單元

第 107 題

如何為模型添加一維卷積以預(yù)測時間序列數(shù)據(jù)?

A.使用1DConvolution類型

B.使用Conv1D類型

C.使用Convolution1D類型

D.使用1DConv類型

第 114 題

為什么MAE是較好的衡量時間序列預(yù)測準確性的方法?

A.它偏向于小錯誤

B.它不會像平方誤差那樣嚴重懲罰較大的誤差

C.它懲罰更大的錯誤

D.它只計算正錯誤

上5題答案

101.A 104.B 106.B 107.B 114.B


完整版在和鯨社區(qū):

www.kesci.com(閱讀原文

往期精彩回顧適合初學(xué)者入門人工智能的路線及資料下載機器學(xué)習(xí)及深度學(xué)習(xí)筆記等資料打印機器學(xué)習(xí)在線手冊深度學(xué)習(xí)筆記專輯AI基礎(chǔ)下載(pdf更新到25集)機器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)專輯獲取一折本站知識星球優(yōu)惠券,復(fù)制鏈接直接打開:https://t.zsxq.com/yFQV7am本站qq群1003271085,加入微信群請掃碼喜歡文章,點個在看

總結(jié)

以上是生活随笔為你收集整理的【深度学习】Coursera的TensorFlow课程练习题精华部分的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。