日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

深度学习(计算机视觉)面试中问题(一)

發(fā)布時間:2025/5/22 179 豆豆
生活随笔 收集整理的這篇文章主要介紹了 深度学习(计算机视觉)面试中问题(一) 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

前言:

博主參加了很多面試,應(yīng)聘崗位是計算機(jī)視覺(深度學(xué)習(xí)方向),現(xiàn)將問到我的一些問題,總結(jié)如下,回答的有哪些不對,麻煩指正,大家也可以自己去查答案。特別說一下:面試時一定要把自己項目用到的東西涉及到的東西,都要搞懂,并且有目的性引導(dǎo)面試官問你準(zhǔn)備的問題。
問題:
1、深度學(xué)習(xí)要這么深?

答:1、一個直觀的解釋,從模型復(fù)雜度角度。如果我們能夠增強(qiáng)一個學(xué)習(xí)模型的復(fù)雜度,那么它的學(xué)習(xí)能力能夠提升。如何增加神經(jīng)網(wǎng)絡(luò)的復(fù)雜度呢?要么變寬,即增加隱層網(wǎng)絡(luò)神經(jīng)元的個數(shù);要么變深,即增加隱層的層數(shù)。當(dāng)變寬的時候,只不過是增加了一些計算單元,增加了函數(shù)的個數(shù),在變深的時候不僅增加了個數(shù),還增加了函數(shù)間的嵌入的程度。

2、深度學(xué)習(xí)可以通過多個layer的轉(zhuǎn)換學(xué)習(xí)更高維度的特征來解決更加復(fù)雜的任務(wù)。

3、那現(xiàn)在我們?yōu)槭裁纯梢杂眠@樣的模型?有很多因素,第一我們有了更大的數(shù)據(jù);第二我們有強(qiáng)力的計算設(shè)備;第三我們有很多有效的訓(xùn)練技巧

4、像在ZFNet網(wǎng)絡(luò)中已經(jīng)體現(xiàn),特征間存在層次性,層次更深,特征不變性強(qiáng),類別分類能力越強(qiáng),要學(xué)習(xí)復(fù)雜的任務(wù)需要更深的網(wǎng)絡(luò)
2、如何解決數(shù)據(jù)不平衡問題?

答:1、利用重采樣中的下采樣和上采樣,對小數(shù)據(jù)類別采用上采用,通過復(fù)制來增加數(shù)據(jù),不過這種情況容易出現(xiàn)過擬合,建議用數(shù)據(jù)擴(kuò)增的方法,對原有數(shù)據(jù)集進(jìn)行翻轉(zhuǎn),旋轉(zhuǎn),平移,尺度拉伸,對比度,亮度,色彩變化來增加數(shù)據(jù)。對大數(shù)據(jù)類別剔除一些樣本量。數(shù)據(jù)增強(qiáng)具體代碼:常用數(shù)據(jù)增強(qiáng)方法代碼

2、組合不同的重采樣數(shù)據(jù)集:假設(shè)建立十個模型,選取小數(shù)據(jù)類1000個數(shù)據(jù)樣本,然后將大數(shù)據(jù)類別10000個數(shù)據(jù)樣本分為十份,每份為1000個,并訓(xùn)練十個不同的模型。

3、更改分類器評價指標(biāo): 在傳統(tǒng)的分類方法中,準(zhǔn)確率是常用的指標(biāo)。 然而在不平衡數(shù)據(jù)分類中,準(zhǔn)確率不再是恰當(dāng)?shù)闹笜?biāo),采用精準(zhǔn)率即查準(zhǔn)率P:真正例除以真正例與假正例之和。召回率即查全率F。真正例除以真正例與假反例之和。或者F1分?jǐn)?shù)查全率和查準(zhǔn)率加權(quán)平衡=2*P*R/(P+R)。
3、對于訓(xùn)練集與驗(yàn)證集測試集分布不同的處理辦法

1、若訓(xùn)練集與驗(yàn)證集來自不同分布,比如一個網(wǎng)絡(luò)爬蟲獲取的高清圖像,一個是手機(jī)不清晰圖像,人工合成圖像,比如不清晰圖像,亮度高的圖像。

2、兩種來源的數(shù)據(jù)一個來源數(shù)據(jù)大比如20萬張,一個來源數(shù)據(jù)小,如五千張小數(shù)據(jù)集是我們優(yōu)化目標(biāo),一種情況是將兩組數(shù)據(jù)合并在一起,然后隨機(jī)分配到訓(xùn)練驗(yàn)證測試集中好處是,三個數(shù)據(jù)集來自同一分布。缺點(diǎn):瞄準(zhǔn)目標(biāo)都是大數(shù)據(jù)那一類的數(shù)據(jù),而不是我們的目標(biāo)小數(shù)據(jù)集。另外一種情況是訓(xùn)練集全部用大數(shù)據(jù)集,開發(fā)與測試集都是小數(shù)據(jù)集數(shù)據(jù),優(yōu)點(diǎn):瞄準(zhǔn)目標(biāo),壞處是不同分布。

3、分析偏差和方差方法和同一分布的方法不一樣,加一個訓(xùn)練開發(fā)集(從訓(xùn)練集留出一部分?jǐn)?shù)據(jù))。總共四個數(shù)據(jù)集,訓(xùn)練集、訓(xùn)練開發(fā)集、開發(fā)集、測試集。看訓(xùn)練開發(fā)集的準(zhǔn)確率與訓(xùn)練集驗(yàn)證集的區(qū)別來判別式方差還是數(shù)據(jù)分布不匹配的造成的誤差。具體看如下鏈接:https://blog.csdn.net/koala_tree/article/details/78319908
4、如何改善訓(xùn)練模型的效果呢?

答:1、通過提升數(shù)據(jù),獲取良好的數(shù)據(jù)。對數(shù)據(jù)預(yù)處理;零均值1方差化,數(shù)據(jù)擴(kuò)充或者增強(qiáng),

2、診斷網(wǎng)絡(luò)是否過擬合欠擬合。通過偏差方差。正則化解決過擬合,早停法遏制過擬合。

3、通過學(xué)習(xí)率,激活函數(shù)的選擇,改善網(wǎng)絡(luò)全連接層個數(shù)啊層數(shù)啊,優(yōu)化算法,隨機(jī)梯度,RMSprop,動量,adam,使用batchnormlization.

3、權(quán)值初始化Xavier初始化,保持輸入與輸出端方差一致,避免了所有輸出都趨向于0;

?

5、如何解決梯度爆炸與消失。

-答:1、預(yù)訓(xùn)練加微調(diào) - 梯度剪切、權(quán)重正則(針對梯度爆炸) -

2、使用不同的激活函數(shù) -

3、使用batchnorm -

4、使用殘差結(jié)構(gòu) -

5、使用LSTM網(wǎng)絡(luò)

?
6、你做過其他與職位申請相關(guān)項目嗎,解釋現(xiàn)在的碩士研究內(nèi)容,有什么效果嗎?

答:解答建議。自己做的事情和學(xué)的任何技能能夠與申請的崗位建立聯(lián)系。
7、為什么要使用許多小卷積核(如3x 3 )而不是幾個大卷積核?

這在VGGNet的原始論文中得到了很好的解釋。原因有二:首先,您可以使用幾個較小的核而不是幾個較大的核來獲得相同的感受野并捕獲更多的空間上下文,但是使用較小的內(nèi)核時,您使用的參數(shù)和計算量較少。其次,因?yàn)槭褂酶〉暮?#xff0c;您將使用更多的濾波器,您將能夠使用更多的激活函數(shù),從而使您的CNN學(xué)習(xí)到更具區(qū)分性的映射函數(shù)。

?
8、為什么在圖像分割中CNNs通常具有編碼器-解碼器結(jié)構(gòu)?

編碼器CNN基本上可以被認(rèn)為是特征提取網(wǎng)絡(luò),而解碼器使用該信息通過“解碼”特征并放大到原始圖像大小來預(yù)測圖像分割區(qū)域。
9、為什么我們對圖像使用卷積而不僅僅是FC層?

這個很有趣,因?yàn)楣就ǔ2粫栠@個問題。正如你所料,我是從一家專注于計算機(jī)視覺的公司那里得到這個問題的。這個答案有兩部分。首先,卷積保存、編碼和實(shí)際使用來自圖像的空間信息。如果我們只使用FC層,我們將沒有相對的空間信息。其次,卷積神經(jīng)網(wǎng)絡(luò)( CNNs )具有部分內(nèi)建的平移不變性,因?yàn)槊總€卷積核充當(dāng)其自身的濾波器/特征檢測器。,而且這樣減少大量的參數(shù),減輕過擬合。
10、什么是數(shù)據(jù)正則化/歸一化(normalization)?為什么我們需要它?

我覺得這一點(diǎn)很重要。數(shù)據(jù)歸一化是非常重要的預(yù)處理步驟,用于重新縮放輸入的數(shù)值以適應(yīng)特定的范圍,從而確保在反向傳播期間更好地收斂。一般來說采取的方法都是減去每個數(shù)據(jù)點(diǎn)的平均值并除以其標(biāo)準(zhǔn)偏差。如果我們不這樣做,那么一些特征(那些具有高幅值的特征)將在cost函數(shù)中得到更大的加權(quán)(如果較高幅值的特征改變1 %,則該改變相當(dāng)大,但是對于較小的特征,該改變相當(dāng)小)。數(shù)據(jù)歸一化使所有特征的權(quán)重相等。

?
11、解釋降維(dimensionality reduction),降維在哪里使用,降維的好處是什么?

降維是通過獲得一組基本上是重要特征的主變量來減少所考慮的特征變量的過程。特征的重要性取決于特征變量對數(shù)據(jù)信息表示的貢獻(xiàn)程度

數(shù)據(jù)集降維的好處可以是:

( 1 )減少所需的存儲空間。

( 2 )加快計算速度(例如在機(jī)器學(xué)習(xí)算法中),更少的維數(shù)意味著更少的計算,并且更少的維數(shù)可以允許使用不適合大量維數(shù)的算法。

( 3 )將數(shù)據(jù)的維數(shù)降低到2D或3D可以允許我們繪制和可視化它,可能觀察模式,給我們提供直觀感受。

( 4 )太多的特征或太復(fù)雜的模型可以導(dǎo)致過擬合。
————————————————
原文鏈接:https://blog.csdn.net/comway_Li/article/details/82532573

總結(jié)

以上是生活随笔為你收集整理的深度学习(计算机视觉)面试中问题(一)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。