日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

面经个人向(算法岗)

發布時間:2024/8/1 编程问答 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 面经个人向(算法岗) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

從三月份開始,一直在找算法崗的實習,因為導師不讓出去實習的緣故,所以對于找實習一直很佛系,到今天也只面試了三個公司(阿里、字節跳動和華為)。

想記錄一下這段時間面試所遇到的問題(可能只適用于我自己,大家看了覺得沒有用勿噴)。

1、人群計數模型的原理:
首先根據標注的人頭位置和核密度估計生成每個人群圖像所對應的人群密度圖,然后采用CNN網絡模型基于人群特征回歸人群密度圖,最后計算人群密度圖的數值總和作為最終的預測人數。其中,所使用的CNN網絡模型包含了13個卷積層,卷積層使用了maxpooling。

2、KCF算法的原理:
KCF目標跟蹤算法通過線性脊回歸模型實時更新被跟蹤對象的位置,使用循環矩陣和內核函數減少計算的次數,使得KCF目標跟蹤算法達到了較快的速度。

3、知道的圖像分類模型及各自優缺點(答案引用自別人的博客)

(1)AlexNet:5個卷積層,3個全連接層。 優勢:ReLU激活函數。ReLU相比Sigmoid的優勢是其訓練速度更快,因為Sigmoid的導數在穩定區會非常小,從而權重基本上不再更新。這就是梯度消失問題。
Dropout。Dropout層以一定的概率隨機地關閉當前層中神經元激活值,Dropout背后理念和集成模型很相似。在Drpout層,不同的神經元組合被關閉,這代表了一種不同的結構,所有這些不同的結構使用一個的子數據集并行地帶權重訓練,而權重總和為1。如果Dropout層有
個神經元,那么會形成
個不同的子結構。在預測時,相當于集成這些模型并取均值。這種結構化的模型正則化技術有利于避免過擬合。Dropout有效的另外一個視點是:由于神經元是隨機選擇的,所以可以減少神經元之間的相互依賴,從而確保提取出相互獨立的重要特征。

(2)VGG: VGG16相比AlexNet的一個改進是采用連續的幾個3x3的卷積核代替AlexNet中的較大卷積核(11x11,5x5)。
優勢:對于給定的感受野(與輸出有關的輸入圖片的局部大小),采用堆積的小卷積核優于采用大的卷積核,因為多層非線性層可以增加網絡深度來保證學習更復雜的模式,而且代價還比較小(參數更少)。

(3)GoogLeNet/Inception:GoogLeNet設計了一種稱為inception的模塊,這個模塊使用密集結構來近似一個稀疏的CNN。GoogLeNet基于這樣的理念:在深度網路中大部分的激活值是不必要的(為0),或者由于相關性是冗余。因此,最高效的深度網路架構應該是激活值之間是稀疏連接的,只有很少一部分神經元是真正有效的,所以一種特定大小的卷積核數量設置得非常小。同時,GoogLeNet使用了不同大小的卷積核來抓取不同大小的感受野。

(4)ResNet:隨著網絡深度增加,網絡的準確度應該同步增加,當然要注意過擬合問題。但是網絡深度增加的一個問題在于這些增加的層是參數更新的信號,因為梯度是從后向前傳播的,增加網絡深度后,比較靠前的層梯度會很小。這意味著這些層基本上學習停滯了,這就是梯度消失問題。深度網絡的第二個問題在于訓練,當網絡更深時意味著參數空間更大,優化問題變得更難,因此簡單地去增加網絡深度反而出現更高的訓練誤差。

4、介紹一下ResNet網絡
解決退化問題,即網絡層數增加,但是在訓練集上的準確率卻飽和甚至下降了,ResNet增加了一個恒等映射,將深層網絡后面的那些層作為恒等映射,模型就退化成了一個淺層網絡。
如果把網絡設計為H(x) = F(x) + x,如下圖。我們可以轉換為學習一個殘差函數F(x) = H(x) - x. 只要F(x)=0,就構成了一個恒等映射H(x) = x. 而且,擬合殘差肯定更加容易。

5、介紹一下垃圾分類項目
分成了6類:其中5類是可回收的,包括cardboard硬紙板、metal銅制品、塑料制品等還有不可回收垃圾。
基于Keras深度學習框架:采用了4層卷積網絡和2層全連接層,卷積層使用了maxPooling和relu激活函數,第一個全連接層使用了relu激活函數,第二個全連接層使用了softmax激活函數進行了分類。

6、Xgboost和lightgbm的區別
Xgboost:對每個特征都要掃描所有的樣本點來選擇最佳的切分點,非常耗時。
Lightgbm:運行效果更好,且速度更快。Lightgbm采用了GOSS(基于梯度的單邊采樣)和EFB(互斥特征捆綁)。
GOSS(基于梯度的單邊采樣):不是對所有樣本計算梯度,而是對樣本進行采樣計算梯度。
EFB(互斥特征捆綁):不是對所有特征進行掃描來選擇最佳的切分點,而是對某些特征進行捆綁來減少特征的維度。

7、介紹一下決策樹
決策樹以信息增益為準則選擇最優劃分屬性,并按照遞歸的過程生成決策樹。

8、介紹一下決策樹可能出現的問題及相應的解決辦法
在決策樹學習的過程中,為了盡可能正確分類樣本,節點劃分過程不斷重復,有時會造成決策樹分支過多,以致于把訓練集自身的一些特點當做所有數據都具有的一般性質而導致過擬合。
解決方法: 剪枝(包括預剪枝和后剪枝)

總結

以上是生活随笔為你收集整理的面经个人向(算法岗)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。