Interview:算法岗位面试—10.12上午—上海某科技公司图像算法岗位(偏图像算法,互联网AI行业)技术面试考点之LoR逻辑回归的底层代码实现、特征图计算公式
ML崗位面試:10.12上午—上海某科技公司圖像算法崗位(偏圖像算法,互聯(lián)網(wǎng)AI行業(yè))技術(shù)面試考點(diǎn)之LoR邏輯回歸的底層代碼實(shí)現(xiàn)、特征圖計算公式
?Interview:算法崗位面試—10.12上午—上海某科技公司圖像算法崗位(偏圖像算法,互聯(lián)網(wǎng)AI行業(yè))技術(shù)面試考點(diǎn)之LoR邏輯回歸的底層代碼實(shí)現(xiàn)、特征圖計算公式
導(dǎo)讀:其實(shí),考察的知識點(diǎn),博主都做過,但是,emmm,這些知識點(diǎn),在我寫代碼中,幾乎不會用到,so,會遺忘。所以,還需要下功夫,去多回憶回憶啦。
? ? ? 此次面試過程中,直接手推了整個CNN的發(fā)展歷史,寫滿了整個黑板,還分開了單步驟、多步驟經(jīng)典架構(gòu)及其它們之間的關(guān)系。但是,面我的技術(shù)貌似沒怎么理解,好像很不屑,此次面試,給我的整個感覺不太舒服。還包括,他才開始讓我手推LoR模型,但是我說,我想采用數(shù)學(xué)公式推導(dǎo),推導(dǎo)出來以后,說看不懂我寫的數(shù)學(xué)公式,其實(shí),LoR符合伯努利分布,可以數(shù)MLE化,取個log損失再平均,接著對系數(shù)進(jìn)行求偏導(dǎo)。what?面試官竟然沒看懂?dāng)?shù)學(xué)的推導(dǎo),我講解了一遍,并說出了為什么采用log損失,但是,他讓我用Tensorfow寫出該公式,這時候,我就感覺,這個面試官,emmmm。
? ? ??還有個細(xì)節(jié),在即將結(jié)束的時候,他應(yīng)該讓HR進(jìn)來和我聊,但該面試官離開面試房間之前,要求讓我把手推的CNN知識點(diǎn)—整個黑板,都全部擦掉。其實(shí)是可以在我最后離開面試房間的時候擦掉的,但是寫完就讓我擦掉,真是搞不懂該面試官的邏輯……
? ? ? ?補(bǔ)充一句,讓進(jìn)入下一輪技術(shù)面的鄭HR,感覺很nice,雖然沒見過其人(可能在復(fù)旦葉耀珍樓面試中有見到過),但是通過短信或者郵件聯(lián)系過程中,感覺該HR非常舒服噠。
目錄
知識點(diǎn)考察
1、特征圖計算公式
2、RetinaNet的focal loss損失函數(shù)意義
手撕代碼
1、機(jī)器學(xué)習(xí)崗位技術(shù)面試考點(diǎn)之LoR邏輯回歸的底層代碼實(shí)現(xiàn)
知識點(diǎn)考察
1、特征圖計算公式
往期文章:DL之CNN:卷積神經(jīng)網(wǎng)絡(luò)算法簡介之原理簡介(步幅/填充/特征圖)、七大層級結(jié)構(gòu)(動態(tài)圖詳解卷積/池化+方塊法理解卷積運(yùn)算)、CNN各層的作用等之詳細(xì)攻略
2、RetinaNet的focal loss損失函數(shù)意義
往期文章:DL之RetinaNet:RetinaNet算法的簡介(論文介紹)、架構(gòu)詳解、案例應(yīng)用等配圖集合之詳細(xì)攻略
手撕代碼
1、機(jī)器學(xué)習(xí)崗位技術(shù)面試考點(diǎn)之LoR邏輯回歸的底層代碼實(shí)現(xiàn)
思維導(dǎo)圖
代碼實(shí)現(xiàn)
ML之LoR:利用LoR算法(tensorflow)對mnist數(shù)據(jù)集實(shí)現(xiàn)手寫數(shù)字識別
?
總結(jié)
以上是生活随笔為你收集整理的Interview:算法岗位面试—10.12上午—上海某科技公司图像算法岗位(偏图像算法,互联网AI行业)技术面试考点之LoR逻辑回归的底层代码实现、特征图计算公式的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Interview:算法岗位面试—10.
- 下一篇: Interview:算法岗位面试—10.