日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

秋招人工智能笔试题

發(fā)布時間:2024/1/8 编程问答 24 豆豆
生活随笔 收集整理的這篇文章主要介紹了 秋招人工智能笔试题 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

秋招人工智能筆試題


面試是在陽臺上進行的,中午剛睡醒,然后就是開始自我介紹,然后就是簡單的寒暄。
然后根據(jù)簡歷,問我的項目細節(jié),問我使用的哪個卷積神經(jīng)網(wǎng)絡(luò)模型,為什么選擇這個模型,通常都有哪些模型。

1. 深度學習和過往的神經(jīng)網(wǎng)絡(luò)訓練方法有什么區(qū)別?列舉幾種深度學習的loss function,并說明意義


深度學習是一種方法,神經(jīng)網(wǎng)絡(luò)是個模型,深度學習方法呢可以有效解決層數(shù)多的神經(jīng)網(wǎng)絡(luò)不好學習的問題,為了讓層數(shù)較多的多層神經(jīng)網(wǎng)絡(luò)可以訓練,能夠起作用并演化出來的一系列的 新的結(jié)構(gòu)和新的方法

結(jié)構(gòu):一般分為兩大陣營,CNN,RNN,感覺這里欠妥,請指正。
方法:權(quán)重初始化方法(逐層初始化,XAVIER等),損失函數(shù),防止過擬合方法(Dropout, BN等)。
這些方面主要都是為了解決傳統(tǒng)的多層神經(jīng)網(wǎng)絡(luò)的一些不足:梯度消失,過擬合等。

  • 分類問題常用的損失函數(shù):
    (1)交叉熵損失函數(shù),也稱作softmax損失函數(shù),可用于解決多分類問題,通過指數(shù)化將輸出轉(zhuǎn)換成概率的形式;
    (2)合頁損失函數(shù),一般情況下,交叉熵損失函數(shù)的效果優(yōu)于合頁損失函數(shù);
    (3)坡道損失函數(shù),對離群點或者噪聲的抗干擾能力強,是一種魯棒性的損失函數(shù),對誤差較大的區(qū)域會進行截斷;
    (4)大間隔損失函數(shù),保證能夠正確分類的同時,還滿足增大類間的差異,提升了特征的分辨能力,防止網(wǎng)絡(luò)發(fā)生過擬合;
    (5)中心損失函數(shù),保證能夠正確分類的同時,還滿足減少類內(nèi)的差異,提升了特征的分辨能力;

  • 回歸問題常用的損失函數(shù):
    (1)l1損失函數(shù),衡量的是預(yù)測值與真實值之間的偏差;
    (2)l2損失函數(shù),效果 優(yōu)于l1;
    (3)tukey‘s biweight損失函數(shù),是一種具有魯棒性的損失函數(shù);

  • 其他任務(wù)的損失函數(shù):
    KL散度損失函數(shù),衡量的是樣本標記分布與真是標記分布的差異,可用于年齡估計等。


2. 什么是卷積神經(jīng)網(wǎng)絡(luò)?請說明卷積的意義

分開看就明確了,“卷積” 和 “神經(jīng)網(wǎng)絡(luò)”.
卷積也就是說神經(jīng)網(wǎng)絡(luò)不再是對每個像素的輸入信息做處理了,而是圖片上每一小塊像素區(qū)域進行處理, 這種做法加強了圖片信息的連續(xù)性. 使得神經(jīng)網(wǎng)絡(luò)能看到圖形, 而非一個點. 這種做法同時也加深了神經(jīng)網(wǎng)絡(luò)對圖片的理解.

具體來說, 卷積神經(jīng)網(wǎng)絡(luò)有一個批量過濾器, 持續(xù)不斷的在圖片上滾動收集圖片里的信息,每一次收集的時候都只是收集一小塊像素區(qū)域, 然后把收集來的信息進行整理, 這時候整理出來的信息有了一些實際上的呈現(xiàn), 比如這時的神經(jīng)網(wǎng)絡(luò)能看到一些邊緣的圖片信息, 然后在以同樣的步驟, 用類似的批量過濾器掃過產(chǎn)生的這些邊緣信息, 神經(jīng)網(wǎng)絡(luò)從這些邊緣信息里面總結(jié)出更高層的信息結(jié)構(gòu),比如說總結(jié)的邊緣能夠畫出眼睛,鼻子等等.

卷積的重要的物理意義是:一個函數(shù)(如:單位響應(yīng))在另一個函數(shù)(如:輸入信號)上的加權(quán)疊加,這就是卷積的意義:加權(quán)疊加,不同的卷積核提供了不同的加權(quán)方式,從而得到魯棒的特征,進行參數(shù)共享,大大減少了參數(shù)量,避免過擬合;


3. 什么是中文分詞? 列舉出幾種你所知的分詞方法

中文分詞就是將中文按語義分出詞語來,與英文不同,中文詞語之間沒有空格,需要根據(jù)語義經(jīng)驗等知識來將一組漢字序列進行切分出一個個詞語

中文分詞主要分為三種:
1)機械分詞法:是一種基于詞典的方法,是將文檔中的字符串與詞典中的詞條一一匹配,如果在詞典中找到了某個字符串,則匹配成功,可以切分,否則不予切分。該方法實現(xiàn)簡單,使用性強,但對于詞典的完備性要求很高。
2)基于語法和規(guī)則的分詞方法:是在分詞的同時進行句法和語義分析,通過句法和語義信息來標注詞性,以解決分詞歧義的現(xiàn)象。但漢語語法籠統(tǒng),復(fù)雜,所以該種方法的精度不盡人意,目前仍處于試驗階段。
3)基于統(tǒng)計的分詞法:根據(jù)字符串在語料中出現(xiàn)的統(tǒng)計詞頻來判斷其是否構(gòu)成一個詞。詞是字的組合,相鄰的字同時出現(xiàn)的次數(shù)越多越有可能成為一個詞。該種方法因精度高,效果穩(wěn)定,成為目前最流行的一種方法,常見的分詞模型有HMM, CRF, biLSTM+CRF等


4. 現(xiàn)在深度學習在nlp領(lǐng)域有哪些應(yīng)用? 請具體說明

  • 機器翻譯,or神經(jīng)機器翻譯(NMT)在翻譯中提供了統(tǒng)計方式之外的另一種方式,同時也更加簡便。
  • 知識問答,問答機器人,可以用深度學習模型,從語料中學習獲得一些問題的答案。
  • 自然語言生成,能夠根據(jù)一些關(guān)鍵信息及其在機器內(nèi)部的表達形式,經(jīng)過一個規(guī)劃過程,來自動生成一段高質(zhì)量的自然語言文本。

  • 5. 傳統(tǒng)圖像處理提取的sift特征是什么意思?

    sift指的是scale invarient feature transform,即尺度不變特征變換。
    sift特征是一種對縮放、旋轉(zhuǎn)、光照變化等不敏感的局部圖像特征,其提取過程是先生成圖像的尺度空間,然后在尺度空間中檢測極值點作為關(guān)鍵點,最后利用關(guān)鍵點鄰域的梯度信息生成特征描述符。

    6. 什么叫過擬合,避免過擬合都有哪些措施?

    答:過擬合:就是在機器學習中,我么測試模型的時候,提高了在訓練數(shù)據(jù)集的表現(xiàn)力時候,但是在訓練集上的表現(xiàn)力反而下降了。

    解決方案:

  • 正則化
  • 在訓練模型過程中,調(diào)節(jié)參數(shù)。學習率不要太大.
  • 對數(shù)據(jù)進行交叉驗證
  • 選擇適合訓練集合測試集數(shù)據(jù)的百分比,選取合適的停止訓練標準,使對機器的訓練在合適
  • 在神經(jīng)網(wǎng)絡(luò)模型中,我們可以減小權(quán)重
  • 7. LR和SVM的聯(lián)系與區(qū)別是什么?

  • 都是分類算法
  • 如果不考慮核函數(shù),LR和SVM都是線性分類算法,也就是說他們的分類決策面都是線性的
  • LR和SVM都是監(jiān)督學習算法
  • LR和SVM的損失函數(shù)不同
  • SVM只考慮局部的邊界線附近的點 ,LR考慮全局,遠離的點對邊界線的確定也起作用
  • 8. 給你一個有1000列和1百萬行的訓練數(shù)據(jù)集,這個數(shù)據(jù)集是基于分類問題的。經(jīng)理要求你來降低該數(shù)據(jù)集的維度以減少模型計算時間,但你的機器內(nèi)存有限。你會怎么做?(你可以自由做各種實際操作假設(shè)。)

  • 由于我們的RAM很小,首先要關(guān)閉機器上正在運行的其他程序,包括網(wǎng)頁瀏覽器等,以確保大部分內(nèi)存可以使用。
  • 我們可以隨機采樣數(shù)據(jù)集。這意味著,我們可以創(chuàng)建一個較小的數(shù)據(jù)集,比如有1000個變量和30萬行,然后做計算。
  • 為了降低維度,我們可以把數(shù)值變量和分類變量分開,同時刪掉相關(guān)聯(lián)的變量。對于數(shù)值變量,我們將使用相關(guān)性分析;對于分類變量,我們可以用卡方檢驗。
  • 另外,我們還可以使用PCA(主成分分析),并挑選可以解釋在數(shù)據(jù)集中有最大偏差的成分。
  • 利用在線學習算法,如VowpalWabbit(在Python中可用)是一個不錯的選擇。
  • 利用Stochastic GradientDescent(隨機梯度下降法)建立線性模型也很有幫助。
  • 我們也可以用我們對業(yè)務(wù)的理解來估計各預(yù)測變量對響應(yīng)變量的影響的大小。但是,這是一個主觀的方法,如果沒有找出有用的預(yù)測變量可能會導(dǎo)致信息的顯著丟失。
  • 9. 給你一個數(shù)據(jù)集,這個數(shù)據(jù)集有缺失值,且這些缺失值分布在離中值有1個標準偏差的范圍內(nèi)。百分之多少的數(shù)據(jù)不會受到影響?為什么?

    約有32%的數(shù)據(jù)將不受缺失值的影響。
    因為,由于數(shù)據(jù)分布在中位數(shù)附近,讓我們先假設(shè)這是一個正態(tài)分布。我們知道,在一個正態(tài)分布中,約有68%的數(shù)據(jù)位于跟平均數(shù)(或眾數(shù)、中位數(shù))1個標準差范圍內(nèi),那么剩下的約32%的數(shù)據(jù)是不受影響的。因此,約有32%的數(shù)據(jù)將不受缺失值的影響。

    10. 真陽性率和召回有什么關(guān)系?寫出方程式。

    真陽性率=召回。它們有相同的公式(TP / TP + FN)。

    11. 在k-means或kNN,我們是用歐氏距離來計算最近的鄰居之間的距離。為什么不用曼哈頓距離?

    我們不用曼哈頓距離,因為它只計算水平或垂直距離,有維度的限制。另一方面,歐氏距離可用于任何空間的距離計算問題。

    因為,數(shù)據(jù)點可以存在于任何空間,歐氏距離是更可行的選擇。
    例如:想象一下國際象棋棋盤,象或車所做的移動是由曼哈頓距離計算的,因為它們是在各自的水平和垂直方向做的運動。


    轉(zhuǎn)載和疑問聲明

    如果你有什么疑問或者想要轉(zhuǎn)載,沒有允許是不能轉(zhuǎn)載的哈
    贊賞一下能不能轉(zhuǎn)?哈哈,聯(lián)系我啊,我告訴你呢 ~~
    歡迎聯(lián)系我哈,我會給大家慢慢解答啦~~~怎么聯(lián)系我? 笨啊~ ~~ 你留言也行

    你關(guān)注微信公眾號1.機器學習算法工程師:2.或者掃那個二維碼,后臺發(fā)送 “我要加群”,聯(lián)系我也行啦!

    (愛心.gif) 么么噠 ~么么噠 ~么么噠
    碼字不易啊啊啊,如果你覺得本文有幫助,三毛也是愛!

    我祝各位帥哥,和美女,你們永遠十八歲,嗨嘿嘿~~~


    參考鏈接

    https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/5-03-A-CNN/
    https://www.zhihu.com/question/22298352/answer/34267457
    https://www.nowcoder.com/questionTerminal/42fe838421a84e279a67a0a16b874d29?source=relative
    http://www.elecfans.com/d/540309.html


    總結(jié)

    以上是生活随笔為你收集整理的秋招人工智能笔试题的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。