机器学习与word
1、下面關于vector representations for words描述正確的是?
A.?基于words總數N將每一個word映射到一個N維vector,即1-of-N Encoding
B.?同樣性質的word用相同的word class vector表示即word cluster
C.?每一個word映射到高維空間的dimension reduction?過程,即word embedding
D.?可以通過auto encoder隱藏層來表示
答案:A, B, C
難易程度:中
題型:多選題
?
2、下面關于word Embedding的實現方法描述正確的是:
A.?基于word-word在同一文檔共現次數與-word vector-word vector內積間的接近程度來尋找word vector即count based method
B.給定句子中詞匯的上文基于Neuro-Network預測詞匯下文的方法(第一層隱藏層作為輸入詞匯的word vector),即prediction based methon
C.?給定上下文去預測詞匯,即continuous bag of word(CBOW) model
D.?給定一個詞匯,去預測該詞匯的上下文,即skip-gram
答案:A, B, C, D
難易程度:中
題型:多選題
?
3、下面關于Neighbor Embedding描述正確的是:
A.?保持數據點間的關系,對數據點的空間進行降維,即Locally linear embedding
B.?Locally linear embedding鄰居節點的個數不能過大或過小
C.?求解數據點間smooth程度矩陣的特征向量,即Laplacian Eigenmaps
D.?相近的點降維后仍接近,不相近的點降維后不接近,即T-distributed stochastic Neighbor Embedding(t-SNE)
答案:A, B, C, D
難易程度:中
題型:多選題
?
4、Pre-training指預先設定______初始的______。
答案:Neuro Network;參數;
難易程度:中
題型:填空題
?
5、下面有關auto encoder描述正確的是
A.?目標是使output data和input data?越接近越好
B.?隱藏層的維數是對input data維數的降維
C.?de-noising auto-encoder指output data?與加噪前的data越接近
D.?de-noising auto-encoder指output data?與加噪后的data越接近
答案:A,?C
難易程度:中
題型:多選題
?
6、下面關于anto-encoder for CNN描述正確的是
A.?輸入數據經過convolutional layer、max pooling layer反復特征提取再經過un-pooling layer、deconvolutional layer反變換直至恢復原始數據
B. un-pooling指依據最大特征值及相應位置恢復卷積層的輸出
C. deconvolutional transform等價于convolutional transform
D. deconvolutional transform不同于convolutional transform,是convolutional transform的反變換
答案:A, B,?C
難易程度:中
題型:多選題
?
7、變量服從均值為,方差為的高斯分布,即,則下面屬于混合高斯模型(Gaussian Mixture Model)的是:
A.?y1~N(5,1)+N(9,1)+N(14,2)
B.?y2~1/3*N(5,1)+N(9,1)+N(14,2)
C.?y3~0.9*N(5,1)+0.05*N(9,1)+0.05*N(14,2)
D.?y4~0.2*N(5,1)+0.3*N(9,1)+N(14,2)
答案:?C
難易程度:中
題型:單選題
?
8、下面關于KL散度(divergence)描述正確的是?
A.?指用一個分布如均勻分布或二項分布等擬合另一個觀察到的分布時,信息損失的度量
B.?KL散度越大,表達效果越差
C.?KL散度越大,表達效果越好
D.?
答案:A, B, D
難易程度:中
題型:多選題
?
總結
- 上一篇: 服务器电阻的作用,DP口的终端电阻是什么
- 下一篇: 一阶RC滤波器,数字滤波器