日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

谷歌出品!机器学习中英文术语对照表

發布時間:2024/8/1 编程问答 39 豆豆
生活随笔 收集整理的這篇文章主要介紹了 谷歌出品!机器学习中英文术语对照表 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

機器學習?

來源:比特小組

轉自:Datawhale

機器學習術語表

Google 官方出品的機器學習中英文術語對照表,列出了一般的機器學習術語和 TensorFlow 專用術語的定義。版權歸谷歌,由Datawhale精心編譯制作,以方便大家手機上瀏覽、查閱和學習。

1A

A/B 測試 (A/B testing)

一種統計方法,用于將兩種或多種技術進行比較,通常是將當前采用的技術與新技術進行比較。A/B 測試不僅旨在確定哪種技術的效果更好,而且還有助于了解相應差異是否具有顯著的統計意義。A/B 測試通常是采用一種衡量方式對兩種技術進行比較,但也適用于任意有限數量的技術和衡量方式。

準確率 (accuracy)

分類模型的正確預測所占的比例。在多類別分類中,準確率的定義如下:

準確率正確的預測數樣本總數

二元分類中,準確率的定義如下:

準確率正例數負例數樣本總數

請參閱正例負例

激活函數 (activation function)

一種函數(例如 ReLUS 型函數),用于對上一層的所有輸入求加權和,然后生成一個輸出值(通常為非線性值),并將其傳遞給下一層。

AdaGrad

一種先進的梯度下降法,用于重新調整每個參數的梯度,以便有效地為每個參數指定獨立的學習速率。如需查看完整的解釋,請參閱這篇論文[1]

ROC 曲線下面積 (AUC, Area under the ROC Curve)

一種會考慮所有可能分類閾值的評估指標。

ROC 曲線下面積是,對于隨機選擇的正類別樣本確實為正類別,以及隨機選擇的負類別樣本為正類別,分類器更確信前者的概率。

2B

反向傳播算法 (backpropagation)

神經網絡上執行梯度下降法的主要算法。該算法會先按前向傳播方式計算(并緩存)每個節點的輸出值,然后再按反向傳播遍歷圖的方式計算損失函數值相對于每個參數的偏導數[2]

基準 (baseline)

一種簡單的模型或啟發法,用作比較模型效果時的參考點。基準有助于模型開發者針對特定問題量化最低預期效果。

批次 (batch)

模型訓練的一次迭代(即一次梯度更新)中使用的樣本集。

另請參閱批次大小

批次大小 (batch size)

一個批次中的樣本數。例如,SGD 的批次大小為 1,而小批次的大小通常介于 10 到 1000 之間。批次大小在訓練和推斷期間通常是固定的;不過,TensorFlow 允許使用動態批次大小。

偏差 (bias)

距離原點的截距或偏移。偏差(也稱為偏差項)在機器學習模型中用??或??表示。例如,在下面的公式中,偏差為?:

請勿與預測偏差混淆。

二元分類 (binary classification)

一種分類任務,可輸出兩種互斥類別之一。例如,對電子郵件進行評估并輸出"垃圾郵件"或"非垃圾郵件"的機器學習模型就是一個二元分類器。

分箱 (binning)

請參閱分桶

分桶 (bucketing)

將一個特征(通常是連續特征)轉換成多個二元特征(稱為桶或箱),通常根據值區間進行轉換。例如,您可以將溫度區間分割為離散分箱,而不是將溫度表示成單個連續的浮點特征。假設溫度數據可精確到小數點后一位,則可以將介于 0.0 到 15.0 度之間的所有溫度都歸入一個分箱,將介于 15.1 到 30.0 度之間的所有溫度歸入第二個分箱,并將介于 30.1 到 50.0 度之間的所有溫度歸入第三個分箱。

3C

校準層 (calibration layer)

一種預測后調整,通常是為了降低預測偏差的影響。調整后的預測和概率應與觀察到的標簽集的分布一致。

候選采樣 (candidate sampling)

一種訓練時進行的優化,會使用某種函數(例如 softmax)針對所有正類別標簽計算概率,但對于負類別標簽,則僅針對其隨機樣本計算概率。例如,如果某個樣本的標簽為"小獵犬"和"狗",則候選采樣將針對"小獵犬"和"狗"類別輸出以及其他類別(貓、棒棒糖、柵欄)的隨機子集計算預測概率和相應的損失項。這種采樣基于的想法是,只要正類別始終得到適當的正增強,負類別就可以從頻率較低的負增強中進行學習,這確實是在實際中觀察到的情況。候選采樣的目的是,通過不針對所有負類別計算預測結果來提高計算效率。

分類數據 (categorical data)

一種特征,擁有一組離散的可能值。以某個名為 house style的分類特征為例,該特征擁有一組離散的可能值(共三個),即Tudor, ranch, colonial。通過將 house style表示成分類數據,相應模型可以學習 Tudor、ranch 和 colonial分別對房價的影響。

有時,離散集中的值是互斥的,只能將其中一個值應用于指定樣本。例如,car maker分類特征可能只允許一個樣本有一個值 (Toyota)。在其他情況下,則可以應用多個值。一輛車可能會被噴涂多種不同的顏色,因此,car color分類特征可能會允許單個樣本具有多個值(例如 red 和 white)。

分類特征有時稱為離散特征

數值數據相對。

形心 (centroid)

聚類的中心,由 k-meansk-median算法決定。例如,如果 k 為 3,則 k-means 或 k-median 算法會找出 3 個形心。

檢查點 (checkpoint)

一種數據,用于捕獲模型變量在特定時間的狀態。借助檢查點,可以導出模型權重,跨多個會話執行訓練,以及使訓練在發生錯誤之后得以繼續(例如作業搶占)。請注意,本身不包含在檢查點中。

類別 (class)

為標簽枚舉的一組目標值中的一個。例如,在檢測垃圾郵件的二元分類模型中,兩種類別分別是"垃圾郵件"和"非垃圾郵件"。在識別狗品種的多類別分類模型中,類別可以是"貴賓犬"、"小獵犬"、"哈巴犬"等等。

分類不平衡的數據集 (class-imbalanced data set)

一種二元分類問題,在此類問題中,兩種類別的標簽在出現頻率方面具有很大的差距。例如,在某個疾病數據集中,0.0001 的樣本具有正類別標簽,0.9999 的樣本具有負類別標簽,這就屬于分類不平衡問題;但在某個足球比賽預測器中,0.51 的樣本的標簽為其中一個球隊贏,0.49 的樣本的標簽為另一個球隊贏,這就不屬于分類不平衡問題。

分類模型 (classification model)

一種機器學習模型,用于區分兩種或多種離散類別。例如,某個自然語言處理分類模型可以確定輸入的句子是法語、西班牙語還是意大利語。請與回歸模型進行比較。

分類閾值 (classification threshold)

一種標量值條件,應用于模型預測的得分,旨在將正類別負類別區分開。將邏輯回歸結果映射到二元分類時使用。以某個邏輯回歸模型為例,該模型用于確定指定電子郵件是垃圾郵件的概率。如果分類閾值為 0.9,那么邏輯回歸值高于 0.9 的電子郵件將被歸類為"垃圾郵件",低于 0.9 的則被歸類為"非垃圾郵件"。

聚類 (clustering)

將關聯的樣本分成一組,一般用于非監督式學習。在所有樣本均分組完畢后,相關人員便可選擇性地為每個聚類賦予含義。

聚類算法有很多。例如,k-means算法會基于樣本與形心的接近程度聚類樣本,如下圖所示:

之后,研究人員便可查看這些聚類并進行其他操作,例如,將聚類 1 標記為"矮型樹",將聚類 2 標記為"全尺寸樹"。

再舉一個例子,例如基于樣本與中心點距離的聚類算法,如下所示:

協同過濾 (collaborative filtering)

根據很多其他用戶的興趣來預測某位用戶的興趣。協同過濾通常用在推薦系統中。

混淆矩陣 (confusion matrix)

一種 NxN 表格,用于總結分類模型的預測效果;即標簽和模型預測的分類之間的關聯。在混淆矩陣中,一個軸表示模型預測的標簽,另一個軸表示實際標簽。N 表示類別個數。在二元分類問題中,N=2。例如,下面顯示了一個二元分類問題的混淆矩陣示例:


腫瘤預測標簽非腫瘤預測標簽
腫瘤實際標簽181
非腫瘤實際標簽6452

上面的混淆矩陣顯示,在 19 個實際有腫瘤的樣本中,該模型正確地將 18 個歸類為有腫瘤(18 個正例),錯誤地將 1 個歸類為沒有腫瘤(1 個假負例)。同樣,在 458 個實際沒有腫瘤的樣本中,模型歸類正確的有 452 個(452 個負例),歸類錯誤的有 6 個(6 個假正例)。

多類別分類問題的混淆矩陣有助于確定出錯模式。例如,某個混淆矩陣可以揭示,某個經過訓練以識別手寫數字的模型往往會將 4 錯誤地預測為 9,將 7 錯誤地預測為 1。

混淆矩陣包含計算各種效果指標(包括精確率召回率)所需的充足信息。

連續特征 (continuous feature)

一種浮點特征,可能值的區間不受限制。與離散特征相對。

收斂 (convergence)

通俗來說,收斂通常是指在訓練期間達到的一種狀態,即經過一定次數的迭代之后,訓練損失和驗證損失在每次迭代中的變化都非常小或根本沒有變化。也就是說,如果采用當前數據進行額外的訓練將無法改進模型,模型即達到收斂狀態。在深度學習中,損失值有時會在最終下降之前的多次迭代中保持不變或幾乎保持不變,暫時形成收斂的假象。

另請參閱早停法

另請參閱 Boyd 和 Vandenberghe 合著的 Convex Optimization(《凸優化》)。

凸函數 (convex function)

一種函數,函數圖像以上的區域為凸集。典型凸函數的形狀類似于字母U。例如,以下都是凸函數:

典型凸函數的形狀類似于字母 U。

相反,以下函數則不是凸函數。請注意圖像上方的區域如何不是凸集:

嚴格凸函數只有一個局部最低點,該點也是全局最低點。經典的 U 形函數都是嚴格凸函數。不過,有些凸函數(例如直線)則不是這樣。

很多常見的損失函數(包括下列函數)都是凸函數:

  • ?損失函數

  • 對數損失函數

  • ?正則化

  • ?正則化

梯度下降法的很多變體都一定能找到一個接近嚴格凸函數最小值的點。同樣,隨機梯度下降法的很多變體都有很高的可能性能夠找到接近嚴格凸函數最小值的點(但并非一定能找到)。

兩個凸函數的和(例如??損失函數 +??正則化)也是凸函數。

深度模型絕不會是凸函數。值得注意的是,專門針對凸優化設計的算法往往總能在深度網絡上找到非常好的解決方案,雖然這些解決方案并不一定對應于全局最小值。

凸優化 (convex optimization)

使用數學方法(例如梯度下降法)尋找凸函數最小值的過程。機器學習方面的大量研究都是專注于如何通過公式將各種問題表示成凸優化問題,以及如何更高效地解決這些問題。

如需完整的詳細信息,請參閱 Boyd 和 Vandenberghe 合著的 Convex Optimization(《凸優化》)。

凸集 (convex set)

歐幾里得空間的一個子集,其中任意兩點之間的連線仍完全落在該子集內。例如,下面的兩個圖形都是凸集:

矩形和半橢圓形都是凸集。

相反,下面的兩個圖形都不是凸集:

缺少一塊的餅圖以及煙花圖都是非凸集。

卷積 (convolution)

簡單來說,卷積在數學中指兩個函數的組合。在機器學習中,卷積結合使用卷積過濾器和輸入矩陣來訓練權重。

機器學習中的"卷積"一詞通常是卷積運算卷積層的簡稱。

如果沒有卷積,機器學習算法就需要學習大張量中每個單元格各自的權重。例如,用 2K x 2K 圖像訓練的機器學習算法將被迫找出 400 萬個單獨的權重。而使用卷積,機器學習算法只需在卷積過濾器中找出每個單元格的權重,大大減少了訓練模型所需的內存。在應用卷積過濾器后,它只需跨單元格進行復制,每個單元格都會與過濾器相乘。

卷積過濾器 (convolutional filter)

卷積運算中的兩個參與方之一。(另一個參與方是輸入矩陣切片。)卷積過濾器是一種矩陣,其等級與輸入矩陣相同,但形狀小一些。以 28×28 的輸入矩陣為例,過濾器可以是小于 28×28 的任何二維矩陣。

在圖形操作中,卷積過濾器中的所有單元格通常按照固定模式設置為 1 和 0。在機器學習中,卷積過濾器通常先選擇隨機數字,然后由網絡訓練出理想值。

卷積層 (convolutional layer)

深度神經網絡的一個層,卷積過濾器會在其中傳遞輸入矩陣。以下面的 3x3 卷積過濾器為例:

下面的動畫顯示了一個由 9 個卷積運算(涉及 5x5 輸入矩陣)組成的卷積層。請注意,每個卷積運算都涉及一個不同的 3x3 輸入矩陣切片。由此產生的 3×3 矩陣(右側)就包含 9 個卷積運算的結果:

卷積神經網絡 (convolutional neural network)

一種神經網絡,其中至少有一層為卷積層。典型的卷積神經網絡包含以下幾層的組合:

  • 卷積層

  • 池化層

  • 密集層

卷積神經網絡在解決某些類型的問題(如圖像識別)上取得了巨大成功。

卷積運算 (convolutional operation)

如下所示的兩步數學運算:

  • 卷積過濾器和輸入矩陣切片執行元素級乘法。(輸入矩陣切片與卷積過濾器具有相同的等級和大小。)

  • 對生成的積矩陣中的所有值求和。

  • 以下面的 5x5 輸入矩陣為例:

    現在,以下面這個 2x2 卷積過濾器為例:

    每個卷積運算都涉及一個 2x2 輸入矩陣切片。例如,假設我們使用輸入矩陣左上角的 2x2 切片。這樣一來,對此切片進行卷積運算將如下所示:

    卷積層由一系列卷積運算組成,每個卷積運算都針對不同的輸入矩陣切片。

    成本 (cost)

    損失的含義相同。

    交叉熵 (cross-entropy)

    對數損失函數多類別分類問題的一種泛化。交叉熵可以量化兩種概率分布之間的差異。另請參閱困惑度

    自定義 Estimator (custom Estimator)

    您按照這些說明[3]自行編寫的Estimator

    預創建的 Estimator 相對。

    4D

    數據分析 (data analysis)

    根據樣本、測量結果和可視化內容來理解數據。數據分析在首次收到數據集、構建第一個模型之前特別有用。此外,數據分析在理解實驗和調試系統問題方面也至關重要。

    DataFrame

    一種熱門的數據類型,用于表示 Pandas 中的數據集。DataFrame 類似于表格。DataFrame 的每一列都有一個名稱(標題),每一行都由一個數字標識。

    數據集 (data set)

    一組樣本的集合。

    Dataset API (tf.data)

    一種高級別的 TensorFlow API,用于讀取數據并將其轉換為機器學習算法所需的格式。tf.data.Dataset對象表示一系列元素,其中每個元素都包含一個或多個張量。tf.data.Iterator對象可獲取 Dataset 中的元素。

    如需詳細了解 Dataset API,請參閱《TensorFlow 編程人員指南》中的導入數據[4]

    決策邊界 (decision boundary)

    二元分類多類別分類問題中,模型學到的類別之間的分界線。例如,在以下表示某個二元分類問題的圖片中,決策邊界是橙色類別和藍色類別之間的分界線:

    兩種類別之間明確定義的邊界。

    密集層 (dense layer)

    全連接層的含義相同。

    深度模型 (deep model)

    一種神經網絡,其中包含多個隱藏層。深度模型依賴于可訓練的非線性關系。

    寬度模型相對。

    密集特征 (dense feature)

    一種大部分值是非零值的特征,通常是浮點值張量。與稀疏特征相對。

    設備 (device)

    一類可運行 TensorFlow 會話的硬件,包括 CPU、GPU 和 TPU。

    離散特征 (discrete feature)

    一種特征,包含有限個可能值。例如,某個值只能是"動物"、"蔬菜"或"礦物"的特征便是一個離散特征(或分類特征)。與連續特征相對。

    丟棄正則化 (dropout regularization)

    正則化的一種形式,在訓練神經網絡方面非常有用。丟棄正則化的運作機制是,在一個梯度步長中移除從神經網絡層中隨機選擇的固定數量的單元。丟棄的單元越多,正則化效果就越強。這類似于訓練神經網絡以模擬較小網絡的指數級規模集成學習。如需完整的詳細信息,請參閱Dropout: A Simple Way to Prevent Neural Networks from Overfitting(《丟棄:一種防止神經網絡過擬合的簡單方法》)。

    動態模型 (dynamic model)

    一種模型,以持續更新的方式在線接受訓練。也就是說,數據會源源不斷地進入這種模型。

    5E

    早停法 (early stopping)

    一種正則化方法,是指在訓練損失仍可以繼續降低之前結束模型訓練。使用早停法時,您會在驗證數據集的損失開始增大(也就是泛化效果變差)時結束模型訓練。

    嵌套 (embeddings)

    一種分類特征,以連續值特征表示。通常,嵌套是指將高維度向量映射到低維度的空間。例如,您可以采用以下兩種方式之一來表示英文句子中的單詞:

    • 表示成包含百萬個元素(高維度)的稀疏向量,其中所有元素都是整數。向量中的每個單元格都表示一個單獨的英文單詞,單元格中的值表示相應單詞在句子中出現的次數。由于單個英文句子包含的單詞不太可能超過 50 個,因此向量中幾乎每個單元格都包含 0。少數非 0 的單元格中將包含一個非常小的整數(通常為 1),該整數表示相應單詞在句子中出現的次數。

    • 表示成包含數百個元素(低維度)的密集向量,其中每個元素都存儲一個介于 0 到 1 之間的浮點值。這就是一種嵌套。

    在 TensorFlow 中,會按反向傳播損失訓練嵌套,和訓練神經網絡中的任何其他參數一樣。

    經驗風險最小化 (ERM, empirical risk minimization)

    用于選擇可以將基于訓練集的損失降至最低的函數。與結構風險最小化相對。

    集成學習 (ensemble)

    多個模型的預測結果的并集。您可以通過以下一項或多項來創建集成學習:

    • 不同的初始化

    • 不同的超參數

    • 不同的整體結構

    深度模型和寬度模型[5]屬于一種集成學習。

    周期 (epoch)

    在訓練時,整個數據集的一次完整遍歷,以便不漏掉任何一個樣本。因此,一個周期表示(N/批次大小)次訓練迭代,其中N 是樣本總數。

    Estimator

    tf.Estimator 類的一個實例,用于封裝負責構建 TensorFlow 圖并運行 TensorFlow 會話的邏輯。您可以創建自定義 Estimator(如需相關介紹,請點擊此處[6]),也可以實例化其他人預創建的 Estimator

    樣本 (example)

    數據集的一行。一個樣本包含一個或多個特征,此外還可能包含一個標簽。另請參閱有標簽樣本無標簽樣本

    6F

    假負例 (FN, false negative)

    被模型錯誤地預測為負類別的樣本。例如,模型推斷出某封電子郵件不是垃圾郵件(負類別),但該電子郵件其實是垃圾郵件。

    假正例 (FP, false positive)

    被模型錯誤地預測為正類別的樣本。例如,模型推斷出某封電子郵件是垃圾郵件(正類別),但該電子郵件其實不是垃圾郵件。

    假正例率(false positive rate, 簡稱 FP 率)

    ROC 曲線中的 x 軸。FP 率的定義如下:

    假正例率假正例數假正例數負例數

    特征 (feature)

    在進行預測時使用的輸入變量。

    特征列 (tf.feature_column)

    指定模型應該如何解讀特定特征的一種函數。此類函數的輸出結果是所有Estimators 構造函數的必需參數。

    借助 tf.feature_column函數,模型可對輸入特征的不同表示法輕松進行實驗。有關詳情,請參閱《TensorFlow 編程人員指南》中的特征列[7]一章。

    "特征列"是 Google 專用的術語。特征列在 Yahoo/Microsoft 使用的VW[8]系統中稱為"命名空間",也稱為場[9]

    特征組合 (feature cross)

    通過將單獨的特征進行組合(求笛卡爾積)而形成的合成特征。特征組合有助于表達非線性關系。

    特征工程 (feature engineering)

    指以下過程:確定哪些特征可能在訓練模型方面非常有用,然后將日志文件及其他來源的原始數據轉換為所需的特征。在 TensorFlow 中,特征工程通常是指將原始日志文件條目轉換為tf.Example 協議緩沖區。另請參閱tf.Transform[10]

    特征工程有時稱為特征提取

    特征集 (feature set)

    訓練機器學習模型時采用的一組特征。例如,對于某個用于預測房價的模型,郵政編碼、房屋面積以及房屋狀況可以組成一個簡單的特征集。

    特征規范 (feature spec)

    用于描述如何從 tf.Example協議緩沖區提取特征數據。由于 tf.Example 協議緩沖區只是一個數據容器,因此您必須指定以下內容:

    • 要提取的數據(即特征的鍵)

    • 數據類型(例如 float 或 int)

    • 長度(固定或可變)

    Estimator API 提供了一些可用來根據給定FeatureColumns 列表生成特征規范的工具。

    少量樣本學習 (few-shot learning)

    一種機器學習方法(通常用于對象分類),旨在僅通過少量訓練樣本學習有效的分類器。

    另請參閱單樣本學習

    完整 softmax (full softmax)

    請參閱softmax。與候選采樣相對。

    全連接層 (fully connected layer)

    一種隱藏層,其中的每個節點均與下一個隱藏層中的每個節點相連。

    全連接層又稱為密集層

    7G

    泛化 (generalization)

    指的是模型依據訓練時采用的數據,針對以前未見過的新數據做出正確預測的能力。

    廣義線性模型 (generalized linear model)

    最小二乘回歸模型(基于高斯噪聲[11])向其他類型的模型(基于其他類型的噪聲,例如泊松噪聲[12]或分類噪聲)進行的一種泛化。廣義線性模型的示例包括:

    • 邏輯回歸

    • 多類別回歸

    • 最小二乘回歸

    可以通過凸優化[13]找到廣義線性模型的參數。

    廣義線性模型具有以下特性:

    • 最優的最小二乘回歸模型的平均預測結果等于訓練數據的平均標簽。

    • 最優的邏輯回歸模型預測的平均概率等于訓練數據的平均標簽。

    廣義線性模型的功能受其特征的限制。與深度模型不同,廣義線性模型無法"學習新特征"。

    梯度 (gradient)

    偏導數相對于所有自變量的向量。在機器學習中,梯度是模型函數偏導數的向量。梯度指向最高速上升的方向。

    梯度裁剪 (gradient clipping)

    在應用梯度值之前先設置其上限。梯度裁剪有助于確保數值穩定性以及防止梯度爆炸[14]

    梯度下降法 (gradient descent)

    一種通過計算并且減小梯度將損失降至最低的技術,它以訓練數據為條件,來計算損失相對于模型參數的梯度。通俗來說,梯度下降法以迭代方式調整參數,逐漸找到權重和偏差的最佳組合,從而將損失降至最低。

    圖 (graph)

    TensorFlow 中的一種計算規范。圖中的節點表示操作。邊緣具有方向,表示將某項操作的結果(一個張量[15])作為一個操作數傳遞給另一項操作。可以使用TensorBoard 直觀呈現圖。

    8H

    啟發法 (heuristic)

    一種非最優但實用的問題解決方案,足以用于進行改進或從中學習。

    隱藏層 (hidden layer)

    神經網絡中的合成層,介于輸入層(即特征)和輸出層(即預測)之間。神經網絡包含一個或多個隱藏層。

    合頁損失函數 (hinge loss)

    一系列用于分類損失函數,旨在找到距離每個訓練樣本都盡可能遠的決策邊界,從而使樣本和邊界之間的裕度最大化。KSVM使用合頁損失函數(或相關函數,例如平方合頁損失函數)。對于二元分類,合頁損失函數的定義如下:

    其中??表示分類器模型的原始輸出:

    ?表示真標簽,值為 -1 或 +1。

    因此,合頁損失與 () 的關系圖如下所示:

    維持數據 (holdout data)

    訓練期間故意不使用("維持")的樣本驗證數據集測試數據集都屬于維持數據。維持數據有助于評估模型向訓練時所用數據之外的數據進行泛化的能力。與基于訓練數據集的損失相比,基于維持數據集的損失有助于更好地估算基于未見過的數據集的損失。

    超參數 (hyperparameter)

    在模型訓練的連續過程中,您調節的"旋鈕"。例如,學習速率就是一種超參數。

    參數相對。

    超平面 (hyperplane)

    將一個空間劃分為兩個子空間的邊界。例如,在二維空間中,直線就是一個超平面,在三維空間中,平面則是一個超平面。在機器學習中更典型的是:超平面是分隔高維度空間的邊界。核支持向量機利用超平面將正類別和負類別區分開來(通常是在極高維度空間中)。

    9I

    獨立同等分布 (i.i.d, independently and identically distributed)

    從不會改變的分布中提取的數據,其中提取的每個值都不依賴于之前提取的值。i.i.d. 是機器學習的理想氣體[16] - 一種實用的數學結構,但在現實世界中幾乎從未發現過。例如,某個網頁的訪問者在短時間內的分布可能為 i.i.d.,即分布在該短時間內沒有變化,且一位用戶的訪問行為通常與另一位用戶的訪問行為無關。不過,如果將時間窗口擴大,網頁訪問者的分布可能呈現出季節性變化。

    推斷 (inference)

    在機器學習中,推斷通常指以下過程:通過將訓練過的模型應用于無標簽樣本來做出預測。在統計學中,推斷是指在某些觀測數據條件下擬合分布參數的過程。(請參閱維基百科中有關統計學推斷的文章[17]。)

    輸入函數 (input function)

    在 TensorFlow 中,用于將輸入數據返回到 Estimator的訓練、評估或預測方法的函數。例如,訓練輸入函數會返回訓練集中的一批特征和標簽。

    輸入層 (input layer)

    神經網絡中的第一層(接收輸入數據的層)。

    實例 (instance)

    樣本的含義相同。

    可解釋性 (interpretability)

    模型的預測可解釋的難易程度。深度模型通常不可解釋,也就是說,很難對深度模型的不同層進行解釋。相比之下,線性回歸模型和寬度模型的可解釋性通常要好得多。

    評分者間一致性信度 (inter-rater agreement)

    一種衡量指標,用于衡量在執行某項任務時評分者達成一致的頻率。如果評分者未達成一致,則可能需要改進任務說明。有時也稱為注釋者間一致性信度評分者間可靠性信度。另請參閱Cohen's kappa(最熱門的評分者間一致性信度衡量指標之一)。

    迭代 (iteration)

    模型的權重在訓練期間的一次更新。迭代包含計算參數在單批次數據上的梯度損失。

    10K

    k-means

    一種熱門的聚類算法,用于對非監督式學習中的樣本進行分組。k-means 算法基本上會執行以下操作:

    • 以迭代方式確定最佳的 k 中心點(稱為形心)。

    • 將每個樣本分配到最近的形心。與同一個形心距離最近的樣本屬于同一個組。

    k-means 算法會挑選形心位置,以最大限度地減小每個樣本與其最接近形心之間的距離的累積平方。

    以下面的小狗高度與小狗寬度的關系圖為例:

    如果 k=3,則 k-means 算法會確定三個形心。每個樣本都被分配到與其最接近的形心,最終產生三個組:

    假設制造商想要確定小、中和大號狗毛衣的理想尺寸。在該聚類中,三個形心用于標識每只狗的平均高度和平均寬度。因此,制造商可能應該根據這三個形心確定毛衣尺寸。請注意,聚類的形心通常不是聚類中的樣本。

    上圖顯示了 k-means 應用于僅具有兩個特征(高度和寬度)的樣本。請注意,k-means 可以跨多個特征為樣本分組。

    k-median

    k-means 緊密相關的聚類算法。兩者的實際區別如下:

    • 對于 k-means,確定形心的方法是,最大限度地減小候選形心與它的每個樣本之間的距離平方和。

    • 對于 k-median,確定形心的方法是,最大限度地減小候選形心與它的每個樣本之間的距離總和。

    請注意,距離的定義也有所不同:

    • k-means 采用從形心到樣本的歐幾里得距離[18]。(在二維空間中,歐幾里得距離即使用勾股定理來計算斜邊。)例如,(2,2) 與 (5,-2) 之間的 k-means 距離為:

    歐幾里德距離

    • k-median 采用從形心到樣本的曼哈頓距離[19]。這個距離是每個維度中絕對差異值的總和。例如,(2,2) 與 (5,-2) 之間的 k-median 距離為:

    曼哈頓距離

    Keras

    一種熱門的 Python 機器學習 API。Keras[20]能夠在多種深度學習框架上運行,其中包括 TensorFlow(在該框架上,Keras 作為tf.keras[21]提供)。

    核支持向量機 (KSVM, Kernel Support Vector Machines)

    一種分類算法,旨在通過將輸入數據向量映射到更高維度的空間,來最大化正類別負類別之間的裕度。以某個輸入數據集包含一百個特征的分類問題為例。為了最大化正類別和負類別之間的裕度,KSVM 可以在內部將這些特征映射到百萬維度的空間。KSVM 使用合頁損失函數。

    11L

    ?損失函數 (?loss)

    一種損失函數,基于模型預測的值與標簽的實際值之差的絕對值。與?損失函數相比,?損失函數對離群值的敏感性弱一些。

    ?正則化 (?regularization)

    一種正則化,根據權重的絕對值的總和來懲罰權重。在依賴稀疏特征的模型中,?正則化有助于使不相關或幾乎不相關的特征的權重正好為 0,從而將這些特征從模型中移除。與 ?正則化相對。

    ?損失函數 (?loss)

    請參閱平方損失函數

    ?正則化 (?regularization)

    一種正則化,根據權重的平方和來懲罰權重。?正則化有助于使離群值(具有較大正值或較小負值)權重接近于 0,但又不正好為 0。(與 L1 正則化相對。)在線性模型中,?正則化始終可以改進泛化。

    標簽 (label)

    在監督式學習中,標簽指樣本的"答案"或"結果"部分。有標簽數據集中的每個樣本都包含一個或多個特征以及一個標簽。例如,在房屋數據集中,特征可能包括臥室數、衛生間數以及房齡,而標簽則可能是房價。在垃圾郵件檢測數據集中,特征可能包括主題行、發件人以及電子郵件本身,而標簽則可能是"垃圾郵件"或"非垃圾郵件"。

    有標簽樣本 (labeled example)

    包含特征標簽的樣本。在監督式訓練中,模型從有標簽樣本中學習規律。

    lambda

    正則化率的含義相同。

    (多含義術語,我們在此關注的是該術語在正則化中的定義。)

    層 (layer)

    神經網絡中的一組神經元,負責處理一組輸入特征,或一組神經元的輸出。

    此外還指 TensorFlow 中的抽象層。層是 Python 函數,以張量和配置選項作為輸入,然后生成其他張量作為輸出。當必要的張量組合起來后,用戶便可以通過模型函數將結果轉換為Estimator

    Layers API (tf.layers)

    一種 TensorFlow API,用于以層組合的方式構建深度神經網絡。通過 Layers API,您可以構建不同類型的,例如:

    • 通過 tf.layers.Dense 構建全連接層

    • 通過 tf.layers.Conv2D 構建卷積層。

    在編寫自定義 Estimator時,您可以編寫"層"對象來定義所有隱藏層的特征。

    Layers API 遵循 Keras layers API 規范。也就是說,除了前綴不同以外,Layers API 中的所有函數均與 Keras layers API 中的對應函數具有相同的名稱和簽名。

    學習速率 (learning rate)

    在訓練模型時用于梯度下降的一個標量。在每次迭代期間,梯度下降法都會將學習速率與梯度相乘。得出的乘積稱為梯度步長

    學習速率是一個重要的超參數

    最小二乘回歸 (least squares regression)

    一種通過最小化 ?損失訓練出的線性回歸模型。

    線性回歸 (linear regression)

    一種回歸模型,通過將輸入特征進行線性組合輸出連續值。

    邏輯回歸 (logistic regression)

    一種模型,通過將 S 型函數應用于線性預測,生成分類問題中每個可能的離散標簽值的概率。雖然邏輯回歸經常用于二元分類問題,但也可用于多類別分類問題(其叫法變為多類別邏輯回歸多項回歸)。

    對數 (logits)

    分類模型生成的原始(非標準化)預測向量,通常會傳遞給標準化函數。如果模型要解決多類別分類問題,則對數通常變成softmax 函數的輸入。之后,softmax 函數會生成一個(標準化)概率向量,對應于每個可能的類別。

    此外,對數有時也稱為 S 型函數的元素級反函數。如需了解詳細信息,請參閱sigmoid cross entropy with logits[22]

    對數損失函數 (Log Loss)

    二元邏輯回歸中使用的損失函數。

    對數幾率 (log-odds)

    某個事件幾率的對數。

    如果事件涉及二元概率,則幾率指的是成功概率 (p) 與失敗概率 (1-p) 之比。例如,假設某個給定事件的成功概率為 90%,失敗概率為 10%。在這種情況下,幾率的計算公式如下:

    幾率

    簡單來說,對數幾率即幾率的對數。按照慣例,"對數"指自然對數,但對數的基數其實可以是任何大于 1 的數。若遵循慣例,上述示例的對數幾率應為:

    對數幾率

    對數幾率是 S 型函數的反函數。

    損失 (Loss)

    一種衡量指標,用于衡量模型的預測偏離其標簽的程度。或者更悲觀地說是衡量模型有多差。要確定此值,模型必須定義損失函數。例如,線性回歸模型通常將均方誤差用作損失函數,而邏輯回歸模型則使用對數損失函數

    12M

    機器學習 (machine learning)

    一種程序或系統,用于根據輸入數據構建(訓練)預測模型。這種系統會利用學到的模型根據從分布(訓練該模型時使用的同一分布)中提取的新數據(以前從未見過的數據)進行實用的預測。機器學習還指與這些程序或系統相關的研究領域。

    均方誤差 (MSE, Mean Squared Error)

    每個樣本的平均平方損失。MSE 的計算方法是平方損失除以樣本數。TensorFlow Playground顯示的"訓練損失"值和"測試損失"值都是 MSE。

    指標 (metric)

    您關心的一個數值。可能可以也可能不可以直接在機器學習系統中得到優化。您的系統嘗試優化的指標稱為目標

    Metrics API (tf.metrics)

    一種用于評估模型的 TensorFlow API。例如,tf.metrics.accuracy用于確定模型的預測與標簽匹配的頻率。在編寫自定義 Estimator 時,您可以調用 Metrics API 函數來指定應如何評估您的模型。

    小批次 (mini-batch)

    從整批樣本內隨機選擇并在訓練或推斷過程的一次迭代中一起運行的一小部分樣本。小批次的批次大小通常介于 10 到 1000 之間。與基于完整的訓練數據計算損失相比,基于小批次數據計算損失要高效得多。

    小批次隨機梯度下降法 (SGD, mini-batch stochastic gradient descent)

    一種采用小批次樣本的梯度下降法。也就是說,小批次 SGD 會根據一小部分訓練數據來估算梯度。Vanilla SGD使用的小批次的大小為 1。

    ML

    機器學習的縮寫。

    模型 (model)

    機器學習系統從訓練數據學到的內容的表示形式。多含義術語,可以理解為下列兩種相關含義之一:

    • 一種 TensorFlow 圖,用于表示預測的計算結構。

    • 該 TensorFlow 圖的特定權重和偏差,通過訓練決定。

    模型函數 (model function)

    Estimator中的函數,用于實現機器學習訓練、評估和推斷。例如,模型函數的訓練部分可以處理以下任務:定義深度神經網絡的拓撲并確定其優化器函數。如果使用預創建的 Estimator,則有人已為您編寫了模型函數。如果使用自定義 Estimator,則必須自行編寫模型函數。

    有關編寫模型函數的詳細信息,請參閱創建自定義 Estimator。

    模型訓練 (model training)

    確定最佳模型的過程。

    動量 (Momentum)

    一種先進的梯度下降法,其中學習步長不僅取決于當前步長的導數,還取決于之前一步或多步的步長的導數。動量涉及計算梯度隨時間而變化的指數級加權移動平均值,與物理學中的動量類似。動量有時可以防止學習過程被卡在局部最小的情況。

    多類別分類 (multi-class classification)

    區分兩種以上類別的分類問題。例如,楓樹大約有 128 種,因此,確定楓樹種類的模型就屬于多類別模型。反之,僅將電子郵件分為兩類("垃圾郵件"和"非垃圾郵件")的模型屬于二元分類模型

    多項分類 (multinomial classification)

    多類別分類的含義相同。

    13N

    NaN 陷阱 (NaN trap)

    模型中的一個數字在訓練期間變成NaN[23],這會導致模型中的很多或所有其他數字最終也會變成 NaN。

    NaN 是"非數字"的縮寫。

    負類別 (negative class)

    二元分類中,一種類別稱為正類別,另一種類別稱為負類別。正類別是我們要尋找的類別,負類別則是另一種可能性。例如,在醫學檢查中,負類別可以是"非腫瘤"。在電子郵件分類器中,負類別可以是"非垃圾郵件"。另請參閱正類別

    神經網絡 (neural network)

    一種模型,靈感來源于腦部結構,由多個層構成(至少有一個是隱藏層),每個層都包含簡單相連的單元或神經元(具有非線性關系)。

    神經元 (neuron)

    神經網絡中的節點,通常會接收多個輸入值并生成一個輸出值。神經元通過將激活函數(非線性轉換)應用于輸入值的加權和來計算輸出值。

    節點 (node)

    多含義術語,可以理解為下列兩種含義之一:

    • 隱藏層中的神經元。

    • TensorFlow 中的操作。

    標準化 (normalization)

    將實際的值區間轉換為標準的值區間(通常為 -1 到 +1 或 0 到 1)的過程。例如,假設某個特征的自然區間是 800 到 6000。通過減法和除法運算,您可以將這些值標準化為位于 -1 到 +1 區間內。

    另請參閱縮放

    數值數據 (numerical data)

    用整數或實數表示的特征。例如,在房地產模型中,您可能會用數值數據表示房子大小(以平方英尺或平方米為單位)。如果用數值數據表示特征,則可以表明特征的值相互之間具有數學關系,并且與標簽可能也有數學關系。例如,如果用數值數據表示房子大小,則可以表明面積為 200 平方米的房子是面積為 100 平方米的房子的兩倍。此外,房子面積的平方米數可能與房價存在一定的數學關系。

    并非所有整數數據都應表示成數值數據。例如,世界上某些地區的郵政編碼是整數,但在模型中,不應將整數郵政編碼表示成數值數據。這是因為郵政編碼20000 在效力上并不是郵政編碼 10000 的兩倍(或一半)。此外,雖然不同的郵政編碼確實與不同的房地產價值有關,但我們也不能假設郵政編碼為 20000 的房地產在價值上是郵政編碼為 10000 的房地產的兩倍。郵政編碼應表示成分類數據

    數值特征有時稱為連續特征

    Numpy

    一個開放源代碼數學庫[24],在 Python 中提供高效的數組操作。Pandas 建立在 Numpy 之上。

    14O

    目標 (objective)

    算法嘗試優化的指標。

    離線推斷 (offline inference)

    生成一組預測,存儲這些預測,然后根據需求檢索這些預測。與在線推斷相對。

    獨熱編碼 (one-hot encoding)

    一種稀疏向量,其中:

    • 一個元素設為 1。

    • 所有其他元素均設為 0。

    獨熱編碼常用于表示擁有有限個可能值的字符串或標識符。例如,假設某個指定的植物學數據集記錄了 15000 個不同的物種,其中每個物種都用獨一無二的字符串標識符來表示。在特征工程過程中,您可能需要將這些字符串標識符編碼為獨熱向量,向量的大小為 15000。

    單樣本學習(one-shot learning,通常用于對象分類)

    一種機器學習方法,通常用于對象分類,旨在通過單個訓練樣本學習有效的分類器。

    另請參閱少量樣本學習

    一對多 (one-vs.-all)

    假設某個分類問題有 N 種可能的解決方案,一對多解決方案將包含 N 個單獨的二元分類器 - 一個二元分類器對應一種可能的結果。例如,假設某個模型用于區分樣本屬于動物、蔬菜還是礦物,一對多解決方案將提供下列三個單獨的二元分類器:

    • 動物和非動物

    • 蔬菜和非蔬菜

    • 礦物和非礦物

    在線推斷 (online inference)

    根據需求生成預測。與離線推斷相對。

    操作 (op, Operation)

    TensorFlow 圖中的節點。在 TensorFlow 中,任何創建、操縱或銷毀張量的過程都屬于操作。例如,矩陣相乘就是一種操作,該操作以兩個張量作為輸入,并生成一個張量作為輸出。

    優化器 (optimizer)

    梯度下降法的一種具體實現。TensorFlow 的優化器基類是tf.train.Optimizer[25]。不同的優化器可能會利用以下一個或多個概念來增強梯度下降法在指定訓練集中的效果:

    • 動量[26](Momentum)

    • 更新頻率(AdaGrad[27]= ADAptive GRADient descent;Adam[28]= ADAptive with Momentum;RMSProp)

    • 稀疏性/正則化 (Ftrl[29])

    • 更復雜的數學方法(Proximal[30],等等)

    甚至還包括 NN 驅動的優化器[31]

    離群值 (outlier)

    與大多數其他值差別很大的值。在機器學習中,下列所有值都是離群值。

    • 絕對值很高的權重

    • 與實際值相差很大的預測值。

    • 值比平均值高大約 3 個標準偏差的輸入數據。

    離群值常常會導致模型訓練出現問題。

    輸出層 (output layer)

    神經網絡的"最后"一層,也是包含答案的層。

    過擬合 (overfitting)

    創建的模型與訓練數據過于匹配,以致于模型無法根據新數據做出正確的預測。

    15P

    Pandas

    面向列的數據分析 API。很多機器學習框架(包括 TensorFlow)都支持將 Pandas 數據結構作為輸入。請參閱 Pandas 文檔[32]

    參數 (parameter)

    機器學習系統自行訓練的模型的變量。例如,權重就是一種參數,它們的值是機器學習系統通過連續的訓練迭代逐漸學習到的。與超參數相對。

    參數服務器 (PS, Parameter Server)

    一種作業,負責在分布式設置中跟蹤模型參數

    參數更新 (parameter update)

    在訓練期間(通常是在梯度下降法的單次迭代中)調整模型參數的操作。

    偏導數 (partial derivative)

    一種導數,除一個變量之外的所有變量都被視為常量。例如,?對??的偏導數就是??的導數(即,使??保持恒定)。?對??的偏導數僅關注??如何變化,而忽略公式中的所有其他變量。

    劃分策略 (partitioning strategy)

    參數服務器間分割變量的算法。

    性能 (performance)

    多含義術語,具有以下含義:

    • 在軟件工程中的傳統含義。即:相應軟件的運行速度有多快(或有多高效)?

    • 在機器學習中的含義。在機器學習領域,性能旨在回答以下問題:相應模型的準確度有多高?即模型在預測方面的表現有多好?

    困惑度 (perplexity)

    一種衡量指標,用于衡量模型能夠多好地完成任務。例如,假設任務是讀取用戶使用智能手機鍵盤輸入字詞時輸入的前幾個字母,然后列出一組可能的完整字詞。此任務的困惑度 (P) 是:為了使列出的字詞中包含用戶嘗試輸入的實際字詞,您需要提供的猜測項的個數。

    困惑度與交叉熵的關系如下:

    流水線 (pipeline)

    機器學習算法的基礎架構。流水線包括收集數據、將數據放入訓練數據文件、訓練一個或多個模型,以及將模型導出到生產環境。

    池化 (pooling)

    將一個或多個由前趨的卷積層創建的矩陣壓縮為較小的矩陣。池化通常是取整個池化區域的最大值或平均值。以下面的 3x3 矩陣為例:

    池化運算與卷積運算類似:將矩陣分割為多個切片,然后按步長逐個運行卷積運算。例如,假設池化運算按 1x1 步長將卷積矩陣分割為 2x2 個切片。如下圖所示,進行了四個池化運算。假設每個池化運算都選擇該切片中四個值的最大值:

    池化有助于在輸入矩陣中實現平移不變性

    對于視覺應用來說,池化的更正式名稱為空間池化。時間序列應用通常將池化稱為時序池化。按照不太正式的說法,池化通常稱為下采樣降采樣

    正類別 (positive class)

    二元分類中,兩種可能的類別分別被標記為正類別和負類別。正類別結果是我們要測試的對象。(不可否認的是,我們會同時測試這兩種結果,但只關注正類別結果。)例如,在醫學檢查中,正類別可以是"腫瘤"。在電子郵件分類器中,正類別可以是"垃圾郵件"。

    負類別相對。

    精確率 (precision)

    一種分類模型指標。精確率指模型正確預測正類別的頻率,即:

    精確率正例數正例數假正例數

    預測 (prediction)

    模型在收到輸入樣本后的輸出。

    預測偏差 (prediction bias)

    一種值,用于表明預測平均值與數據集中標簽的平均值相差有多大。

    預創建的 Estimator (pre-made Estimator)

    其他人已建好的 Estimator。TensorFlow 提供了一些預創建的 Estimator,包括 DNNClassifier、DNNRegressor 和LinearClassifier。您可以按照這些說明[33]構建自己預創建的 Estimator。

    預訓練模型 (pre-trained model)

    已經過訓練的模型或模型組件(例如嵌套)。有時,您需要將預訓練的嵌套饋送到神經網絡。在其他時候,您的模型將自行訓練嵌套,而不依賴于預訓練的嵌套。

    先驗信念 (prior belief)

    在開始采用相應數據進行訓練之前,您對這些數據抱有的信念。例如,?正則化依賴的先驗信念是權重應該很小且應以 0 為中心呈正態分布。

    16Q

    隊列 (queue)

    一種 TensorFlow 操作,用于實現隊列數據結構。通常用于 I/O 中。

    17R

    等級 (rank)

    機器學習中的一個多含義術語,可以理解為下列含義之一:

    • 張量中的維數。例如,標量等級為 0,向量等級為 1,矩陣等級為 2。

    • 在將類別從最高到最低進行排序的機器學習問題中,類別的順序位置。例如,行為排序系統可以將狗狗的獎勵從最高(牛排)到最低(枯萎的羽衣甘藍)進行排序。

    評分者 (rater)

    樣本提供標簽的人。有時稱為"注釋者"。

    召回率 (recall)

    一種分類模型指標,用于回答以下問題:在所有可能的正類別標簽中,模型正確地識別出了多少個?即:

    召回率正例數正例數假負例數

    修正線性單元 (ReLU, Rectified Linear Unit)

    一種激活函數,其規則如下:

    • 如果輸入為負數或 0,則輸出 0。

    • 如果輸入為正數,則輸出等于輸入。

    回歸模型 (regression model)

    一種模型,能夠輸出連續的值(通常為浮點值)。請與分類模型進行比較,分類模型會輸出離散值,例如"黃花菜"或"虎皮百合"。

    正則化 (regularization)

    對模型復雜度的懲罰。正則化有助于防止出現過擬合,包含以下類型:

    • ?正則化

    • ?正則化

    • 丟棄正則化

    • 早停法(這不是正式的正則化方法,但可以有效限制過擬合)

    正則化率 (regularization rate)

    一種標量值,以 lambda 表示,用于指定正則化函數的相對重要性。從下面簡化的損失公式中可以看出正則化率的影響:

    最小化損失方程正則化方程

    提高正則化率可以減少過擬合,但可能會使模型的準確率降低。

    表示法 (representation)

    將數據映射到實用特征的過程。

    受試者工作特征曲線(receiver operating characteristic,簡稱 ROC 曲線)

    不同分類閾值下的正例率假正例率構成的曲線。另請參閱曲線下面積

    根目錄 (root directory)

    您指定的目錄,用于托管多個模型的 TensorFlow 檢查點和事件文件的子目錄。

    均方根誤差 (RMSE, Root Mean Squared Error)

    均方誤差的平方根。

    旋轉不變性 (rotational invariance)

    在圖像分類問題中,即使圖像的方向發生變化,算法也能成功地對圖像進行分類。例如,無論網球拍朝上、側向還是朝下放置,該算法仍然可以識別它。請注意,并非總是希望旋轉不變;例如,倒置的"9"不應分類為"9"。

    另請參閱平移不變性大小不變性

    18S

    SavedModel

    保存和恢復 TensorFlow 模型時建議使用的格式。SavedModel 是一種獨立于語言且可恢復的序列化格式,使較高級別的系統和工具可以創建、使用和轉換 TensorFlow 模型。

    如需完整的詳細信息,請參閱《TensorFlow 編程人員指南》中的保存和恢復[34]

    Saver

    一種 TensorFlow 對象,負責保存模型檢查點。

    縮放 (scaling)

    特征工程中的一種常用做法,是指對某個特征的值區間進行調整,使之與數據集中其他特征的值區間一致。例如,假設您希望數據集中所有浮點特征的值都位于 0 到 1 區間內,如果某個特征的值位于 0 到 500 區間內,您就可以通過將每個值除以 500 來縮放該特征。

    另請參閱標準化

    scikit-learn

    一個熱門的開放源代碼機器學習平臺。請訪問www.scikit-learn.org[35]

    半監督式學習 (semi-supervised learning)

    訓練模型時采用的數據中,某些訓練樣本有標簽,而其他樣本則沒有標簽。半監督式學習采用的一種技術是推斷無標簽樣本的標簽,然后使用推斷出的標簽進行訓練,以創建新模型。如果獲得有標簽樣本需要高昂的成本,而無標簽樣本則有很多,那么半監督式學習將非常有用。

    序列模型 (sequence model)

    一種模型,其輸入具有序列依賴性。例如,根據之前觀看過的一系列視頻對觀看的下一個視頻進行預測。

    會話 (tf.session)

    封裝了 TensorFlow 運行時狀態的對象,用于運行全部或部分。在使用底層 TensorFlow API 時,您可以直接創建并管理一個或多個 tf.session對象。在使用 Estimator API 時,Estimator 會為您創建會話對象。

    S 型函數 (sigmoid function)

    一種函數,可將邏輯回歸輸出或多項回歸輸出(對數幾率)映射到概率,以返回介于 0 到 1 之間的值。S 型函數的公式如下:

    邏輯回歸問題中,?非常簡單:

    換句話說,S 型函數可將??轉換為介于 0 到 1 之間的概率。

    在某些神經網絡中,S 型函數可作為激活函數使用。

    大小不變性 (size invariance)

    在圖像分類問題中,即使圖像的大小發生變化,算法也能成功地對圖像進行分類。例如,無論一只貓以 200 萬像素還是 20 萬像素呈現,該算法仍然可以識別它。請注意,即使是最好的圖像分類算法,在大小不變性方面仍然會存在切實的限制。例如,對于僅以 20 像素呈現的貓圖像,算法(或人)不可能正確對其進行分類。

    另請參閱平移不變性旋轉不變性

    softmax

    一種函數,可提供多類別分類模型中每個可能類別的概率。這些概率的總和正好為 1.0。例如,softmax 可能會得出某個圖像是狗、貓和馬的概率分別是 0.9、0.08 和 0.02。(也稱為完整 softmax。)

    候選采樣相對。

    稀疏特征 (sparse feature)

    一種特征向量,其中的大多數值都為 0 或為空。例如,某個向量包含一個為 1 的值和一百萬個為 0 的值,則該向量就屬于稀疏向量。再舉一個例子,搜索查詢中的單詞也可能屬于稀疏特征

    • 在某種指定語言中有很多可能的單詞,但在某個指定的查詢中僅包含其中幾個。

    密集特征相對。

    稀疏表示法 (sparse representation)

    一種張量表示法,僅存儲非零元素。

    例如,英語中包含約一百萬個單詞。表示一個英語句子中所用單詞的數量,考慮以下兩種方式:

    • 要采用密集表示法來表示此句子,則必須為所有一百萬個單元格設置一個整數,然后在大部分單元格中放入 0,在少數單元格中放入一個非常小的整數。

    • 要采用稀疏表示法來表示此句子,則僅存儲象征句子中實際存在的單詞的單元格。因此,如果句子只包含 20 個獨一無二的單詞,那么該句子的稀疏表示法將僅在 20 個單元格中存儲一個整數。

    例如,假設以兩種方式來表示句子"Dogs wag tails."。如下表所示,密集表示法將使用約一百萬個單元格;稀疏表示法則只使用 3 個單元格:

    稀疏性 (sparsity)

    向量或矩陣中設置為 0(或空)的元素數除以該向量或矩陣中的條目總數。以一個 10x10 矩陣(其中 98 個單元格都包含 0)為例。稀疏性的計算方法如下:

    稀疏性

    特征稀疏性是指特征向量的稀疏性;模型稀疏性是指模型權重的稀疏性。

    空間池化 (spatial pooling)

    請參閱池化

    平方合頁損失函數 (squared hinge loss)

    合頁損失函數的平方。與常規合頁損失函數相比,平方合頁損失函數對離群值的懲罰更嚴厲。

    平方損失函數 (squared loss)

    線性回歸中使用的損失函數(也稱為?損失函數)。該函數可計算模型為有標簽樣本預測的值和標簽的實際值之差的平方。由于取平方值,因此該損失函數會放大不佳預測的影響。也就是說,與?損失函數相比,平方損失函數對離群值的反應更強烈。

    靜態模型 (static model)

    離線訓練的一種模型。

    平穩性 (stationarity)

    數據集中數據的一種屬性,表示數據分布在一個或多個維度保持不變。這種維度最常見的是時間,即表明平穩性的數據不隨時間而變化。例如,從 9 月到 12 月,表明平穩性的數據沒有發生變化。

    步 (step)

    對一個批次的向前和向后評估。

    步長 (step size)

    學習速率的含義相同。

    隨機梯度下降法 (SGD, stochastic gradient descent)

    批次大小為 1 的一種梯度下降法。換句話說,SGD 依賴于從數據集中隨機均勻選擇的單個樣本來計算每步的梯度估算值。

    結構風險最小化 (SRM, structural risk minimization)

    一種算法,用于平衡以下兩個目標:

    • 期望構建最具預測性的模型(例如損失最低)。

    • 期望使模型盡可能簡單(例如強大的正則化)。

    例如,旨在將基于訓練集的損失和正則化降至最低的函數就是一種結構風險最小化算法。

    如需更多信息,請參閱 http://www.svms.org/srm/。

    經驗風險最小化相對。

    步長 (stride)

    在卷積運算或池化中,下一個系列的輸入切片的每個維度中的增量。例如,下面的動畫演示了卷積運算過程中的一個 (1,1) 步長。因此,下一個輸入切片是從上一個輸入切片向右移動一個步長的位置開始。當運算到達右側邊緣時,下一個切片將回到最左邊,但是下移一個位置。

    前面的示例演示了一個二維步長。如果輸入矩陣為三維,那么步長也將是三維。

    下采樣 (subsampling)

    請參閱池化

    總結 (summary)

    在 TensorFlow 中的某一計算出的一個值或一組值,通常用于在訓練期間跟蹤模型指標。

    監督式機器學習 (supervised machine learning)

    根據輸入數據及其對應的標簽來訓練模型。監督式機器學習類似于學生通過研究一系列問題及其對應的答案來學習某個主題。在掌握了問題和答案之間的對應關系后,學生便可以回答關于同一主題的新問題(以前從未見過的問題)。請與非監督式機器學習進行比較。

    合成特征 (synthetic feature)

    一種特征,不在輸入特征之列,而是從一個或多個輸入特征衍生而來。合成特征包括以下類型:

    • 對連續特征進行分桶,以分為多個區間分箱。

    • 將一個特征值與其他特征值或其本身相乘(或相除)。

    • 創建一個特征組合

    僅通過標準化縮放創建的特征不屬于合成特征。

    19T

    目標 (target)

    標簽的含義相同。

    時態數據 (temporal data)

    在不同時間點記錄的數據。例如,記錄的一年中每一天的冬外套銷量就屬于時態數據。

    張量 (Tensor)

    TensorFlow 程序中的主要數據結構。張量是 N 維(其中 N 可能非常大)數據結構,最常見的是標量、向量或矩陣。張量的元素可以包含整數值、浮點值或字符串值。

    張量處理單元 (TPU, Tensor Processing Unit)

    一種 ASIC(應用專用集成電路),用于優化 TensorFlow 程序的性能。

    張量等級 (Tensor rank)

    請參閱等級

    張量形狀 (Tensor shape)

    張量在各種維度中包含的元素數。例如,張量 [5, 10] 在一個維度中的形狀為 5,在另一個維度中的形狀為 10。

    張量大小 (Tensor size)

    張量包含的標量總數。例如,張量 [5, 10] 的大小為 50。

    TensorBoard

    一個信息中心,用于顯示在執行一個或多個 TensorFlow 程序期間保存的摘要信息。

    TensorFlow

    一個大型的分布式機器學習平臺。該術語還指 TensorFlow 堆棧中的基本 API 層,該層支持對數據流圖進行一般計算。

    雖然 TensorFlow 主要應用于機器學習領域,但也可用于需要使用數據流圖進行數值計算的非機器學習任務。

    TensorFlow Playground

    一款用于直觀呈現不同的超參數對模型(主要是神經網絡)訓練的影響的程序。要試用 TensorFlow Playground,請前往

    http://playground.tensorflow.org[36]

    TensorFlow Serving

    一個平臺,用于將訓練過的模型部署到生產環境。

    測試集 (test set)

    數據集的子集,用于在模型經由驗證集的初步驗證之后測試模型。

    訓練集驗證集相對。

    tf.Example

    一種標準協議緩沖區[37],旨在描述用于機器學習模型訓練或推斷的輸入數據。

    時間序列分析 (time series analysis)

    機器學習和統計學的一個子領域,旨在分析時態數據。很多類型的機器學習問題都需要時間序列分析,其中包括分類、聚類、預測和異常檢測。例如,您可以利用時間序列分析根據歷史銷量數據預測未來每月的冬外套銷量。

    訓練 (training)

    確定構成模型的理想參數的過程。

    訓練集 (training set)

    數據集的子集,用于訓練模型。

    驗證集測試集相對。

    遷移學習 (transfer learning)

    將信息從一個機器學習任務遷移到另一個機器學習任務。例如,在多任務學習中,一個模型可以完成多項任務,例如針對不同任務具有不同輸出節點的深度模型。遷移學習可能涉及將知識從較簡單任務的解決方案遷移到較復雜的任務,或者將知識從數據較多的任務遷移到數據較少的任務。

    大多數機器學習系統都只能完成一項任務。遷移學習是邁向人工智能的一小步;在人工智能中,單個程序可以完成多項任務。

    平移不變性 (translational invariance)

    在圖像分類問題中,即使圖像中對象的位置發生變化,算法也能成功對圖像進行分類。例如,無論一只狗位于畫面正中央還是畫面左側,該算法仍然可以識別它。

    另請參閱大小不變性旋轉不變性

    負例 (TN, true negative)

    被模型正確地預測為負類別的樣本。例如,模型推斷出某封電子郵件不是垃圾郵件,而該電子郵件確實不是垃圾郵件。

    正例 (TP, true positive)

    被模型正確地預測為正類別的樣本。例如,模型推斷出某封電子郵件是垃圾郵件,而該電子郵件確實是垃圾郵件。

    正例率(true positive rate, 簡稱 TP 率)

    召回率的含義相同,即:

    正例率正例數正例數假負例數

    正例率是 ROC 曲線的 y 軸。

    20U

    無標簽樣本 (unlabeled example)

    包含特征但沒有標簽的樣本。無標簽樣本是用于進行推斷的輸入內容。在半監督式非監督式學習中,在訓練期間會使用無標簽樣本。

    非監督式機器學習 (unsupervised machine learning)

    訓練模型,以找出數據集(通常是無標簽數據集)中的規律。

    非監督式機器學習最常見的用途是將數據分為不同的聚類,使相似的樣本位于同一組中。例如,非監督式機器學習算法可以根據音樂的各種屬性將歌曲分為不同的聚類。所得聚類可以作為其他機器學習算法(例如音樂推薦服務)的輸入。在很難獲取真標簽的領域,聚類可能會非常有用。例如,在反濫用和反欺詐等領域,聚類有助于人們更好地了解相關數據。

    非監督式機器學習的另一個例子是主成分分析 (PCA)。例如,通過對包含數百萬購物車中物品的數據集進行主成分分析,可能會發現有檸檬的購物車中往往也有抗酸藥。

    請與監督式機器學習進行比較。

    21V

    驗證集 (validation set)

    數據集的一個子集,從訓練集分離而來,用于調整超參數

    訓練集測試集相對。

    22W

    權重 (weight)

    線性模型中特征的系數,或深度網絡中的邊。訓練線性模型的目標是確定每個特征的理想權重。如果權重為 0,則相應的特征對模型來說沒有任何貢獻。

    寬度模型 (wide model)

    一種線性模型,通常有很多稀疏輸入特征。我們之所以稱之為"寬度模型",是因為這是一種特殊類型的神經網絡,其大量輸入均直接與輸出節點相連。與深度模型相比,寬度模型通常更易于調試和檢查。雖然寬度模型無法通過隱藏層來表示非線性關系,但可以利用特征組合分桶等轉換以不同的方式為非線性關系建模。

    深度模型相對。

    全文完。

    [1]

    學習速率: http://www.jmlr.org/papers/volume12/duchi11a/duchi11a.pdf

    [2]

    偏導數: https://en.wikipedia.org/wiki/Partial_derivative

    [3]

    自定義 estimator 說明: https://www.tensorflow.org/extend/estimators?hl=zh-CN

    [4]

    導入數據: https://www.tensorflow.org/programmers_guide/datasets?hl=zh-CN

    [5]

    深度模型和寬度模型: https://www.tensorflow.org/tutorials/wide_and_deep?hl=zh-CN

    [6]

    自定義 estimator 說明: https://www.tensorflow.org/extend/estimators?hl=zh-CN

    [7]

    特征列: https://www.tensorflow.org/get_started/feature_columns?hl=zh-CN

    [8]

    VW: https://en.wikipedia.org/wiki/Vowpal_Wabbit

    [9]

    場: https://www.csie.ntu.edu.tw/~cjlin/libffm/

    [10]

    tf.Transform: https://github.com/tensorflow/transform

    [11]

    高斯噪聲: https://en.wikipedia.org/wiki/Gaussian_noise

    [12]

    泊松噪聲: https://en.wikipedia.org/wiki/Shot_noise

    [13]

    凸優化: https://en.wikipedia.org/wiki/Convex_optimization

    [14]

    梯度爆炸: http://www.cs.toronto.edu/~rgrosse/courses/csc321_2017/readings/L15%20Exploding%20and%20Vanishing%20Gradients.pdf

    [15]

    張量: https://www.tensorflow.org/api_docs/python/tf/Tensor?hl=zh-CN

    [16]

    理想氣體: https://en.wikipedia.org/wiki/Ideal_gas

    [17]

    統計學推斷: https://en.wikipedia.org/wiki/Statistical_inference

    [18]

    歐幾里得距離: https://en.wikipedia.org/wiki/Euclidean_distance

    [19]

    曼哈頓距離: https://en.wikipedia.org/wiki/Taxicab_geometry

    [20]

    Keras: https://keras.io

    [21]

    tf.keras: https://www.tensorflow.org/api_docs/python/tf/keras?hl=zh-CN

    [22]

    sigmoid cross entropy: https://www.tensorflow.org/api_docs/python/tf/nn/sigmoid_cross_entropy_with_logits?hl=zh-CN

    [23]

    NaN: https://en.wikipedia.org/wiki/NaN

    [24]

    開放源代碼數學庫: http://www.numpy.org/

    [25]

    tf.train.Optimizer: https://www.tensorflow.org/api_docs/python/tf/train/Optimizer?hl=zh-CN

    [26]

    動量: https://www.tensorflow.org/api_docs/python/tf/train/MomentumOptimizer?hl=zh-CN

    [27]

    AdaGrad: https://www.tensorflow.org/api_docs/python/tf/train/AdagradOptimizer?hl=zh-CN

    [28]

    Adam: https://www.tensorflow.org/api_docs/python/tf/train/AdamOptimizer?hl=zh-CN

    [29]

    Ftrl: https://www.tensorflow.org/api_docs/python/tf/train/FtrlOptimizer?hl=zh-CN

    [30]

    Proximal: https://www.tensorflow.org/api_docs/python/tf/train/ProximalGradientDescentOptimizer?hl=zh-CN

    [31]

    NN 驅動的優化器: https://arxiv.org/abs/1606.04474

    [32]

    Pandas 文檔: http://pandas.pydata.org/

    [33]

    自定義Estimator說明: https://www.tensorflow.org/extend/estimators?hl=zh-CN

    [34]

    保存和恢復: https://www.tensorflow.org/programmers_guide/saved_model?hl=zh-CN

    [35]

    www.scikit-learn.org: http://www.scikit-learn.org/

    [36]

    http://playground.tensorflow.org: http://playground.tensorflow.org?hl=zh-CN

    [37]

    協議緩沖區: https://developers.google.com/protocol-buffers/?hl=zh-CN

    [38]

    原文鏈接: https://developers.google.com/machine-learning/glossary/?hl=zh-CN

    建議閱讀:

    高考失利之后,屬于我的大學本科四年

    【資源分享】對于時間序列,你所能做的一切.

    【時空序列預測第一篇】什么是時空序列問題?這類問題主要應用了哪些模型?主要應用在哪些領域?

    【AI蝸牛車出品】手把手AI項目、時空序列、時間序列、白話機器學習、pytorch修煉

    公眾號:AI蝸牛車

    保持謙遜、保持自律、保持進步

    個人微信

    備注:昵稱+學校/公司+方向

    如果沒有備注不拉群!

    拉你進AI蝸牛車交流群

    總結

    以上是生活随笔為你收集整理的谷歌出品!机器学习中英文术语对照表的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    午夜电影一区 | 2018好看的中文在线观看 | 超碰在线个人 | 欧美精品久久久久久久久老牛影院 | 日韩免费av在线 | 午夜久久久精品 | 久久国产乱 | 色操插 | av官网 | 九九久久久久99精品 | 国产馆在线播放 | 国产字幕在线看 | 91欧美精品 | 久久精品视频4 | 黄色网在线播放 | 五月激情丁香图片 | 91污污视频在线观看 | 97精品久久| 日韩高清一二三区 | 久久a级片 | 麻豆国产精品一区二区三区 | 国产一区网址 | 色婷婷骚婷婷 | 黄色的网站免费看 | 午夜精品99久久免费 | 制服丝袜欧美 | 免费a视频 | 国产精品国产三级国产专区53 | 天天射综合网视频 | 免费a视频在线 | 天天插一插 | 美女免费视频一区二区 | 国产精品久久久久婷婷二区次 | 亚洲视频 一区 | 国产男女爽爽爽免费视频 | 精品久久精品 | 日韩在线三区 | 日韩av资源站 | 国产一级三级 | 欧美一区免费在线观看 | 操操操操网| av黄色在线播放 | 欧美一二在线 | 国产精品毛片完整版 | 免费成人在线观看视频 | 免费看色的网站 | 日韩在线精品视频 | 国产免费视频一区二区裸体 | 一区二区三区在线电影 | 久久成人视屏 | 激情av网 | .国产精品成人自产拍在线观看6 | 中文字幕国产一区二区 | 三级视频国产 | 色视频 在线 | 91中文字幕一区 | www日韩在线| 午夜av在线免费 | 欧美精品久久久久久 | 日韩电影在线视频 | 久久久久久久久久久综合 | 国产麻豆精品久久一二三 | 一 级 黄 色 片免费看的 | 又黄又爽又湿又无遮挡的在线视频 | 国产在线a | 丁香花在线视频观看免费 | 国产69久久久 | se视频网址| www久久99| 超碰97在线资源站 | 99在线视频观看 | 色com| 91精品在线观看入口 | 88av网站| 日韩精品视频网站 | 亚洲码国产日韩欧美高潮在线播放 | 9999精品免费视频 | 亚洲v欧美v国产v在线观看 | 麻豆视频一区 | 成人在线网站观看 | 欧美一区二区三区在线视频观看 | 精品久久1| 96久久欧美麻豆网站 | 久久久国产一区二区三区 | 狠狠色噜噜狠狠狠狠2021天天 | 天天弄天天操 | 五月情婷婷| 在线观看小视频 | 中文字幕欲求不满 | 日韩三级视频在线看 | 国产色综合 | 麻豆影视在线观看 | 超碰在97 | 在线观看视频你懂 | 一区二区三区久久 | 九九热在线观看 | 成人91视频| 久久经典国产 | 日韩免费大片 | 国产日本在线播放 | 日韩精品综合在线 | 欧美福利片在线观看 | 91日韩精品| 天堂在线免费视频 | 丝袜少妇在线 | 精品嫩模福利一区二区蜜臀 | 久久久久亚洲精品男人的天堂 | 探花视频在线观看免费版 | 91在线视频观看免费 | 一区二区三区国产精品 | 波多野结依在线观看 | 最新99热 | 九色91av| 精品久久1 | 亚洲精品国偷自产在线91正片 | 国产午夜精品一区二区三区在线观看 | 黄色激情网址 | 9在线观看免费高清完整版 玖玖爱免费视频 | 一区二区免费不卡在线 | 五月婷婷六月丁香在线观看 | 五月综合激情婷婷 | 麻豆视频在线 | 亚洲精品美女久久久 | 久青草国产在线 | 久久九九九九 | 五月激情丁香 | 久草视频视频在线播放 | 欧美日韩精品免费观看视频 | 欧美日韩精品二区第二页 | 久草在线观看 | 成人污视频在线观看 | 久久国内免费视频 | 国内精品久久久久久久久久久 | 成人精品99 | www.午夜色.com| 中文字幕色婷婷在线视频 | 97操操操| 国产视频中文字幕 | 午夜国产在线 | 91精品国产一区二区三区 | 91日韩在线视频 | 国产精品久久精品 | 日韩色视频在线观看 | 国产一级a毛片视频爆浆 | 丁香六月av | 欧美日韩p片 | 蜜桃视频成人在线观看 | 在线观看中文字幕2021 | 日韩av成人 | 日日夜夜天天久久 | 五月天婷婷在线观看视频 | 亚洲激情在线视频 | 国内精品久久久久影院一蜜桃 | 美女搞黄国产视频网站 | 久热色超碰 | 操少妇视频 | 国产97在线视频 | 国产精品乱码久久久久久1区2区 | 最近免费观看的电影完整版 | 黄色成人av | 首页中文字幕 | 97超碰福利久久精品 | 精品女同一区二区三区在线观看 | 在线视频日韩 | 五月婷婷六月丁香激情 | 国产一区成人 | 久久香蕉电影 | 国产精品自在线拍国产 | 久久精品欧美 | 日日夜夜天天 | 在线观看亚洲成人 | 激情影音 | 国产人成一区二区三区影院 | 欧美日韩在线观看一区 | 久久爽久久爽久久av东京爽 | 日韩视频免费在线观看 | 超碰激情在线 | 又黄又爽的视频在线观看网站 | 99久久国产免费,99久久国产免费大片 | 亚洲精品网站在线 | 婷婷色社区| 久久免费的视频 | 在线观看www. | 欧美精品久久久久久久久久白贞 | 探花视频在线观看 | av免费网站在线观看 | 国产传媒一区在线 | 久草免费电影 | avwww在线观看 | 免费在线色电影 | 一区二区三区四区在线免费观看 | 午夜免费在线观看 | 91看片淫黄大片在线播放 | 久久久国产毛片 | 日韩欧美在线观看 | 99精品国产一区二区三区麻豆 | 777xxx欧美 | 国产一区二区三区视频在线 | 999久久久免费视频 午夜国产在线观看 | 狠狠色丁香九九婷婷综合五月 | 国产一级电影 | 日韩精品久久久久久久电影99爱 | 久久成年视频 | 91成人在线视频观看 | 在线看免费 | 丝袜护士aⅴ在线白丝护士 天天综合精品 | 亚洲一区视频在线播放 | 国产精品人成电影在线观看 | 婷婷电影在线观看 | 一本一道久久a久久精品 | 日韩伦理一区二区三区av在线 | 日韩在线观看一区二区三区 | av在线之家电影网站 | 精品一区二区三区久久久 | 亚洲精品456在线播放 | av免费网站在线观看 | 丁香激情五月 | 色综合久久五月天 | 激情在线五月天 | 国产在线国产 | 亚州国产精品久久久 | 亚洲一区二区视频在线播放 | 国产精品精| 国产999| 精品国产一区二区三区av性色 | 成人小视频在线观看免费 | 国产三级av在线 | 日日干 天天干 | 91爱在线| 日韩二区三区 | 一区二区不卡 | 国产精品精品国产 | 天天爽天天做 | 天天操天天干天天操天天干 | 青春草免费视频 | 久久久久精 | 黄色网大全 | 亚洲成人av在线 | 天天操天天添天天吹 | 天天色.com| 这里只有精品视频在线 | 国色天香在线 | 国产成免费视频 | 亚洲精品国产精品久久99 | 亚洲成人av在线电影 | av在线等 | 香蕉视频网址 | 欧美三级高清 | 99re中文字幕| 精品国产欧美一区二区 | 亚洲国产精品人久久电影 | 日韩欧美视频在线播放 | 超碰人人在线观看 | 精品美女在线视频 | 97精品国产97久久久久久免费 | 女人18精品一区二区三区 | 伊人久久国产 | 99久久99视频只有精品 | 日韩精品一区在线播放 | 91激情在线视频 | 日本精品一区二区 | 五月婷婷中文字幕 | 99久久婷婷国产 | 色97在线 | 久久久久观看 | 美女视频免费一区二区 | 视频二区在线 | 黄色大片av | 国产在线色站 | av在线免费网站 | 在线观看视频福利 | av不卡免费在线观看 | 日韩日韩日韩日韩 | 五月综合久久 | 成人黄色电影在线播放 | 韩国av免费| 狠狠伊人 | 日韩av成人免费看 | 激情五月婷婷网 | 日本h视频在线观看 | 青青网视频 | 久久r精品| 久久99国产精品免费网站 | 天天爽天天爽天天爽 | 久久亚洲综合国产精品99麻豆的功能介绍 | 国产精品视频免费观看 | 日韩理论片在线 | 欧美狠狠操| 国产群p| 国产成人精品一区一区一区 | 99人久久精品视频最新地址 | 又黄又爽又刺激的视频 | 五月婷丁香网 | 西西www4444大胆在线 | 国产黄在线播放 | 日日躁夜夜躁xxxxaaaa | 在线观看国产www | 97在线看 | 91色吧| 99这里有精品 | a久久久久久 | 三级黄色片在线观看 | 精品国产理论 | 久久国产精品久久精品国产演员表 | 色福利网站 | www亚洲视频 | 黄网站大全 | 久久九九久久精品 | 伊人狠狠 | 亚洲精品国产欧美在线观看 | 五月婷婷电影网 | 国产成人亚洲在线观看 | 日韩中文字幕在线观看 | 国产精品欧美久久久久无广告 | 91精品网站 | 91精品国产综合久久婷婷香蕉 | 国产淫片| 久久久在线免费观看 | 亚洲伊人成综合网 | 一级黄色视屏 | 99视频久久 | 97人人爽 | 国产丝袜制服在线 | 免费在线视频一区二区 | 久久精品99久久久久久2456 | 精品一区二区影视 | 日韩性xxx| 欧美电影在线观看 | 在线播放亚洲激情 | 欧美一区二区三区在线视频观看 | 98精品国产自产在线观看 | 久久天天躁狠狠躁亚洲综合公司 | av黄色一级片 | 在线a亚洲视频播放在线观看 | 中文字幕黄色网 | 蜜桃视频在线视频 | 成人国产精品免费观看 | 伊人小视频 | 亚洲视频电影在线 | 韩日电影在线 | 99在线热播 | 国产成人精品午夜在线播放 | 亚洲精品午夜久久久 | 国产真实精品久久二三区 | 色老板在线 | 国产精品美女免费 | 亚洲老妇xxxxxx | 国产精品永久 | 国产自产高清不卡 | 亚洲丝袜一区 | 日韩免费电影 | 久久精品欧美日韩精品 | 黄色三级久久 | 欧美精品久久 | 久久人人爽人人 | 国产美女精品视频免费观看 | 美女视频久久 | 亚洲综合婷婷 | 夜夜躁狠狠躁日日躁视频黑人 | 97在线观看视频免费 | av电影在线免费 | 婷婷九月丁香 | 日本一区二区三区视频在线播放 | 99色| av成人免费在线看 | 99视频精品免费观看, | 夜添久久精品亚洲国产精品 | 日韩精品国产一区 | 婷婷在线精品视频 | 欧美一区影院 | 婷婷视频在线 | avove黑丝| 91成人天堂久久成人 | 日韩在线高清 | 人人爱爱| 亚洲天天做 | 午夜婷婷在线观看 | 色久天 | 91九色视频观看 | 国产亚洲婷婷免费 | 久久亚洲热 | 亚洲黄色大片 | 欧美精品久久久久久久久老牛影院 | 国产高清中文字幕 | 激情综合网天天干 | 狠狠干夜夜爽 | 欧美日韩在线视频观看 | 岛国av在线不卡 | 日韩欧美电影在线 | 伊人五月 | 日韩亚洲在线视频 | 国产亚洲视频在线 | 日韩激情三级 | 中文av免费| 久草在线视频精品 | 亚洲一二三区精品 | 亚洲成人av影片 | 色99导航 | 中文字幕av在线 | 夜夜躁日日躁狠狠久久av | 在线欧美最极品的av | 中文字幕 二区 | 亚洲三级av | 日韩久久午夜一级啪啪 | 一区二区三区四区五区在线 | 日韩精品中字 | 精品国产一区二区三区久久久蜜臀 | av在线播放亚洲 | 国产淫片免费看 | 日本成人中文字幕在线观看 | 国产剧情一区二区在线观看 | 就要干b | www.久久色 | 又爽又黄又无遮挡网站动态图 | 午夜精品视频免费在线观看 | 99久久精 | 91超国产 | 国产日韩精品一区二区三区 | 97超碰总站| 久久你懂得 | 久久精彩 | 日本久久电影网 | 免费看v片| 国产v在线 | 91免费试看 | 久久久精品 一区二区三区 国产99视频在线观看 | 蜜臀av性久久久久av蜜臀妖精 | 久久久亚洲影院 | 日韩精品在线观看视频 | 亚洲国产精品一区二区尤物区 | 天天爱天天射 | 亚洲成av人片在线观看www | 日韩欧美在线视频一区二区 | 国产精品久久久久久久久久三级 | 免费a v观看 | free. 性欧美.com | 最新国产视频 | 日韩在线观看一区二区 | 久久精品国产美女 | 中文字幕在线免费看 | 青青河边草免费直播 | 久久黄色网址 | www国产一区| 在线视频18在线视频4k | 天天色草 | 欧美一区二区在线免费看 | 一区二区影院 | 成人亚洲网 | 91免费日韩 | 99精品久久精品一区二区 | 国产专区第一页 | 国产精品爽爽久久久久久蜜臀 | 色综合久久中文字幕综合网 | 97国产大学生情侣白嫩酒店 | 一区二区三区在线观看中文字幕 | 国产韩国日本高清视频 | 天天做天天爱天天爽综合网 | 国产精品99蜜臀久久不卡二区 | 免费特级黄色片 | 日韩久久精品一区二区三区下载 | 欧美成年人在线视频 | 人人舔人人爽 | 天天操天天色综合 | 久草在线费播放视频 | 天天射天天操天天 | 免费人成在线观看 | 最近中文字幕在线播放 | 不卡视频一区二区三区 | 2019中文字幕网站 | 天天草天天 | 久久在线免费观看 | 91成人短视频在线观看 | 国产精品美女久久久网av | 99精品一区二区 | 天堂在线一区二区三区 | 丁香影院在线 | 亚洲黄色高清 | 蜜臀久久99精品久久久无需会员 | 久久草草热国产精品直播 | 91色视频 | 亚洲黄色av | 99免费观看视频 | 午夜精品福利一区二区三区蜜桃 | 绯色av一区 | 日韩精品免费在线播放 | 国产精品久久网站 | 国产午夜一级毛片 | 成人精品一区二区三区中文字幕 | 中文字幕二区三区 | 在线国产精品一区 | 久久免费视频在线观看 | 亚洲免费av片 | 视频一区在线免费观看 | 亚洲成人动漫在线观看 | 国产精品久久久久久久久久久免费 | 999国产| 99精品视频播放 | 欧美日韩国产网站 | 日韩视频免费播放 | 国产日韩欧美在线观看 | 久久专区 | 综合网久久| 激情综合五月 | 国产精品久久久久久久久岛 | 日本韩国精品一区二区在线观看 | 久久精品欧美一区二区三区麻豆 | 国产中文字幕久久 | 国产精品一区二区久久久久 | 欧美日韩国产伦理 | 欧美一级片在线播放 | 91成人免费 | 91天天操 | 亚洲a网| 欧美一级片免费播放 | 人人干在线 | 视频二区在线视频 | 国产精品粉嫩 | 免费高清男女打扑克视频 | 玖玖玖影院 | 色婷婷狠狠五月综合天色拍 | 天天做日日做天天爽视频免费 | 中文字幕永久在线 | 在线观看深夜福利 | 蜜臀av夜夜澡人人爽人人桃色 | 精品国产自在精品国产精野外直播 | 日p视频在线观看 | 九九在线视频免费观看 | 久久精品96| 天天操天天草 | 国产亚洲欧美在线视频 | 天天色天天射天天干 | 国产亚洲精品成人 | 在线观看国产日韩 | 中文字幕在线播放一区 | 免费观看丰满少妇做爰 | 九九九视频在线 | 在线看一级片 | 伊人天堂网 | 国产一区在线视频观看 | 亚洲区另类春色综合小说 | 久久久国产精华液 | 国产日韩欧美在线观看 | 国产综合91| 亚洲精品午夜aaa久久久 | 玖玖综合网| 国产午夜精品理论片在线 | 久久av黄色 | 国产亚洲精品久久网站 | av成人免费 | 日韩欧美中文 | www.狠狠操.com | 亚洲天堂自拍视频 | 国产精品大片在线观看 | 六月婷色| 亚洲一区二区黄色 | 一区二区中文字幕在线 | 一级成人网 | 国产剧情一区在线 | 国产美女主播精品一区二区三区 | 超碰在线97观看 | 天天看天天干天天操 | 草在线 | 亚洲国内精品 | 久久se视频 | 欧美一区二区三区在线播放 | 久久久精品网站 | 国产在线久久久 | 久久国产精品一区二区三区 | 欧美一二三区在线播放 | 亚洲国产激情 | 91视频在线免费下载 | 99久久日韩精品免费热麻豆美女 | 欧美日韩精品国产 | h动漫中文字幕 | 91夫妻自拍| 天天干天天操天天射 | 亚洲精品久久久久久中文传媒 | 又色又爽又黄高潮的免费视频 | 色香网| 精品国产精品一区二区夜夜嗨 | 黄网站色 | 婷婷色综合色 | 五月婷婷一级片 | 国产一区二区三区久久久 | 日韩欧美高清不卡 | 91在线播放国产 | 麻豆视频一区二区 | 精品国偷自产国产一区 | 久久美女精品 | 91精品久久久久久久99蜜桃 | 国产精品国产亚洲精品看不卡 | 极品美女被弄高潮视频网站 | 成人午夜黄色影院 | 91九色porny蝌蚪主页 | 视频三区| 亚洲国产精品va在线看 | 丁香九月激情综合 | www日韩在线观看 | 在线观看视频你懂的 | 免费欧美高清视频 | 亚洲精品高清视频 | 亚洲国产中文字幕在线视频综合 | 黄污污网站 | 免费av观看网站 | 中文字幕在线观看av | 丁五月婷婷 | 久久久久成人免费 | 日韩在线观看av | 狠狠做深爱婷婷综合一区 | 日日摸日日添日日躁av | 成人影音av | 中文字幕av在线免费 | 免费在线观看一区二区三区 | 午夜精品一区二区三区可下载 | 国产探花在线看 | 久久免费国产 | 福利视频在线看 | 免费成人在线电影 | 69欧美视频 | 五月天天天操 | 国色天香在线 | 亚洲一区网站 | 视频一区在线免费观看 | 狠狠操狠狠插 | 九色91在线| 国产女人18毛片水真多18精品 | 亚洲激情六月 | 久久激情视频 久久 | 99热这里只有精品1 av中文字幕日韩 | 黄色网在线播放 | 美女免费黄视频网站 | 国产精品久久久久久久久毛片 | 久久久久欧美精品999 | 亚洲热视频 | 一区二区视频在线播放 | 激情影院在线观看 | 亚洲一区二区三区四区在线视频 | 婷婷久久一区 | 中文亚洲欧美日韩 | 五月天激情婷婷 | 91一区二区三区在线观看 | 国产福利资源 | 99在线精品视频在线观看 | 黄色成人在线观看 | 中文av在线免费观看 | 麻豆免费在线播放 | 久久a国产 | 国产二区精品 | 成人免费在线观看av | 欧美三级高清 | 中文字幕av全部资源www中文字幕在线观看 | 国产精品12| 91看片淫黄大片91 | 91九色蝌蚪国产 | 欧美久久久久久久久久久久 | 久久人人爽人人爽人人片av软件 | 四虎在线免费观看 | 在线视频app | www在线观看视频 | 国产精品视频久久久 | 黄色毛片在线 | 激情综合亚洲精品 | 久草视频观看 | 国产精品99久久久久久久久久久久 | 久久久精品亚洲 | 国产69精品久久久久9999apgf | 天天射综合网视频 | 奇米影视8888在线观看大全免费 | 六月色婷婷 | 精品久久精品久久 | 日本成人免费在线观看 | 中文字幕乱码电影 | 成人免费在线电影 | 五月开心六月伊人色婷婷 | 日韩电影一区二区在线观看 | 日韩三级中文字幕 | 日韩精品中文字幕在线不卡尤物 | 美女在线免费观看视频 | 在线a视频免费观看 | 99re在线视频观看 | 午夜久久精品 | av一区二区三区在线播放 | 韩国视频一区二区三区 | 精品一区二区在线免费观看 | 欧美做受高潮电影o | 深夜福利视频一区二区 | 福利片视频区 | 久爱综合 | 日韩在线播放视频 | 久久资源在线 | 日韩电影在线观看一区二区三区 | 国产高清99 | av综合网址 | 波多野结衣在线视频一区 | 日韩偷拍精品 | 一区二区日韩av | 天天爽天天爽天天爽 | 久久精品99久久久久久2456 | 午夜精品久久久久 | 日韩一区二区久久 | 久久草草热国产精品直播 | 欧美日韩国产高清视频 | 日本特黄特色aaa大片免费 | 91精品国产高清 | 在线观看国产中文字幕 | 四虎成人精品永久免费av | 激情五月婷婷综合 | av中文字幕亚洲 | av在线网站观看 | 国产精品99久久久久久有的能看 | 91精品一区二区三区久久久久久 | 美女av在线免费 | 91麻豆精品国产午夜天堂 | 在线播放国产一区二区三区 | 一区二区三区国 | 成 人 黄 色 视频免费播放 | 欧美精品免费一区二区 | 亚洲欧洲中文日韩久久av乱码 | 最近能播放的中文字幕 | 久久午夜电影网 | 国产黄色精品在线 | 日韩黄色在线观看 | 久久黄色精品视频 | av成人黄色| 国产美女免费 | 久久精品永久免费 | 黄色影院在线播放 | 欧洲精品二区 | a级一a一级在线观看 | 国产99一区 | 免费高清国产 | 黄色大全视频 | 992tv成人免费看片 | 麻豆一二三精选视频 | 国产一级二级在线播放 | 精品国产伦一区二区三区观看说明 | 国产成人一区二区在线观看 | 91日韩精品视频 | 中文字幕在线观看1 | 国产精品久久久久久久久久久不卡 | 96在线 | 久久免费av电影 | 久草视频中文在线 | 深爱激情开心 | 日本激情视频中文字幕 | 欧美一级片免费在线观看 | 久久久综合九色合综国产精品 | 久久免费看av | 伊人黄色网 | 久久人人看 | 日本三级中文字幕在线观看 | 日韩色在线观看 | 欧美色图p | 精品国产伦一区二区三区观看体验 | 午夜av免费观看 | 久草在线视频在线 | 国产在线高清视频 | 人人狠 | 五月色综合 | 欧美色图p | 中文字幕电影在线 | 亚洲精品在线免费播放 | 亚洲精品天天 | 丁香激情综合 | 色欧美综合 | 91精品人成在线观看 | 一级黄色电影网站 | 成人毛片久久 | 手机在线永久免费观看av片 | 日韩精品一区在线播放 | 超碰人人av | 91成人在线观看喷潮 | 免费观看91视频大全 | 亚洲成人精品久久久 | 在线观看一级视频 | 美女视频黄免费网站 | 日韩午夜电影网 | 伊人五月天综合 | 手机av资源 | 毛片网免费 | 91热在线| 一区二区三区在线视频观看58 | 日韩欧美一区二区三区在线 | 97精品国产91久久久久久久 | 你操综合| 在线成人免费av | 久久艹综合 | a黄色大片 | 在线日本看片免费人成视久网 | 午夜精品一二区 | .国产精品成人自产拍在线观看6 | 新版资源中文在线观看 | 天天躁天天狠天天透 | 香蕉视频久久久 | 国产老太婆免费交性大片 | 麻豆系列在线观看 | 波多野结衣一区 | 国产97在线观看 | 91久久人澡人人添人人爽欧美 | 日韩视频一区二区三区在线播放免费观看 | 亚洲女欲精品久久久久久久18 | 伊人国产女 | 久久久久久久久久国产精品 | 18国产精品白浆在线观看免费 | 国产专区视频在线观看 | 天天爽夜夜爽人人爽一区二区 | 亚洲国产成人久久 | 91精品视频免费在线观看 | 在线观看aaa| 久久综合婷婷综合 | 免费av影视 | 最新真实国产在线视频 | 丁香五婷| 欧美日在线 | 91最新地址永久入口 | 久久久久久久久精 | 国产精品h在线观看 | 在线观看岛国av | 又黄又刺激视频 | 毛片视频电影 | 麻豆91在线播放 | 99r精品视频在线观看 | 亚洲黄色在线观看 | 久久精品国产一区二区 | 开心综合网| 毛片网站在线 | 一区二区三区日韩在线观看 | 国产特级毛片aaaaaaa高清 | 亚洲天堂网在线播放 | 亚洲欧美日本国产 | 在线中文字幕网站 | 亚洲人成免费网站 | 久草在线视频精品 | 国产精品igao视频网入口 | 免费国产亚洲视频 | aaaaaa毛片| 亚洲天堂在线观看完整版 | 欧美日韩精品综合 | 日韩电影在线观看一区二区三区 | 天天躁天天操 | 久久九九久久九九 | 在线观看中文字幕av | 婷婷六月丁 | 在线免费观看涩涩 | 亚洲丁香久久久 | 国产精品涩涩屋www在线观看 | 91香蕉亚洲精品 | 99免费观看视频 | 日韩特级黄色片 | 亚洲成人黄色在线观看 | 国产麻豆电影在线观看 | 在线岛国av | 视频一区二区视频 | 色噜噜在线观看 | 国产高清不卡一区二区三区 | 亚洲人成影院在线 | 中文字幕中文 | 人人插人人费 | 国产日韩欧美在线 | 婷婷国产一区二区三区 | 亚洲国产wwwccc36天堂 | 日本公乱妇视频 | 五月婷婷综合在线 | 成人av电影免费 | 国产一级做a | 久久久久免费精品国产小说色大师 | 国产一二三四在线观看视频 | 天天艹天天干天天 | 久久精品视频在线观看免费 | 午夜狠狠干 | 黄毛片在线观看 | 久久国产a | 欧美激情第十页 | 欧美成人tv| 少妇bbw揉bbb欧美 | 婷婷5月激情5月 | 久久成年人视频 | 国产区免费 | www.91成人 | 91精品网站 | 日韩中文字幕免费在线观看 | 亚洲精品乱码久久久久久按摩 | 国产精品一区在线观看你懂的 | 波多野结衣电影久久 | 99精品视频网 | 深夜福利视频一区二区 | 欧美精品一区二区性色 | 久久久久美女 | 成人黄色免费在线观看 | 天天av综合网 | 中文字幕一区二区三区四区久久 | 激情婷婷网 | 天天射天天操天天干 | 中文字幕在线观看一区二区 | 国产自产在线视频 | 色综合久久久 | 亚洲国产激情 | 97成人资源 | 国产精品久久久久亚洲影视 | 亚洲国产福利视频 | 91在线操 | 亚洲日本va午夜在线影院 | 一区二区三区在线影院 | 成人免费看片98欧美 | 麻豆综合网 | 一级黄色a视频 | 日韩精品免费在线视频 | av爱干| 超碰最新网址 | 在线播放 亚洲 | 91天堂影院 | 日韩小视频 | 特级西西www44高清大胆图片 | 精品国产一区二区三区男人吃奶 | 91视频啊啊啊| 五月天久久激情 | 天天久久夜夜 | 五月婷婷黄色 | 最近2019年日本中文免费字幕 | 国产黄色理论片 | 精品一区二区免费 | a级国产乱理伦片在线观看 亚洲3级 | 福利久久久 | 国产精品福利午夜在线观看 | 日韩久久久久久久久久 | 精品久久毛片 | 国产精品一区二区免费 | 亚洲成人黄色av | 久久短视频 | aa级黄色大片 | 免费观看日韩av | 69精品久久 | 亚洲最新av在线网站 | 人人澡人人模 | 日韩在线免费电影 | 久久伊人操 | 欧美日韩视频精品 | 亚洲 欧美日韩 国产 中文 | 国产欧美中文字幕 | 国产午夜精品一区二区三区欧美 | 久久国产视频网 | www亚洲精品 | av在线一二三区 | japanesexxx乱女另类 | 精品国模一区二区三区 | 九九精品久久久 | 亚洲视频在线观看 | 日韩理论电影在线 | 国内综合精品午夜久久资源 | 国产精品久久久久久麻豆一区 | 午夜影院在线观看18 | 久久综合成人网 | 视频在线99 | 91精品视频免费看 | 国产精品高潮呻吟久久久久 | 中文字幕高清 | 欧美激情视频免费看 | 色九九在线 | 91精品入口 | 日韩电影一区二区三区在线观看 | 亚洲精品美女久久17c | 丁香视频在线观看 | 偷拍福利视频一区二区三区 | 中文字幕日韩高清 | 久久成人午夜 | 四虎海外影库www4hu | 黄色软件大全网站 | 97理论片 | 精品视频999 | 中文字幕在线观看免费 | av线上看| 日韩一区二区三区免费视频 | 五月激情久久 | 国产色综合天天综合网 | 精品国产精品国产偷麻豆 | 国产98色在线 | 日韩 | 国产亚洲精品久久久久久久久久 | 国产精品久久久久免费观看 | 天天操天天操天天爽 | 免费av福利 | 欧美日本在线视频 | 国产日韩欧美在线观看视频 | 欧美在线视频一区二区三区 | 国产精品激情偷乱一区二区∴ | 狠狠综合久久 | 日韩丝袜在线 | 日韩区欧美久久久无人区 | 国产在线观看你懂得 | 日韩av在线免费播放 | a一片一级| 中文字幕在线视频免费播放 | 亚洲精品久久视频 | 亚洲国产精品成人女人久久 | 9i看片成人免费看片 | 亚洲自拍偷拍色图 | 精品91久久久久 | 超碰在线人人草 | 福利一区二区三区四区 |