日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

cbow word2vec 损失_Skip-gram和CBOW知识点

發布時間:2024/9/19 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 cbow word2vec 损失_Skip-gram和CBOW知识点 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本文涉及的內容:

  • 如何構造HuffMan樹
  • Hierarchical Softmax似然函數
  • skip-gram似然函數
  • CBOW似然函數
  • Negative Sampling方法
  • 一 HuffMan樹構造方法

  • 構造一顆顆的單結點樹,樹的值為單詞的出現頻率
  • 在森林中找到值最小的兩顆樹合并,兩顆樹的和為根節點的和,兩顆樹作為左右子樹。刪除兩顆子樹,左子樹的值大于右子樹的值。
  • 重復2和3,直到只有一棵樹。
  • 哈夫曼樹構造過程

    哈夫曼樹編碼過程

    二 Hierarchical Softmax

    背景:

    ,算法的復雜度為 ,利用Hierarchical Softmax可以將復雜度降為 。

    例如

    同時出現在一個窗口中, 是 對應的詞向量,我們希望 從根節點出發到達 的概率最大。在 獨立同分布的假設下,似然函數為:

    三 Skip-gram參數更新

    skip-gram是利用中間的單詞窗口中的上下文,用

    表示中間單詞, 表示窗口中的另外一個單詞,注意上下文是相互的,在期望 最大的同時, 也是最大的。在實際操作中,是利用梯度上升讓 最大。這樣做的好處是,在每一個窗口中,不僅更新了 ,還更新了 個 , 為窗口的大小;壞處是比CBOW的訓練時間長 倍。下面是skip-gram更新參數偽代碼:for i in range(1, 2c):e = np.zeros_like(x_i)for j in range(2, l_w):f = 1 / (1 + np.exp(np.dot(x_i, sitaw_j)))g = (1 - dw_j - f) * yitasitaw_j = sitaw_j + g * x_ie = e + g * sitaw_j;x_i = x_i + e

    四 CBOW參數更新

    CBOW是利用上下文單詞的平均向量預測中間單詞,

    。偽代碼如下:for i in range(1, 2c):x_w += x_i x_w = xw / ac for j in range(2, lw):f = 1 / (1 + np.exp(np.dot(x_w, sitaw_j)))g = (1 - dw_j - f) * yitasitaw_j = sitaw_j + g * x_we = e + g * sitaw_j for i in range(1, 2c):x_i = x_i + e

    五 Negative Sampling

    Hierachical softmax需要構造HuffMan樹,每次都要循環求概率積。Negative Sampling的思路是每次訓練的時候從整個訓練庫當中按照單詞概率抽取幾個負樣本,損失函數定義為:

    求導數很簡單,可以手動推導一下。

    參考鏈接:

    yuyuqi:word2vec(cbow+skip-gram+hierarchical softmax+Negative sampling)模型深度解析?zhuanlan.zhihu.comword2vec原理(二) 基于Hierarchical Softmax的模型?www.cnblogs.com

    總結

    以上是生活随笔為你收集整理的cbow word2vec 损失_Skip-gram和CBOW知识点的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。