日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【NLP】【七】fasttext源码解析

發(fā)布時(shí)間:2025/3/20 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【NLP】【七】fasttext源码解析 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

2019獨(dú)角獸企業(yè)重金招聘Python工程師標(biāo)準(zhǔn)>>>

【一】關(guān)于fasttext

fasttext是Facebook開源的一個工具包,用于詞向量訓(xùn)練和文本分類。該工具包使用C++11編寫,全部使用C++11 STL(這里主要是thread庫),不依賴任何第三方庫。具體使用方法見:https://fasttext.cc/ ,在Linux 使用非常方便。fasttext不僅提供了軟件源碼,還提供了訓(xùn)練好的一些模型(多語種的詞向量:英文、中文等150余種)

源碼地址:https://github.com/facebookresearch/fastText/

gensim也對該功能進(jìn)行了封裝,可以直接使用。

fasttext的源碼實(shí)現(xiàn)非常優(yōu)雅,分析源碼,帶來以下幾方面的收獲:

1. 如何組織文本數(shù)據(jù)?

2. CBOW和skip-gram是如何實(shí)現(xiàn)的?

3. 模型如何量化?

【二】fasttext整體結(jié)構(gòu)

?

【三】fasttext參數(shù)配置

主要參數(shù)如下:

具體參數(shù)使用可以參考:https://fasttext.cc/docs/en/support.html

【四】dict相關(guān)源碼分析

1. 從輸入數(shù)據(jù)構(gòu)造詞典的整體流程

void Dictionary::readFromFile(std::istream& in) {std::string word;int64_t minThreshold = 1;// 1. 逐詞讀取while (readWord(in, word)) {// 2. 將詞添加到詞典中add(word);if (ntokens_ % 1000000 == 0 && args_->verbose > 1) {std::cerr << "\rRead " << ntokens_ / 1000000 << "M words" << std::flush;}// 如果超出詞典容量,則去除低頻詞if (size_ > 0.75 * MAX_VOCAB_SIZE) {minThreshold++;// 去除低頻詞threshold(minThreshold, minThreshold);}}// 去除低頻詞,并按照詞頻降序排序threshold(args_->minCount, args_->minCountLabel);initTableDiscard();// 基于n-gram,初始化sub-wordinitNgrams();if (args_->verbose > 0) {std::cerr << "\rRead " << ntokens_ / 1000000 << "M words" << std::endl;std::cerr << "Number of words: " << nwords_ << std::endl;std::cerr << "Number of labels: " << nlabels_ << std::endl;}if (size_ == 0) {throw std::invalid_argument("Empty vocabulary. Try a smaller -minCount value.");} }

2. 面對不同的語言,如何讀取一個詞?

// 1. 對于詞向量訓(xùn)練,需要先分詞,然后詞之前用空格隔開 bool Dictionary::readWord(std::istream& in, std::string& word) const {int c;// 1. 獲取文件流的data指針std::streambuf& sb = *in.rdbuf();word.clear();// 2. 循環(huán)讀取,每次從文件流中讀取一個charwhile ((c = sb.sbumpc()) != EOF) {// 3. 對c讀取的字符做不同的處理,如果不是空格等,則繼續(xù)讀取下一個字符if (c == ' ' || c == '\n' || c == '\r' || c == '\t' || c == '\v' ||c == '\f' || c == '\0') {if (word.empty()) {if (c == '\n') {word += EOS;return true;}continue;} else {if (c == '\n')sb.sungetc();return true;}}// 4. 將char添加到word中,繼續(xù)讀取下一個字符word.push_back(c);}// trigger eofbitin.get();return !word.empty(); }

3. 如何將一個詞添加到詞典中?

void Dictionary::add(const std::string& w) {// 1. 通過find獲取詞的hash值int32_t h = find(w);ntokens_++;// 2. 通過hash值,查詢該詞是否在表word2int_中。// 該表的下標(biāo)為詞的hash值,value為詞的id,容量為 MAX_VOCAB_SIZEif (word2int_[h] == -1) {// 3. 新詞,將其添加到詞典 words_中entry e;e.word = w;e.count = 1; // 新詞,詞頻為1e.type = getType(w); // 詞的類型,分類則為label,詞向量則為word,即將所有的詞放在一個詞典中的// 沒有分開存儲label與wordwords_.push_back(e);word2int_[h] = size_++; // 添加詞的id,id就是個順序值,和普通的for循環(huán)中的i作為id是一樣的} else {// 詞典中已存在的詞,僅增加詞頻words_[word2int_[h]].count++;} }

4. 如何去低頻詞?

void Dictionary::threshold(int64_t t, int64_t tl) {// 1. 先對詞典中的詞按照詞頻排序,sort(words_.begin(), words_.end(), [](const entry& e1, const entry& e2) {if (e1.type != e2.type) {return e1.type < e2.type;}// 詞頻降序排列return e1.count > e2.count;});// 2. 將 word 詞頻小于t的刪除,將label詞頻小于t1的刪除words_.erase(remove_if(words_.begin(),words_.end(),[&](const entry& e) {return (e.type == entry_type::word && e.count < t) ||(e.type == entry_type::label && e.count < tl);}),words_.end());// 3. 詞典容量調(diào)整,前面刪除了部分詞。words_.shrink_to_fit();// 4. 重置詞典數(shù)據(jù)size_ = 0;nwords_ = 0;nlabels_ = 0;std::fill(word2int_.begin(), word2int_.end(), -1);// 將詞典中的數(shù)據(jù)重新計(jì)算id值for (auto it = words_.begin(); it != words_.end(); ++it) {int32_t h = find(it->word);word2int_[h] = size_++;if (it->type == entry_type::word) {nwords_++;}if (it->type == entry_type::label) {nlabels_++;}} }

5.?initTableDiscard

void Dictionary::initTableDiscard() {// 將 大小調(diào)整為詞典大小pdiscard_.resize(size_);for (size_t i = 0; i < size_; i++) {// 計(jì)算概率,詞頻/詞總數(shù)real f = real(words_[i].count) / real(ntokens_);pdiscard_[i] = std::sqrt(args_->t / f) + args_->t / f;} }

6.?initNgrams

void Dictionary::initNgrams() {for (size_t i = 0; i < size_; i++) {// 1. 從詞典中獲取一個詞,并給該詞加上"<"與">",例如:北京---->"<北京>"std::string word = BOW + words_[i].word + EOW;words_[i].subwords.clear();// 該詞的子詞列表,首先添加全詞的id,全詞也算一個子詞words_[i].subwords.push_back(i);if (words_[i].word != EOS) {// 依據(jù)n-gram,計(jì)算子詞computeSubwords(word, words_[i].subwords);}} } // word ---->原始的詞 // ngrams --->依據(jù)n-gram分割出的子詞,出參 // substrings --->默認(rèn)值為nullptr void Dictionary::computeSubwords(const std::string& word,std::vector<int32_t>& ngrams,std::vector<std::string>* substrings) const {// 1. 獲取詞的大小,一個詞可能是由多個字符組成的// 例如:word = "<終南山>"for (size_t i = 0; i < word.size(); i++) {std::string ngram;// 2. 這里是為了解決utf-8編碼問題// 參考:https://stackoverflow.com/questions/3911536/utf-8-unicode-whats-with-0xc0-and-0x80if ((word[i] & 0xC0) == 0x80) {continue;}// args_->maxn --->配置參數(shù),表示n-gram中的n的最大值,默認(rèn)為maxn = 6;// args_->minn --->配置參數(shù),表示n-gram中的n的最小值,默認(rèn)為minn = 3;// args_->bucket--->配置參數(shù),表示bucket = 2000000;// 進(jìn)行n-gram切分:例如:終南山---->終南、南山for (size_t j = i, n = 1; j < word.size() && n <= args_->maxn; n++) {ngram.push_back(word[j++]);while (j < word.size() && (word[j] & 0xC0) == 0x80) {ngram.push_back(word[j++]);}if (n >= args_->minn && !(n == 1 && (i == 0 || j == word.size()))) {int32_t h = hash(ngram) % args_->bucket;// 這里面會建立一個sub-word的hash索引pushHash(ngrams, h);if (substrings) {substrings->push_back(ngram);}}}} }

至此,依據(jù)數(shù)據(jù)數(shù)據(jù)構(gòu)建詞典的流程已經(jīng)完成。主要是完成了word的去重、詞頻統(tǒng)計(jì)、詞頻排序、基于n-gram的sub-word預(yù)處理、word2id等處理。

【五】train流程分析

1. train的主流程

void FastText::train(const Args args) {args_ = std::make_shared<Args>(args);dict_ = std::make_shared<Dictionary>(args_);if (args_->input == "-") {// manage expectationsthrow std::invalid_argument("Cannot use stdin for training!");}std::ifstream ifs(args_->input);if (!ifs.is_open()) {throw std::invalid_argument(args_->input + " cannot be opened for training!");}// 1. 詞典構(gòu)造dict_->readFromFile(ifs);ifs.close();// 2. 如果有與訓(xùn)練的向量,則加載if (args_->pretrainedVectors.size() != 0) {loadVectors(args_->pretrainedVectors);} else {// 3. 構(gòu)造輸入數(shù)據(jù)矩陣的大小,這里也就是embidding的大小// V*minput_ =std::make_shared<Matrix>(dict_->nwords() + args_->bucket, args_->dim);// 初始化詞嵌入矩陣input_->uniform(1.0 / args_->dim);}if (args_->model == model_name::sup) {// 隱層輸出矩陣大小,分類: n*m,詞向量 V*moutput_ = std::make_shared<Matrix>(dict_->nlabels(), args_->dim);} else {output_ = std::make_shared<Matrix>(dict_->nwords(), args_->dim);}output_->zero();// 啟動計(jì)算startThreads();model_ = std::make_shared<Model>(input_, output_, args_, 0);if (args_->model == model_name::sup) {model_->setTargetCounts(dict_->getCounts(entry_type::label));} else {model_->setTargetCounts(dict_->getCounts(entry_type::word));} }

2. 單線程訓(xùn)練流程

void FastText::trainThread(int32_t threadId) {std::ifstream ifs(args_->input);// 1. 按照線程數(shù),將輸入數(shù)據(jù)平均分配給各個線程,// 各個線程之間不存在數(shù)據(jù)競爭,英雌不需要加鎖utils::seek(ifs, threadId * utils::size(ifs) / args_->thread);// 2. 初始化一個modelModel model(input_, output_, args_, threadId);// 3. setTargetCounts 接口內(nèi)部會完成tree或者負(fù)采樣的數(shù)據(jù)初始化if (args_->model == model_name::sup) {model.setTargetCounts(dict_->getCounts(entry_type::label));} else {model.setTargetCounts(dict_->getCounts(entry_type::word));}const int64_t ntokens = dict_->ntokens();int64_t localTokenCount = 0;std::vector<int32_t> line, labels;while (tokenCount_ < args_->epoch * ntokens) {// 計(jì)算處理進(jìn)度,動態(tài)調(diào)整學(xué)習(xí)率real progress = real(tokenCount_) / (args_->epoch * ntokens);real lr = args_->lr * (1.0 - progress);// 每次讀取一行數(shù)據(jù),依據(jù)模型不同,調(diào)用不同接口處理if (args_->model == model_name::sup) {// 文本分類localTokenCount += dict_->getLine(ifs, line, labels);supervised(model, lr, line, labels);} else if (args_->model == model_name::cbow) {// cbowlocalTokenCount += dict_->getLine(ifs, line, model.rng);cbow(model, lr, line);} else if (args_->model == model_name::sg) {// sglocalTokenCount += dict_->getLine(ifs, line, model.rng);skipgram(model, lr, line);}if (localTokenCount > args_->lrUpdateRate) {tokenCount_ += localTokenCount;localTokenCount = 0;if (threadId == 0 && args_->verbose > 1)loss_ = model.getLoss();}}if (threadId == 0)loss_ = model.getLoss();ifs.close(); }

3. 層次softmax的tree的構(gòu)造

void Model::buildTree(const std::vector<int64_t>& counts) {tree.resize(2 * osz_ - 1);for (int32_t i = 0; i < 2 * osz_ - 1; i++) {tree[i].parent = -1;tree[i].left = -1;tree[i].right = -1;tree[i].count = 1e15;tree[i].binary = false;}for (int32_t i = 0; i < osz_; i++) {tree[i].count = counts[i];}int32_t leaf = osz_ - 1;int32_t node = osz_;for (int32_t i = osz_; i < 2 * osz_ - 1; i++) {int32_t mini[2];for (int32_t j = 0; j < 2; j++) {if (leaf >= 0 && tree[leaf].count < tree[node].count) {mini[j] = leaf--;} else {mini[j] = node++;}}tree[i].left = mini[0];tree[i].right = mini[1];tree[i].count = tree[mini[0]].count + tree[mini[1]].count;tree[mini[0]].parent = i;tree[mini[1]].parent = i;tree[mini[1]].binary = true;}for (int32_t i = 0; i < osz_; i++) {std::vector<int32_t> path;std::vector<bool> code;int32_t j = i;while (tree[j].parent != -1) {// 節(jié)點(diǎn)路徑,即從root到label的路徑// 路徑哈夫曼編碼,即從root到label的路徑的哈夫曼編碼// 后面會借用這兩個變量,計(jì)算losspath.push_back(tree[j].parent - osz_);code.push_back(tree[j].binary);j = tree[j].parent;}paths.push_back(path);codes.push_back(code);} }

4. 負(fù)采樣

void Model::initTableNegatives(const std::vector<int64_t>& counts) {real z = 0.0;for (size_t i = 0; i < counts.size(); i++) {z += pow(counts[i], 0.5);}for (size_t i = 0; i < counts.size(); i++) {real c = pow(counts[i], 0.5);for (size_t j = 0; j < c * NEGATIVE_TABLE_SIZE / z; j++) {negatives_.push_back(i);}}std::shuffle(negatives_.begin(), negatives_.end(), rng); }

5. 參數(shù)更新

void Model::update(const std::vector<int32_t>& input, int32_t target, real lr) {assert(target >= 0);assert(target < osz_);if (input.size() == 0) {return;}// 1. 計(jì)算隱層的輸出值。如果是分類,則是labels_number * 1// 如果是word2vec,則是V*1computeHidden(input, hidden_);// 依據(jù)模型類型調(diào)用不同的接口計(jì)算lossif (args_->loss == loss_name::ns) {loss_ += negativeSampling(target, lr);} else if (args_->loss == loss_name::hs) {loss_ += hierarchicalSoftmax(target, lr);} else {loss_ += softmax(target, lr);}nexamples_ += 1;// 梯度計(jì)算,參數(shù)更新if (args_->model == model_name::sup) {grad_.mul(1.0 / input.size());}for (auto it = input.cbegin(); it != input.cend(); ++it) {wi_->addRow(grad_, *it, 1.0);} }

具體計(jì)算的代碼這里就不分析了。

【六】總結(jié)

其余部分的代碼(如:預(yù)測、評估等),這里就不分析了,順著代碼看就可以了。fasttext的代碼結(jié)構(gòu)還是比較簡單的。代碼閱讀的難點(diǎn)在于算法的理解。后續(xù)再結(jié)合算法,對代碼細(xì)節(jié)做分析。

fasttext是一個很好的工具,但要訓(xùn)練出一個合適的模型,需要對模型的參數(shù)有所理解,然而一般情況下,默認(rèn)的參數(shù)就能滿足要求了。

轉(zhuǎn)載于:https://my.oschina.net/u/3800567/blog/2877570

總結(jié)

以上是生活随笔為你收集整理的【NLP】【七】fasttext源码解析的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。