日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

当前几个主要的Lucene中文分词器的比较

發布時間:2025/6/15 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 当前几个主要的Lucene中文分词器的比较 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

http://blog.fulin.org/2009/08/lucene_chinese_analyzer_compare.html

?

1. 基本介紹:

paoding :Lucene中文分詞“庖丁解?!?Paoding Analysis
imdict :imdict智能詞典所采用的智能中文分詞程序
mmseg4j : 用 Chih-Hao Tsai 的 MMSeg 算法 實現的中文分詞器
ik :采用了特有的“正向迭代最細粒度切分算法“,多子處理器分析模式

2. 開發者及開發活躍度:

paodingqieqie.wang, google code 上最后一次代碼提交:2008-06-12,svn 版本號 132
imdictXiaoPingGao, 進入了 lucene contribute,lucene trunk 中 contrib/analyzers/smartcn/ 最后一次提交:2009-07-24,
mmseg4jchenlb2008,google code 中 2009-08-03 (昨天),版本號 57,log為:mmseg4j-1.7 創建分支
iklinliangyi2005,google code 中 2009-07-31,版本號 41

3. 用戶自定義詞庫:

paoding :支持不限制個數的用戶自定義詞庫,純文本格式,一行一詞,使用后臺線程檢測詞庫的更新,自動編譯更新過的詞庫到二進制版本,并加載
imdict :暫時不支持用戶自定義詞庫。但 原版 ICTCLAS 支持。支持用戶自定義 stop words
mmseg4j :自帶sogou詞庫,支持名為 wordsxxx.dic, utf8文本格式的用戶自定義詞庫,一行一詞。不支持自動檢測。 -Dmmseg.dic.path
ik : 支持api級的用戶詞庫加載,和配置級的詞庫文件指定,無 BOM 的 UTF-8 編碼,\r\n 分割。不支持自動檢測。

4. 速度(基于官方介紹,非自己測試)

paoding :在PIII 1G內存個人機器上,1秒 可準確分詞 100萬 漢字
imdict483.64 (字節/秒),259517(漢字/秒)
mmseg4j : complex 1200kb/s左右, simple 1900kb/s左右
ik :具有50萬字/秒的高速處理能力

5. 算法和代碼復雜度

paoding :svn src 目錄一共1.3M,6個properties文件,48個java文件,6895 行。使用不用的 Knife 切不同類型的流,不算很復雜。
imdict :詞庫 6.7M(這個詞庫是必須的),src 目錄 152k,20個java文件,2399行。使用 ICTCLAS HHMM隱馬爾科夫模型,“利用大量語料庫的訓練來統計漢語詞匯的詞頻和跳轉概率,從而根據這些統計結果對整個漢語句子計算最似然(likelihood)的切分”
mmseg4j : svn src 目錄一共 132k,23個java文件,2089行。MMSeg 算法 ,有點復雜。
ik : svn src 目錄一共6.6M(詞典文件也在里面),22個java文件,4217行。多子處理器分析,跟paoding類似,歧義分析算法還沒有弄明白。

6. 文檔

paoding :幾乎無。代碼里有一些注釋,但因為實現比較復雜,讀代碼還是有一些難度的。
imdict : 幾乎無。 ICTCLAS 也沒有詳細的文檔,HHMM隱馬爾科夫模型的數學性太強,不太好理解。
mmseg4jMMSeg 算法 是英文的,但原理比較簡單。實現也比較清晰。
ik : 有一個pdf使用手冊,里面有使用示例和配置說明。

7. 其它

paoding :引入隱喻,設計比較合理。search 1.0 版本就用的這個。主要優勢在于原生支持詞庫更新檢測。主要劣勢為作者已經不更新甚至不維護了。
imdict :進入了 lucene trunk,原版 ictclas 在各種評測中都有不錯的表現,有堅實的理論基礎,不是個人山寨。缺點為暫時不支持用戶詞庫。
mmseg4j : 在complex基礎上實現了最多分詞(max-word),但是還不成熟,還有很多需要改進的地方。
ik :? 針對Lucene全文檢索優化的查詢分析器IKQueryParser

8. 結論

個人覺得,可以在 mmseg4j 和 paoding 中選一個。關于這兩個分詞效果的對比,可以參考:

http://blog.chenlb.com/2009/04/mmseg4j-max-word-segment-compare-with-paoding-in-effect.html

或者自己再包裝一下,將 paoding 的詞庫更新檢測做一個單獨的模塊實現,然后就可以在所有基于詞庫的分詞算法之間無縫切換了。

ps,對不同的 field 使用不同的分詞器是一個可以考慮的方法。比如 tag 字段,就應該使用一個最簡單的分詞器,按空格分詞就可以了。

總結

以上是生活随笔為你收集整理的当前几个主要的Lucene中文分词器的比较的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。