日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

Python + wordcloud + jieba 十分钟学会生成中文词云

發布時間:2025/3/21 python 49 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python + wordcloud + jieba 十分钟学会生成中文词云 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

前述

本文需要的兩個Python類庫
jieba:中文分詞分詞工具
wordcloud:Python下的詞云生成工具

寫作本篇文章用時一個小時半,閱讀需要十分鐘,讀完該文章后你將學會如何將任意中文文本生成詞云
Python詞云 wordcloud 十五分鐘入門與進階
Python中文分詞 jieba 十五分鐘入門與進階

代碼組成簡介##

  • 代碼部分來源于其他人的博客,但是因為bug或者運行效率的原因,我對代碼進行了較大的改變
  • 代碼第一部分,設置代碼運行需要的大部分參數,你可以方便的直接使用該代碼而不需要進行過多的修改
  • 第二部分為jieba的一些設置,當然你也可以利用isCN參數取消中文分詞
  • 第三部分,wordcloud的設置,包括圖片展示與保存
  • 如果你想用該代碼生成英文詞云,那么你需要將isCN參數設置為0,并且提供英文的停用詞表,但是我更推薦你使用Python詞云 worldcloud 十五分鐘入門與進階這篇文章中的代碼,因為它更簡潔,更有利于使用’

    ##Use the code by comment ##

    關于該程序的使用,你可以直接讀注釋在數分鐘內學會如何使用它

    # - * - coding: utf - 8 -*- # # 作者:田豐(FontTian) # 創建時間:'2017/5/23' # 郵箱:fonttian@163.com # CSDN:http://blog.csdn.net/fontthrone from os import path from scipy.misc import imread import matplotlib.pyplot as plt import jieba # jieba.load_userdict("txt\userdict.txt") # 添加用戶詞庫為主詞典,原詞典變為非主詞典 from wordcloud import WordCloud, ImageColorGenerator# 獲取當前文件路徑 # __file__ 為當前文件, 在ide中運行此行會報錯,可改為 # d = path.dirname('.') d = path.dirname(__file__)stopwords = {} isCN = 1 #默認啟用中文分詞 back_coloring_path = "img/lz1.jpg" # 設置背景圖片路徑 text_path = 'txt/lz.txt' #設置要分析的文本路徑 font_path = 'D:\Fonts\simkai.ttf' # 為matplotlib設置中文字體路徑沒 stopwords_path = 'stopwords\stopwords1893.txt' # 停用詞詞表 imgname1 = "WordCloudDefautColors.png" # 保存的圖片名字1(只按照背景圖片形狀) imgname2 = "WordCloudColorsByImg.png"# 保存的圖片名字2(顏色按照背景圖片顏色布局生成)my_words_list = ['路明非'] # 在結巴的詞庫中添加新詞back_coloring = imread(path.join(d, back_coloring_path))# 設置背景圖片# 設置詞云屬性 wc = WordCloud(font_path=font_path, # 設置字體background_color="white", # 背景顏色max_words=2000, # 詞云顯示的最大詞數mask=back_coloring, # 設置背景圖片max_font_size=100, # 字體最大值random_state=42,width=1000, height=860, margin=2,# 設置圖片默認的大小,但是如果使用背景圖片的話,那么保存的圖片大小將會按照其大小保存,margin為詞語邊緣距離)# 添加自己的詞庫分詞 def add_word(list):for items in list:jieba.add_word(items)add_word(my_words_list)text = open(path.join(d, text_path)).read()def jiebaclearText(text):mywordlist = []seg_list = jieba.cut(text, cut_all=False)liststr="/ ".join(seg_list)f_stop = open(stopwords_path)try:f_stop_text = f_stop.read( )f_stop_text=unicode(f_stop_text,'utf-8')finally:f_stop.close( )f_stop_seg_list=f_stop_text.split('\n')for myword in liststr.split('/'):if not(myword.strip() in f_stop_seg_list) and len(myword.strip())>1:mywordlist.append(myword)return ''.join(mywordlist)if isCN:text = jiebaclearText(text)# 生成詞云, 可以用generate輸入全部文本(wordcloud對中文分詞支持不好,建議啟用中文分詞),也可以我們計算好詞頻后使用generate_from_frequencies函數 wc.generate(text) # wc.generate_from_frequencies(txt_freq) # txt_freq例子為[('詞a', 100),('詞b', 90),('詞c', 80)] # 從背景圖片生成顏色值 image_colors = ImageColorGenerator(back_coloring)plt.figure() # 以下代碼顯示圖片 plt.imshow(wc) plt.axis("off") plt.show() # 繪制詞云# 保存圖片 wc.to_file(path.join(d, imgname1))image_colors = ImageColorGenerator(back_coloring)plt.imshow(wc.recolor(color_func=image_colors)) plt.axis("off") # 繪制背景圖片為顏色的圖片 plt.figure() plt.imshow(back_coloring, cmap=plt.cm.gray) plt.axis("off") plt.show() # 保存圖片 wc.to_file(path.join(d, imgname2))

    good luck

    總結

    以上是生活随笔為你收集整理的Python + wordcloud + jieba 十分钟学会生成中文词云的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。