婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Python jieba 中文分詞與詞頻統計的操作

Python jieba 中文分詞與詞頻統計的操作

熱門標簽:電銷機器人 金倫通信 鄭州智能外呼系統中心 云南地圖標注 北京外呼電銷機器人招商 汕頭電商外呼系統供應商 賓館能在百度地圖標注嗎 400電話 申請 條件 crm電銷機器人 南京crm外呼系統排名

我就廢話不多說了,大家還是直接看代碼吧~

#! python3
# -*- coding: utf-8 -*-
import os, codecs
import jieba
from collections import Counter
 
def get_words(txt):
 seg_list = jieba.cut(txt)
 c = Counter()
 for x in seg_list:
  if len(x)>1 and x != '\r\n':
   c[x] += 1
 print('常用詞頻度統計結果')
 for (k,v) in c.most_common(100):
  print('%s%s %s %d' % (' '*(5-len(k)), k, '*'*int(v/3), v))
 
if __name__ == '__main__':
 with codecs.open('19d.txt', 'r', 'utf8') as f:
  txt = f.read()
 get_words(txt)

樣本:十九大報告全文

常用詞頻度統計結果
  發展 ********************************************************************** 212
  中國 ******************************************************** 168
  人民 **************************************************** 157
  建設 ************************************************* 148
 社會主義 ************************************************ 146
  堅持 ******************************************* 130
  國家 ****************************** 90
  全面 ***************************** 88
  制度 *************************** 83
  實現 *************************** 83
  推進 *************************** 81
  政治 ************************** 80
  社會 ************************** 80
  特色 ************************** 79
  加強 *********************** 71
  體系 ********************** 68
  文化 ********************** 66
  我們 ********************* 64
  時代 ********************* 63
  必須 ******************** 61
  經濟 ******************* 59
  偉大 ******************* 58
  完善 ***************** 51
  我國 **************** 50
  推動 *************** 47
 現代化 *************** 47
  安全 *************** 46
  更加 ************** 44
  民主 ************** 44 

補充:jieba讀取txt文檔并進行分詞、詞頻統計,輸出詞云圖

代碼實現

# 庫的引用
import jieba
import matplotlib as mpl
import matplotlib.pyplot as plt
from wordcloud import WordCloud
#定義一個空字符串
final = ""
#文件夾位置
filename = r"D:\python\pra\推薦系統1-500.txt"
 
#打開文件夾,讀取內容,并進行分詞
with open(filename,'r',encoding = 'utf-8') as f:
  for line in f.readlines():
    word = jieba.cut(line)
    for i in word:
      final = final + i +" "

運行結果

# 圖云打印
word_pic = WordCloud(font_path = r'C:\Windows\Fonts\simkai.ttf',width = 2000,height = 1000).generate(final)
plt.imshow(word_pic)
#去掉坐標軸
plt.axis('off')
#保存圖片到相應文件夾
plt.savefig(r'D:\python\pra\6.png')

圖云輸出圖

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • Python 統計數據集標簽的類別及數目操作
  • Python統計可散列的對象之容器Counter詳解
  • Python 統計列表中重復元素的個數并返回其索引值的實現方法
  • Python實戰之單詞打卡統計
  • python之cur.fetchall與cur.fetchone提取數據并統計處理操作
  • python自動統計zabbix系統監控覆蓋率的示例代碼
  • python 統計代碼耗時的幾種方法分享
  • Python統計列表元素出現次數的方法示例
  • python統計RGB圖片某像素的個數案例
  • 利用Python3實現統計大量單詞中各字母出現的次數和頻率的方法
  • 使用Python 統計文件夾內所有pdf頁數的小工具
  • python 統計list中各個元素出現的次數的幾種方法
  • python調用百度AI接口實現人流量統計
  • Python代碼覆蓋率統計工具coverage.py用法詳解
  • python 爬蟲基本使用——統計杭電oj題目正確率并排序
  • 利用python匯總統計多張Excel
  • python統計mysql數據量變化并調用接口告警的示例代碼
  • 用python實現監控視頻人數統計

標簽:昆明 錫林郭勒盟 西寧 文山 懷化 浙江 石家莊 梅州

巨人網絡通訊聲明:本文標題《Python jieba 中文分詞與詞頻統計的操作》,本文關鍵詞  Python,jieba,中文,分詞,與,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Python jieba 中文分詞與詞頻統計的操作》相關的同類信息!
  • 本頁收集關于Python jieba 中文分詞與詞頻統計的操作的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 铅山县| 石首市| 镇安县| 舟曲县| 新干县| 舞阳县| 甘洛县| 揭西县| 淅川县| 名山县| 东至县| 乌拉特后旗| 胶州市| 班戈县| 东平县| 怀柔区| 新化县| 洛阳市| 汽车| 肇东市| 无锡市| 江川县| 当雄县| 探索| 潼关县| 葵青区| 永泰县| 镇巴县| 浦北县| 枞阳县| 都江堰市| 寿光市| 宝应县| 信宜市| 故城县| 徐州市| 祁东县| 遂溪县| 罗城| 玉环县| 孟连|