国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

python jieba分詞并統計詞頻后輸出結果到Excel和txt文檔方法

2020-01-04 15:51:47
字體:
來源:轉載
供稿:網友

前兩天,班上同學寫論文,需要將很多篇論文題目按照中文的習慣分詞并統計每個詞出現的頻率。

讓我幫她實現這個功能,我在網上查了之后發現jieba這個庫還挺不錯的。

運行環境:

  1. 安裝python/292044.html">python2.7.13:https://www.python.org/downloads/release/python-2713/
  2. 安裝jieba:pip install jieba
  3. 安裝xlwt:pip install xlwt

具體代碼如下:

#!/usr/bin/python # -*- coding:utf-8 -*-  import sys reload(sys)  sys.setdefaultencoding('utf-8')  import jieba import jieba.analyse import xlwt #寫入Excel表的庫  if __name__=="__main__":   wbk = xlwt.Workbook(encoding = 'ascii')  sheet = wbk.add_sheet("wordCount")#Excel單元格名字  word_lst = []  key_list=[]  for line in open('1.txt'):#1.txt是需要分詞統計的文檔    item = line.strip('/n/r').split('/t') #制表格切分   # print item   tags = jieba.analyse.extract_tags(item[0]) #jieba分詞   for t in tags:    word_lst.append(t)   word_dict= {}  with open("wordCount.txt",'w') as wf2: #打開文件    for item in word_lst:    if item not in word_dict: #統計數量     word_dict[item] = 1    else:     word_dict[item] += 1    orderList=list(word_dict.values())   orderList.sort(reverse=True)   # print orderList   for i in range(len(orderList)):    for key in word_dict:     if word_dict[key]==orderList[i]:      wf2.write(key+' '+str(word_dict[key])+'/n') #寫入txt文檔      key_list.append(key)      word_dict[key]=0      for i in range(len(key_list)):   sheet.write(i, 1, label = orderList[i])   sheet.write(i, 0, label = key_list[i])  wbk.save('wordCount.xls') #保存為 wordCount.xls文件 

1.txt是你需要分詞統計的文本內容,最后會生成wordCount.txt和wordCount.xls兩個文件。下圖是最后結果

python,jieba分詞,jieba詞頻統計,jieba分詞并統計詞頻

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持VEVB武林網。


注:相關教程知識閱讀請移步到python教程頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 平利县| 花莲县| 塘沽区| 海南省| 蒙阴县| 柘城县| 白山市| 景德镇市| 临夏县| 醴陵市| 汤原县| 奉新县| 海南省| 临朐县| 虞城县| 久治县| 修水县| 广东省| 莱阳市| 武威市| 和硕县| 隆林| 靖远县| 手游| 秀山| 泉州市| 辽中县| 黄山市| 汤原县| 宜兰市| 延安市| 伽师县| 安西县| 保靖县| 微山县| 庆阳市| 佛教| 兴和县| 潜山县| 浦东新区| 新宁县|