国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

python jieba分詞并統計詞頻后輸出結果到Excel和txt文檔方法

2020-02-22 23:14:02
字體:
來源:轉載
供稿:網友

前兩天,班上同學寫論文,需要將很多篇論文題目按照中文的習慣分詞并統計每個詞出現的頻率。

讓我幫她實現這個功能,我在網上查了之后發現jieba這個庫還挺不錯的。

運行環境:

    安裝python2.7.13:https://www.python.org/downloads/release/python-2713/ 安裝jieba:pip install jieba 安裝xlwt:pip install xlwt

具體代碼如下:

#!/usr/bin/python # -*- coding:utf-8 -*-  import sys reload(sys)  sys.setdefaultencoding('utf-8')  import jieba import jieba.analyse import xlwt #寫入Excel表的庫  if __name__=="__main__":   wbk = xlwt.Workbook(encoding = 'ascii')  sheet = wbk.add_sheet("wordCount")#Excel單元格名字  word_lst = []  key_list=[]  for line in open('1.txt'):#1.txt是需要分詞統計的文檔    item = line.strip('/n/r').split('/t') #制表格切分   # print item   tags = jieba.analyse.extract_tags(item[0]) #jieba分詞   for t in tags:    word_lst.append(t)   word_dict= {}  with open("wordCount.txt",'w') as wf2: #打開文件    for item in word_lst:    if item not in word_dict: #統計數量     word_dict[item] = 1    else:     word_dict[item] += 1    orderList=list(word_dict.values())   orderList.sort(reverse=True)   # print orderList   for i in range(len(orderList)):    for key in word_dict:     if word_dict[key]==orderList[i]:      wf2.write(key+' '+str(word_dict[key])+'/n') #寫入txt文檔      key_list.append(key)      word_dict[key]=0      for i in range(len(key_list)):   sheet.write(i, 1, label = orderList[i])   sheet.write(i, 0, label = key_list[i])  wbk.save('wordCount.xls') #保存為 wordCount.xls文件 

1.txt是你需要分詞統計的文本內容,最后會生成wordCount.txt和wordCount.xls兩個文件。下圖是最后結果

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持武林站長站。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 东宁县| 岳普湖县| 尉氏县| 永宁县| 日土县| 中西区| 琼海市| 西和县| 页游| 阳城县| 凤山县| 韶山市| 丹江口市| 盈江县| 衢州市| 玉树县| 马尔康县| 侯马市| 牟定县| 崇州市| 潼南县| 江永县| 海原县| 平泉县| 张家港市| 桓台县| 枣强县| 乡宁县| 合作市| 岳池县| 江西省| 庐江县| 金门县| 蛟河市| 寻甸| 湖北省| 雅江县| 桂平市| 姚安县| 灵武市| 毕节市|