运用jieba库分词

---恢复内容开始---

                运用jieba库分词

  

一、jieba库基本介绍

1、jieba库概述

jieba是优秀的中文分词第三方库

- 中文文本需要通过分词获得单个的词语
         - jieba是优秀的中文分词第三方库,需要额外安装

- jieba库提供三种分词模式,最简单只需掌握一个函数

2、jieba分词的原理

Jieba分词依靠中文词库

- 利用一个中文词库,确定汉字之间的关联概率
         - 汉字间概率大的组成词组,形成分词结果

- 除了分词,用户还可以添加自定义的词组

3、jieba库使用说明

(1)、jieba分词的三种模式

精确模式、全模式、搜索引擎模式

- 精确模式:把文本精确的切分开,不存在冗余单词
         - 全模式:把文本中所有可能的词语都扫描出来,有冗余

- 搜索引擎模式:在精确模式基础上,对长词再次切分

(2)、jieba库常用函数

    

二、安装jieba库

  点击电脑中的‘开始’,然后在搜索栏中输入‘cmd’,点击‘命令指示符’,出现界面后在输入‘pip install jieba’,刚开始的时候,我的电脑出现了这样的情况,安装不了。

       

 后来在老师的帮助下,就安装成功了。而且在安装其他库的时候也不会再出现第一次的情况。

    

  这样就安装成功啦~~~

三、jieba库的使用用例

1、分词

    

  

2、词云

  这是我在网上找的词云的一个例子: 

  1 # 如果您需要使用此代码,os.chdir路经需要指定到txt文本所在路径
  2 # 使用Zipin函数,需要txt有read()函数可以打开的正确的编码格式
  3 # 使用Cipin函数需要安装jieba库
  4 # 使用word cloud函数需要安装wordcloud与matplotlib库
  5 import os
  6 import codecs
  7 import jieba
  8 import pandas as pd
  9 from wordcloud import WordCloud
 10 from scipy.misc import imread
 11 import matplotlib.pyplot as plt
 12 os.chdir("/Users/Zhaohaibo/Desktop")
 13
 14 class Hlm(object):
 15
 16     # —————————————————————
 17     # Zipin(self, readdoc, writedoc)
 18     # readdoc: 要读取的文件名
 19     # writedoc:要写入的文件名
 20
 21     # output
 22     # 字频前100,并写入writedoc
 23     # —————————————————————
 24     def Zipin(self, readdoc, writedoc):
 25         word_lst = []
 26         word_dict = {}
 27         exclude_str = ",。!?、()【】<>《》=:+-*—“”…"
 28         with open(readdoc,"r") as fileIn ,open(writedoc,‘w‘) as fileOut:
 29
 30             # 添加每一个字到列表中
 31             for line in fileIn:
 32                 for char in line:
 33                     word_lst.append(char)
 34
 35             # 用字典统计每个字出现的个数
 36             for char in word_lst:
 37                 if char not in exclude_str:
 38                     if char.strip() not in word_dict: # strip去除各种空白
 39                         word_dict[char] = 1
 40                     else :
 41                         word_dict[char] += 1
 42
 43             # 排序x[1]是按字频排序,x[0]则是按字排序
 44             lstWords = sorted(word_dict.items(), key=lambda x:x[1],  reverse=True)
 45
 46             # 输出结果 (前100)
 47             print (‘字符\t字频‘)
 48             print (‘=============‘)
 49             for e in lstWords[:100]:
 50                 print (‘%s\t%d‘ % e)
 51                 fileOut.write(‘%s, %d\n‘ % e)
 52
 53
 54     # —————————————————————
 55     # Cipin(self, doc)
 56     # doc: 要读取的文件名
 57
 58     # return:
 59     # 词频表(DataFrame格式)
 60     # —————————————————————
 61     def Cipin(self, doc):
 62         wdict = {}
 63         f = open(doc,"r")
 64         for line in f.readlines():
 65             words = jieba.cut(line)
 66             for w in words:
 67                 if(w not in wdict):
 68                     wdict[w] = 1
 69                 else:
 70                     wdict[w] += 1
 71         # 导入停用词表
 72         stop = pd.read_csv(‘stoplist.txt‘, encoding = ‘utf-8‘, sep = ‘zhao‘, header = None,engine = ‘python‘) #sep:分割符号(需要用一个确定不会出现在停用词表中的单词)
 73         stop.columns = [‘word‘]
 74         stop = [‘ ‘] + list(stop.word) #python读取时不会读取到空格。但空格依旧需要去除。所以加上空格; 读取后的stop是series的结构,需要转成列表
 75         for i in range(len(stop)):
 76             if(stop[i] in wdict):
 77                 wdict.pop(stop[i])
 78
 79         ind = list(wdict.keys())
 80         val = list(wdict.values())
 81         ind = pd.Series(ind)
 82         val = pd.Series(val)
 83         data =  pd.DataFrame()
 84         data[‘词‘] = ind
 85         data[‘词频‘] = val
 86         return data
 87
 88     # —————————————————————
 89     # Ciyun(self, doc)
 90     # doc: 要读取的文件名
 91
 92     # output:
 93     # 词云图
 94     # —————————————————————
 95     def Ciyun(self,doc):
 96         g = open(doc,"r").read()
 97         back_pic = imread("aixin.jpg")  # 设置背景图片
 98         wc = WordCloud( font_path=‘/System/Library/Fonts/STHeiti Medium.ttc‘,#设置字体
 99                           background_color="white", #背景颜色
100                           max_words=2000,# 词云显示的最大词数
101                           mask=back_pic,#设置背景图片
102                           max_font_size=200, #字体最大值
103                           random_state=42,
104                          ).generate(g)
105         plt.figure(figsize=(64,32))
106         plt.imshow(wc)
107         plt.axis(‘off‘)
108         plt.savefig("ciyun.jpg")
109         plt.show()
110
111
112     def main(self,readdoc):
113         # self.Zipin(readdoc,writedoc)
114         df = self.Cipin(readdoc)
115         #self.Ciyun(readdoc)
116         return df
117
118
119 if __name__ == ‘__main__‘:
120     hlm = Hlm()
121     hlm.Zipin("红楼梦.txt","红楼梦字频.txt")
122     df_hlm1 = hlm.main("红楼梦.txt")
123 ---------------------
124 作者:Iovebecky
125 来源:CSDN
126 原文:https://blog.csdn.net/zhaohaibo_/article/details/81902456
127 版权声明:本文为博主原创文章,转载请附上博文链接!

      

    代码显示如下:

    

   

   到这里就结束啦啦啦啦啦~~~~~~~

    

原文地址:https://www.cnblogs.com/sun0618-/p/10657400.html

时间: 2024-09-28 02:39:21

运用jieba库分词的相关文章

jieba库分词统计

代码在github网站,https://github.com/chaigee/chaigee,中的z2.py文件 py.txt为团队中文简介文件 代码运行后词频统计使用xlwt库将数据发送到excel表格,如图,频数为1的省略 在excel表格作柱形图如图所示 由此分析我们团队的简介用词得出:我们团队不仅注重团队合作,而且注重团队分工,发扬队员风格,提高队员对项目的兴趣,做擅长的工作,多次提到宣言以此提高团队凝聚力. 原文地址:https://www.cnblogs.com/chaigee/p/

python 读写txt文件并用jieba库进行中文分词

python用来批量处理一些数据的第一步吧. 对于我这样的的萌新.这是第一步. #encoding=utf-8 file='test.txt' fn=open(file,"r") print fn.read() fn.close() 在控制台输出txt文档的内容,注意中文会在这里乱码.因为和脚本文件放在同一个地方,我就没写路径了. 还有一些别的操作. 这是文件open()函数的打开mode,在第二个参数中设置.特别需要注意一下.具体还有一些别的细节操作. http://www.jb51

优秀的中文分词jieba库

jieba库的简介 jieba是优秀的中文分词库,中文文本需要通过分词来获的单个词语.jieba库提供了三种分词模式:精确模式,全模式,搜索引擎模式.精确模式是将文本精确割分,不存在冗余.全模式是将文本中所有可能单词都扫描出来,存在冗余.搜索引擎模式是将经过精确模式分割下的长词在进行分割. 常见jieba库的函数 原文地址:https://www.cnblogs.com/gzk08-20/p/9216302.html

用jieba库统计文本词频及云词图的生成

一.安装jieba库 :\>pip install jieba #或者 pip3 install jieba 二.jieba库解析 jieba库主要提供提供分词功能,可以辅助自定义分词词典. jieba库中包含的主要函数如下: jieba.cut(s)                                                               精确模式,返回一个可迭代的数据类型 jieba.cut(s,cut_all=True)                  

jieba库使用和好玩的词云

jieba库的使用: (1)  jieba库是一款优秀的 Python 第三方中文分词库,jieba 支持三种分词模式:精确模式.全模式和搜索引擎模式,下面是三种模式的特点. 精确模式:试图将语句最精确的切分,不存在冗余数据,适合做文本分析 全模式:将语句中所有可能是词的词语都切分出来,速度很快,但是存在冗余数据 搜索引擎模式:在精确模式的基础上,对长词再次进行切分. (2).jieba库常用函数 函数 描述 jieba.lcut(s) 精确模式,返回一个列表类型的分词结果>>>jieb

jieba库的使用

jieba库的使用: jieba库是一款优秀的 Python 第三方中文分词库,jieba 支持三种分词模式:精确模式.全模式和搜索引擎模式,下面是三种模式的特点. 精确模式:试图将语句最精确的切分,不存在冗余数据,适合做文本分析 全模式:将语句中所有可能是词的词语都切分出来,速度很快,但是存在冗余数据 搜索引擎模式:在精确模式的基础上,对长词再次进行切分. jieba的使用 # -*- coding: utf-8 -*-import jieba seg_str = "好好学习,天天向上.&qu

jieba 库的使用和好玩的词云

jieba库的使用: (1)  jieba库是一款优秀的 Python 第三方中文分词库,jieba 支持三种分词模式:精确模式.全模式和搜索引擎模式,下面是三种模式的特点. 精确模式:试图将语句最精确的切分,不存在冗余数据,适合做文本分析 全模式:将语句中所有可能是词的词语都切分出来,速度很快,但是存在冗余数据 搜索引擎模式:在精确模式的基础上,对长词再次进行切分. # -*- coding: utf-8 -*- import jieba seg_str = "好好学习,天天向上."

jieba库

一.jieba 库简介 (1) jieba 库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动态规划方法找到最大概率的词组:除此之外,jieba 库还提供了增加自定义中文单词的功能. (2) jieba 库支持3种分词模式: 精确模式:将句子最精确地切开,适合文本分析. 全模式:将句子中所以可以成词的词语都扫描出来,速度非常快,但是不能消除歧义. 搜索引擎模式:在精确模式的基础上,对长分词再次切分,提高召回率,适合搜索引擎分词. 二.安装库函数 (1) 在命令行下输

运用jieba库 寻找高频词

一.准备 1.首先 先用cmd 安装 jieba库,输入 pip install jieba 2.其次 本次要用到wordcloud库和 matplotlib库,也在cmd输入pip install matplotlib和pip install wordcloud 二.安装完之后,输入如下代码 1 from wordcloud import WordCloud 2 import matplotlib.pyplot as plt 3 import jieba 4 def create_word_c