jieba库

一、jieba 库简介

(1) jieba 库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动态规划方法找到最大概率的词组;除此之外,jieba 库还提供了增加自定义中文单词的功能。

(2) jieba 库支持3种分词模式:

精确模式:将句子最精确地切开,适合文本分析。

全模式:将句子中所以可以成词的词语都扫描出来,速度非常快,但是不能消除歧义。

搜索引擎模式:在精确模式的基础上,对长分词再次切分,提高召回率,适合搜索引擎分词。

二、安装库函数

(1) 在命令行下输入指令:

pip install jieba

三、调用库函数

(1) 导入库函数:import  <库名>

使用库中函数:<库名> . <函数名> (<函数参数>)

)

(2) 导入库函数:from  <库名>  import * ( *为通配符 )

使用库中函数:<函数名> (<函数参数>)

函数使用实例

(1) jieba 库单枪匹马

A. 代码实现

注:代码使用的文档 >>> Detective_Novel(utf-8).zip[点击下载],也可自行找 utf-8 编码格式的txt文件。

1 # -*- coding:utf-8 -*-
2 from jieba import *
3
4 def Replace(text,old,new): #替换列表的字符串
5     for char in old:
6         text = text.replace(char,new)
7     return text
8
9 def getText(filename): #读取文件内容(utf-8 编码格式)
10     #特殊符号和部分无意义的词
11     sign = ‘‘‘!~·@¥……*“”‘’\n(){}【】;:"‘「,」。-、?‘‘‘
12     txt = open(‘{}.txt‘.format(filename),encoding=‘utf-8‘).read()
13     return Replace(txt,sign," ")
14
15 def word_count(passage,N): #计算passage文件中的词频数,并将前N个输出
16     words = lcut(passage) #精确模式分词形式
17     counts = {}             #创建计数器 --- 字典类型
18     for word in words:      #消除同意义的词和遍历计数
19         if word == ‘小五‘ or word == ‘小五郎‘ or word == ‘五郎‘:
20             rword = ‘毛利‘
21         elif word == ‘柯‘ or word == ‘南‘:
22             rword = ‘柯南‘
23         elif word == ‘小‘ or word == ‘兰‘:
24             rword = ‘小兰‘
25         elif word == ‘目‘ or word == ‘暮‘ or word == ‘警官‘:
26             rword = ‘暮目‘
27         else:
28             rword = word
29         counts[rword] = counts.get(rword,0) + 1
30     excludes = lcut_for_search("你我事他和她在这也有什么的是就吧啊吗哦呢都了一个")
31     for word in excludes:   #除去意义不大的词语
32         del(counts[word])
33     items = list(counts.items()) #转换成列表形式
34     items.sort(key = lambda x : x[1], reverse = True ) #按次数排序
35     for i in range(N):     #依次输出
36         word,count = items[i]
37         print("{:<7}{:>6}".format(word,count))
38
39 if __name__ == ‘__main__‘:
40     passage = getText(‘Detective_Novel‘)  #输入文件名称读入文件内容
41     word_count(passage,20) #调用函数得到词频数

B. 执行结果

(2) jieba 库 和 wordcloud 库 强强联合 --- 词云图

A. 代码实现

1 # -*- coding:utf-8 -*-
2 from wordcloud import WordCloud
3 import matplotlib.pyplot as plt
4 import numpy as np
5 from PIL import Image
6 from jieba import *
7
8 def Replace(text,old,new): #替换列表的字符串
9     for char in old:
10         text = text.replace(char,new)
11     return text
12
13 def getText(filename): #读取文件内容(utf-8 编码格式)
14     #特殊符号和部分无意义的词
15     sign = ‘‘‘!~·@¥……*“”‘’\n(){}【】;:"‘「,」。-、?‘‘‘
16     txt = open(‘{}.txt‘.format(filename),encoding=‘utf-8‘).read()
17     return Replace(txt,sign," ")
18
19 def creat_word_cloud(filename): #将filename 文件的词语按出现次数输出为词云图
20     text = getText(filename) #读取文件
21     wordlist = lcut(text) #jieba库精确模式分词
22     wl = ‘ ‘.join(wordlist) #生成新的字符串
23
24     #设置词云图
25     font = r‘C:\Windows\Fonts\simfang.ttf‘ #设置字体路径
26     wc = WordCloud(
27         background_color = ‘black‘, #背景颜色
28         max_words = 2000,           #设置最大显示的词云数
29         font_path = font,           #设置字体形式(在本机系统中)
30         height = 1200,              #图片高度
31         width = 1600,               #图片宽度
32         max_font_size = 100,        #字体最大值
33         random_state = 100,         #配色方案的种类
34         )
35     myword = wc.generate(wl) #生成词云
36     #展示词云图
37     plt.imshow(myword)
38     plt.axis(‘off‘)
39     plt.show()
40     #以原本的filename命名保存词云图
41     wc.to_file(‘{}.png‘.format(filename))
42
43 if __name__ == ‘__main__‘:

44     creat_word_cloud(‘Detective_Novel‘) #输入文件名生成词云图

原文地址:https://www.cnblogs.com/zhengzhican/p/10652355.html

时间: 2024-08-30 15:13:49

jieba库的相关文章

python 读写txt文件并用jieba库进行中文分词

python用来批量处理一些数据的第一步吧. 对于我这样的的萌新.这是第一步. #encoding=utf-8 file='test.txt' fn=open(file,"r") print fn.read() fn.close() 在控制台输出txt文档的内容,注意中文会在这里乱码.因为和脚本文件放在同一个地方,我就没写路径了. 还有一些别的操作. 这是文件open()函数的打开mode,在第二个参数中设置.特别需要注意一下.具体还有一些别的细节操作. http://www.jb51

jieba库词频统计练习

在sypder上运行jieba库的代码: import matplotlib.pyplot as pltfracs = [2,2,1,1,1]labels = 'houqin', 'jiemian', 'zhengjiehong','baogan','dadaima'explode = [ 0,0,0,0,0]plt.axes(aspect=1)plt.pie(x=fracs, labels=labels, explode=explode,autopct='%3.1f %%', shadow=T

优秀的中文分词jieba库

jieba库的简介 jieba是优秀的中文分词库,中文文本需要通过分词来获的单个词语.jieba库提供了三种分词模式:精确模式,全模式,搜索引擎模式.精确模式是将文本精确割分,不存在冗余.全模式是将文本中所有可能单词都扫描出来,存在冗余.搜索引擎模式是将经过精确模式分割下的长词在进行分割. 常见jieba库的函数 原文地址:https://www.cnblogs.com/gzk08-20/p/9216302.html

用jieba库统计文本词频及云词图的生成

一.安装jieba库 :\>pip install jieba #或者 pip3 install jieba 二.jieba库解析 jieba库主要提供提供分词功能,可以辅助自定义分词词典. jieba库中包含的主要函数如下: jieba.cut(s)                                                               精确模式,返回一个可迭代的数据类型 jieba.cut(s,cut_all=True)                  

jieba库的使用与词频统计

1.词频统计 (1)词频分析是对文章中重要词汇出现的次数进行统计与分析,是文本 挖掘的重要手段.它是文献计量学中传统的和具有代表性的一种内容分析方法,基本原理是通过词出现频次多少的变化,来确定热点及其变化趋势. (2)安装jieba库 安装说明代码对 Python 2/3 均兼容 全自动安装:easy_install jieba 或者 pip install jieba / pip3 install jieba半自动安装:先下载 http://pypi.python.org/pypi/jieba

jieba库使用和好玩的词云

jieba库的使用: (1)  jieba库是一款优秀的 Python 第三方中文分词库,jieba 支持三种分词模式:精确模式.全模式和搜索引擎模式,下面是三种模式的特点. 精确模式:试图将语句最精确的切分,不存在冗余数据,适合做文本分析 全模式:将语句中所有可能是词的词语都切分出来,速度很快,但是存在冗余数据 搜索引擎模式:在精确模式的基础上,对长词再次进行切分. (2).jieba库常用函数 函数 描述 jieba.lcut(s) 精确模式,返回一个列表类型的分词结果>>>jieb

jieba库的使用

jieba库的使用: jieba库是一款优秀的 Python 第三方中文分词库,jieba 支持三种分词模式:精确模式.全模式和搜索引擎模式,下面是三种模式的特点. 精确模式:试图将语句最精确的切分,不存在冗余数据,适合做文本分析 全模式:将语句中所有可能是词的词语都切分出来,速度很快,但是存在冗余数据 搜索引擎模式:在精确模式的基础上,对长词再次进行切分. jieba的使用 # -*- coding: utf-8 -*-import jieba seg_str = "好好学习,天天向上.&qu

jieba 库的使用和好玩的词云

jieba库的使用: (1)  jieba库是一款优秀的 Python 第三方中文分词库,jieba 支持三种分词模式:精确模式.全模式和搜索引擎模式,下面是三种模式的特点. 精确模式:试图将语句最精确的切分,不存在冗余数据,适合做文本分析 全模式:将语句中所有可能是词的词语都切分出来,速度很快,但是存在冗余数据 搜索引擎模式:在精确模式的基础上,对长词再次进行切分. # -*- coding: utf-8 -*- import jieba seg_str = "好好学习,天天向上."

运用jieba库 寻找高频词

一.准备 1.首先 先用cmd 安装 jieba库,输入 pip install jieba 2.其次 本次要用到wordcloud库和 matplotlib库,也在cmd输入pip install matplotlib和pip install wordcloud 二.安装完之后,输入如下代码 1 from wordcloud import WordCloud 2 import matplotlib.pyplot as plt 3 import jieba 4 def create_word_c