Note of Jieba ( 词云图实例 )

Note of Jieba

jieba库是python 一个重要的第三方中文分词函数库,但需要用户自行安装。

一、jieba 库简介

(1) jieba 库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动态规划方法找到最大概率的词组;除此之外,jieba 库还提供了增加自定义中文单词的功能。

(2) jieba 库支持3种分词模式:

精确模式:将句子最精确地切开,适合文本分析。

全模式:将句子中所以可以成词的词语都扫描出来,速度非常快,但是不能消除歧义。

搜索引擎模式:在精确模式的基础上,对长分词再次切分,提高召回率,适合搜索引擎分词。

二、安装库函数

(1) 在命令行下输入指令:

pip install jieba(2) 安装进程:

三、调用库函数

(1) 导入库函数:import  <库名>

使用库中函数:<库名> . <函数名> (<函数参数>)

(2) 导入库函数:from  <库名>  import * ( *为通配符 )

使用库中函数:<函数名> (<函数参数>)

四、jieba 库函数

(1) 库函数功能


模式


函数


说明


精确模式


cut(s)


返回一个可迭代数据类型


lcut(s)


返回一个列表类型 (建议使用)


全模式


cut(s,cut_all=True)


输出s中所以可能的分词


lcut(s,cut_all=True)


返回一个列表类型 (建议使用)


搜索引擎模式


cut_for_search(s)


适合搜索引擎建立索引的分词结果


lcut_for_search(s)


返回一个列表类型 (建议使用)


自定义新词


add_word(w)


向分词词典中增加新词w

(2) 函数使用实例

五、对一篇文档进行词频统计

(1) jieba 库单枪匹马

A. 代码实现

注:代码使用的文档 >>> Detective_Novel(utf-8).zip[点击下载],也可自行找 utf-8 编码格式的txt文件。

# -*- coding:utf-8 -*-
  from jieba import *

  def Replace(text,old,new): #替换列表的字符串
      for char in old:
          text = text.replace(char,new)
      return text

  def getText(filename): #读取文件内容(utf-8 编码格式)
     #特殊符号和部分无意义的词
     sign = ‘‘‘!~·@¥……*“”‘’\n(){}【】;:"‘「,」。-、?‘‘‘
     txt = open(‘{}.txt‘.format(filename),encoding=‘utf-8‘).read()
     return Replace(txt,sign," ")

 def word_count(passage,N): #计算passage文件中的词频数,并将前N个输出
     words = lcut(passage) #精确模式分词形式
     counts = {}             #创建计数器 --- 字典类型
     for word in words:      #消除同意义的词和遍历计数
         if word == ‘小五‘ or word == ‘小五郎‘ or word == ‘五郎‘:
             rword = ‘毛利‘
         elif word == ‘柯‘ or word == ‘南‘:
             rword = ‘柯南‘
         elif word == ‘小‘ or word == ‘兰‘:
             rword = ‘小兰‘
         elif word == ‘目‘ or word == ‘暮‘ or word == ‘警官‘:
             rword = ‘暮目‘
         else:
             rword = word
         counts[rword] = counts.get(rword,0) + 1
     excludes = lcut_for_search("你我事他和她在这也有什么的是就吧啊吗哦呢都了一个")
     for word in excludes:   #除去意义不大的词语
         del(counts[word])
     items = list(counts.items()) #转换成列表形式
     items.sort(key = lambda x : x[1], reverse = True ) #按次数排序
     for i in range(N):     #依次输出
         word,count = items[i]
         print("{:<7}{:>6}".format(word,count))

 if __name__ == ‘__main__‘:
     passage = getText(‘Detective_Novel‘)  #输入文件名称读入文件内容
     word_count(passage,20) #调用函数得到词频数

  B. 执行结果

(2) jieba 库 和 wordcloud 库 强强联合 --- 词云图

A. 代码实现

  # -*- coding:utf-8 -*-
  from wordcloud import WordCloud
  import matplotlib.pyplot as plt
  import numpy as np
  from PIL import Image
  from jieba import *

  def Replace(text,old,new): #替换列表的字符串
      for char in old:
         text = text.replace(char,new)
     return text

 def getText(filename): #读取文件内容(utf-8 编码格式)
     #特殊符号和部分无意义的词
     sign = ‘‘‘!~·@¥……*“”‘’\n(){}【】;:"‘「,」。-、?‘‘‘
     txt = open(‘{}.txt‘.format(filename),encoding=‘utf-8‘).read()
     return Replace(txt,sign," ")

 def creat_word_cloud(filename): #将filename 文件的词语按出现次数输出为词云图
     text = getText(filename) #读取文件
     wordlist = lcut(text) #jieba库精确模式分词
     wl = ‘ ‘.join(wordlist) #生成新的字符串

     #设置词云图
     font = r‘C:\Windows\Fonts\simfang.ttf‘ #设置字体路径
     wc = WordCloud(
         background_color = ‘black‘, #背景颜色
         max_words = 2000,           #设置最大显示的词云数
         font_path = font,           #设置字体形式(在本机系统中)
         height = 1200,              #图片高度
         width = 1600,               #图片宽度
         max_font_size = 100,        #字体最大值
         random_state = 100,         #配色方案的种类
         )
     myword = wc.generate(wl) #生成词云
     #展示词云图
     plt.imshow(myword)
     plt.axis(‘off‘)
     plt.show()
     #以原本的filename命名保存词云图
     wc.to_file(‘{}.png‘.format(filename))

 if __name__ == ‘__main__‘:
     creat_word_cloud(‘Detective_Novel‘) #输入文件名生成词云图

  

B. 执行结果

原文地址:https://www.cnblogs.com/elbow/p/10644776.html

时间: 2024-10-29 05:51:47

Note of Jieba ( 词云图实例 )的相关文章

Python实现Wordcloud生成词云图的示例

wordcloud是Python扩展库中一种将词语用图片表达出来的一种形式,通过词云生成的图片,我们可以更加直观的看出某篇文章的故事梗概. 首先贴出一张词云图(以哈利波特小说为例): 在生成词云图之前,首先要做一些准备工作 1.安装结巴分词库 pip install jieba Python中的分词模块有很多,他们的功能也都是大同小异,我们安装的结巴分词 是当前使用的最多的类型. 下面我来简单介绍一下结巴分词的用法 结巴分词的分词模式分为三种: (1)全模式:把句子中所有的可以成词的词语都扫描出

特朗普退出《巴黎协定》:python词云图舆情分析

1 前言 2017年6月1日,美国特朗普总统正式宣布美国退出<巴黎协定>.宣布退出<巴黎协定>后,特朗普似乎成了“全球公敌”. 特斯拉总裁马斯克宣布退出总统顾问团队 迪士尼董事长离开总统委员会 谷歌等25家大公司联名刊发整版广告:美国不应退出巴黎协定 法国总统马克龙:特朗普宣布退出<巴黎协定>是“错误”之举 …… 在此背景下,本文以python词云图分析的方式来了解下相关情况. 2 特朗普演讲内容分析 首先来看下特朗普宣布退出<巴黎协定>时都说了啥. 特朗普

用词云图分析一带一路峰会哪3个词说的最多

前言 最近几日关注度最高的新闻莫过于一带一路峰会相关的消息,会议结束后,一带一路峰会联合公告已经公布出来了.本文通过词云分析,了解本次公告以及习大大在峰会开幕式上主要都讲了哪些关键内容. 1 一带一路峰会联合公告词云图 5月17日公布的一带一路峰会联合公告的词云分析结果图,如下: 词云图上,字体越大表示该词语在文件中出现的次数越多. 从上图可以看出,出现次数最多的3个词语为“合作”.“我们”以及“加强” ,基本可以看出,本次峰会是一个新的起点,今后需要做的事情还很多,需要各方务实合作,哈. 2

python爬虫爬取QQ说说并且生成词云图,回忆满满!

Python(发音:英[?pa?θ?n],美[?pa?θɑ:n]),是一种面向对象.直译式电脑编程语言,也是一种功能强大的通用型语言,已经具有近二十年的发展历史,成熟且稳定.它包含了一组完善而且容易理解的标准库,能够轻松完成很多常见的任务.它的语法非常简捷和清晰,与其它大多数程序设计语言不一样,它使用缩进来定义语句. Python支持命令式程序设计.面向对象程序设计.函数式编程.面向切面编程.泛型编程多种编程范式.与Scheme.Ruby.Perl.Tcl等动态语言一样,Python具备垃圾回收

python 爬取视频评论生成词云图

首先爬取评论写入文件,用上一篇爬取腾讯是视频的评论的方法提取评论http://blog.51cto.com/superleedo/2126099 代码需要稍作修改如下: #!/usr/bin/env python # -*- coding: utf-8 -*- import re import urllib.request import time import urllib.error ##模拟浏览器安装headers headers=("User-Agent","Mozil

词云图

https://www.jianshu.com/p/4fb27471295f 现成工具 https://blog.csdn.net/zhchs2012/article/details/79062632 用Python绘制词云图 - CSDN博客 blog.csdn.net 基于我之前爬取的微博数据,制作了一批词云图,由此来讲讲此模块的使用. 分词之前先准备一下停止词,因为中文中有很多的语气词啊,副词啊等,对于我们展现词频热度是无意义的干扰词.于是,我们就想个法子把他们 ... https://b

python学习之 python制作词云图 我的第一张python词云图 python怎么做词云图

首先是思路  针对本文的代码: 注意: 本代码词云图 需要准备 词语内容保存text文件 一个png格式的图片 整体思路: 首先获取需要分析词语的内容保存到一个文件, 然后读取文件. 然后打开一个已有的png图片(其实额可以穿件一个的, 这个代码需要打开已有的), 然后使用参数设置词云图 大小等参数, 图片中填充内容. 然后保存图片文件 再去目录文件下查看图片就已经有了 利用pip安装一些依赖 pip install jieba pip install matplotlib pip instal

python根据文本生成词云图

python根据文本生成词云图 效果 代码 from wordcloud import WordCloud import codecs import jieba #import jieba.analyse as analyse from scipy.misc import imread import os from os import path import matplotlib.pyplot as plt from PIL import Image, ImageDraw, ImageFont

python词云图与中文分词

2019-12-12中文文本分词和词云图具体功能介绍与学习代码: import jiebaa="由于中文文本的单词不是通过空格或者标点符号来进行分割"#jieba.lcut()s是最常用的中文分词函数,用于精准模式,即将字符串分割为等量的中文词组,返回结果是列表类型print(jieba.lcut(a))#jieba.lcut(s,cut_all=True):用于全模式,即将字符串所有分词可能均列出来,返回结果是列表类型,冗余性较大,速度很快,但是不能解决歧义的问题print(jieb