python(wordcloud)实现中文词云

#   这是一个处理图像的函数from scipy.misc import imreadfrom wordcloud import WordCloud,STOPWORDS,ImageColorGeneratorimport matplotlib.pylab as plt

#   解析图片back_color = imread("./veer-141001498.png")#   设置字体路径font = "C:\Windows\Fonts\STXINGKA.TTF"wc = WordCloud(background_color="white",    #   背景颜色               max_words=500,              #   最大词数               mask=back_color,             #   掩膜,产生词云背景的区域,以该参数值作图绘制词云,这个参数不为空时,width,height会被忽略               max_font_size=80,           #   显示字体的最大值               stopwords=STOPWORDS.add("差评"),   #   使用内置的屏蔽词,再添加一个               font_path=font,              #   解决显示口字型乱码问题,可进入C:/Windows/Fonts/目录更换字体               random_state=42,             #   为每一词返回一个PIL颜色               prefer_horizontal=10)        #   调整词云中字体水平和垂直的多少#   打开词源的文本文件text = open("./comments.txt","r",encoding="utf-8").read()

#   生成词云wc.generate(text)#   从背景图片生成颜色值image_colors = ImageColorGenerator(back_color)# 显示图片plt.imshow(wc)# 关闭坐标轴plt.axis("off")# 绘制词云plt.figure()

plt.imshow(wc.recolor(color_func=image_colors))

plt.axis("off")# 保存图片wc.to_file("text2.png")

# 以下为效果图

原文地址:https://www.cnblogs.com/Tridents/p/9300295.html

时间: 2024-10-11 16:03:55

python(wordcloud)实现中文词云的相关文章

Python -WordCloud安装、词云制作

一.WordCloud 安装 说明:Windows系统直接pip install wordcloud 是不行的,命令行会报错. 第一步:检查自己的Python 版本.Win+R ——>CMD——>命令行输入python,我的是python 3.7 win32位的 第二步:下载对应版本的WordCloud,进入 python 扩展包库 (非正式第三方whl文件包)下载 第三步:安装.命令行先定位到下载的wordcloud安装文件路径,再输入 pip install wordcloud-1.6.0

[python] 词云:wordcloud包的安装、使用、原理(源码分析)、中文词云生成、代码重写

词云,又称文字云.标签云,是对文本数据中出现频率较高的“关键词”在视觉上的突出呈现,形成关键词的渲染形成类似云一样的彩色图片,从而一眼就可以领略文本数据的主要表达意思.常见于博客.微博.文章分析等. 除了网上现成的Wordle.Tagxedo.Tagul.Tagcrowd等词云制作工具,在python中也可以用wordcloud包比较轻松地实现(官网.github项目): from wordcloud import WordCloud import matplotlib.pyplot as pl

Python 生成中文词云

豆子无意中发现Python有个现成的模块 word cloud可以根据文本文件生成词云,很好很强大,简单地玩了一把. 写代码之前,首先需要安装3个依赖的Python模块,分别是matplotlib, jieba和wordcloud.这三个模块分别是用来作图,中文分词和生成词云的.安装方式可以直接通过 pip install实现.如果在线安装出现报错(很有可能的事情),那么可以去https://www.lfd.uci.edu/~gohlke/pythonlibs/ 下载对应版本和位数的whl文件,

Python给小说做词云

闲暇时间喜欢看小说,就想着给小说做词云,展示小说的主要内容.开发语言是Python,主要用到的库有wordcloud.jieba.scipy.代码很简单,首先用jieba.cut()函数做分词,生成以空格分割的字符串,然后新建WordCloud类,保存为图片. 1 #coding:utf-8 2 import sys 3 import jieba 4 import matplotlib.pyplot as plt 5 from wordcloud import WordCloud,ImageCo

python生成职业要求词云

接着上篇的说的,爬取了大数据相关的职位信息,http://www.17bigdata.com/jobs/. # -*- coding: utf-8 -*- """ Created on Thu Aug 10 07:57:56 2017 @author: lenovo """ from wordcloud import WordCloud import pandas as pd import numpy as np import matplotli

【python数据挖掘】使用词云分析来分析豆瓣影评数据

概述: 制作词云的步骤: 1.从文件中读取数据 2.根据数据追加在一个字符串里面,然后用jieba分词器将评论分开 3.设置WordCloud词云参数 4.保存最后的结果 数据:使用爬取的豆瓣影评数据 第一步:引入依赖库 # 1.表格库 import csv # 2.jieba分词器 import jieba # 3.算法运算库 import numpy # 4.图像库 from PIL import Image # 5.词云库 from wordcloud import WordCloud 第

Python 中文文件统计词频 + 中文词云

1. 词频统计: 1 import jieba 2 txt = open("threekingdoms3.txt", "r", encoding='utf-8').read() 3 words = jieba.lcut(txt) 4 counts = {} 5 for word in words: 6 if len(word) == 1: 7 continue 8 else: 9 counts[word] = counts.get(word,0) + 1 10 it

jieba+wordcloud+imageio—自定义词云

import jiebaimport wordcloudfrom imageio import imreadmask=imread('fivestar.png')def shuchu(): txt=open('threekingdoms.txt','r',encoding='gb18030').read() excludes={'将军','却说','荆州','二人','不可','不能','如此'} words=jieba.lcut(txt) counts={} for word in words

词云wordcloud

pip install wordcloud 没有报错,如果有错误可以从http://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud下载whl文件直接安装. # -*- coding: utf-8 -*- __author__ = 'leilu' #wordcloud生成中文词云 from wordcloud import WordCloud import codecs import jieba #import jieba.analyse as anal