词云绘制wordcloud

wordcloud是优秀的第三方词云展示库,该库以空格为分割线,按照单词出现的频率自动设置字号与颜色实例如下

import wordcloud#词云库
import jieba#分词库

a=open(‘D:/picture/11.txt‘,‘r‘)#打开一个文本文件,打开方式为r读取
b=a.read()#读取该文件中的内容
a.close()#关闭文件
c=jieba.lcut(b)#将读取的内容进行分词
dd=[]
for i in c:
    if i not in [‘。‘,‘?‘,‘;‘,‘“‘,‘\n‘,‘!‘,‘,‘,‘(‘,‘)‘,‘:‘,‘?‘, ‘…‘]:#将这些特殊符号删除
        dd.append(i)
#print(dd)
txt=‘ ‘.join(dd)#将链表转换为以空格为分隔符的字符串
#print(txt)

png=wordcloud.WordCloud(width=600,height=700,font_path=‘D:/font/11.ttf‘,background_color=‘black‘,max_font_size=100,min_font_size=20,max_words=300,font_step=2,stopwords={"我们"})
#生成词云对象,并设置他的宽度,高度,和字体的路径,设置图片的背景颜色,设置最大字体,设置最小字体,设置图片中单词出现的最大个数,设置字体大小之间的步长,设置不想显示在图片上的单词
png.generate(txt)#加载词云文本,将txt文本转换为词云
png.to_file(‘D:/picture/ciyun.png‘)#输出词云文

结果输出了一张漂亮的图片

原文地址:https://www.cnblogs.com/gzk08-20/p/9217576.html

时间: 2024-11-05 21:51:10

词云绘制wordcloud的相关文章

python做词云 (WordCloud)

python做词云 (WordCloud) 1. 安装 某个教程给出的方法,到[这里][1]下载相应的wordcolud,然后到相应目录pip安装. 其实直接 pip install wordcloud 就ok了 ,进入python. import wordcloud成功即可. ##2. 文档简要说明 可以看到文档主要就3个主要的函数,目前主要介绍WordCloud模块以及相关的函数. WordCloud() class wordcloud.WordCloud(font_path=None, w

R语言之词云:wordcloud&wordcloud2安装及参数说明

一.wordcloud安装说明 install.packages("wordcloud"); 二.wordcloud2安装说明 install.packages("devtools"); devtools::install_github("lchiffon/wordcloud2",type="source") 错误提示: 解决办法: install.packages("htmltools"); 三.word

[python] 词云:wordcloud包的安装、使用、原理(源码分析)、中文词云生成、代码重写

词云,又称文字云.标签云,是对文本数据中出现频率较高的“关键词”在视觉上的突出呈现,形成关键词的渲染形成类似云一样的彩色图片,从而一眼就可以领略文本数据的主要表达意思.常见于博客.微博.文章分析等. 除了网上现成的Wordle.Tagxedo.Tagul.Tagcrowd等词云制作工具,在python中也可以用wordcloud包比较轻松地实现(官网.github项目): from wordcloud import WordCloud import matplotlib.pyplot as pl

词云wordcloud

pip install wordcloud 没有报错,如果有错误可以从http://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud下载whl文件直接安装. # -*- coding: utf-8 -*- __author__ = 'leilu' #wordcloud生成中文词云 from wordcloud import WordCloud import codecs import jieba #import jieba.analyse as anal

Python数据挖掘-词云

词云绘制 1.语料库的搭建.分词来源.移除停用词.词频统计 使用方法:os.path.join(path,name)   #连接目录与文件名或目录 结果为path/name import os import os.path import codecs filePaths=[] fileContents=[] for root,dirs,files in os.walk("D:\\Python\\Python数据挖掘\\Python数据挖掘实战课程课件\\2.4\\SogouC.mini\\Sam

Python数据挖掘-词云美化

1.语料库构建 由于不像之前是对很多个文件进行词频统计,所以不需要使用os.walk()方法遍历每一个文件: 只需使用codecs.open()打开相应的文件,(记得close): 然后使用jieba模块中的load_userdict()方法导入词库 import jieba import numpy import codecs import pandas file=codecs.open( "C:\\Users\\Jw\\Desktop\\python_work\\Python数据挖掘实战课程

爬虫之豆瓣图书评论词云

from urllib import request from bs4 import BeautifulSoup as bs import re import codecs import jieba #分词包 import numpy #numpy计算包 import pandas as pd #分词用到 import matplotlib.pyplot as plt #绘图包 import matplotlib matplotlib.rcParams['figure.figsize'] = (

Python获取微信好友签名生成词云

''' pip install wxpy pip install matplotlib # 如果下载超时,就换源下载:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple matplotlib pip install wordcloud pip install Pillow pip install numpy pip install jieba pip install scipy # 处理图像 # pip install -i https

使用Python定制词云

一.实验介绍 1.1 实验内容 在互联网时代,人们获取信息的途径多种多样,大量的信息涌入到人们的视线中.如何从浩如烟海的信息中提炼出关键信息,滤除垃圾信息,一直是现代人关注的问题.在这个信息爆炸的时代,我们每时每刻都要更新自己的知识储备,而网络是最好的学习平台.对信息过滤和处理能力强,学习效率就会得到提高."词云"就是为此而诞生的."词云"是对网络文本中出现频率较高的"关键词"予以视觉上的突出,形成"关键词云层"或"