自定义词云图片

导包

from imageio import imread
import jieba
from wordcloud import WordCloud

自定义文本

str = ‘小明硕士毕业于中国科学院计算所,后在日本京都大学深造‘

从文件中导入文本

with open(‘文件名.txt‘, ‘r‘, encoding=‘utf8‘) as f:
    str = f.read()

剩下代码如下

# 利用jieba将字符串转化为单个词语的列表
ret = jieba.lcut(str)
# 根据 ,
s = ‘,‘.join(ret)

# 准备自定义图片
backgroud_Image = imread(‘头像.jpg‘)
print(‘图片准备成功‘)

# 生成词云对象
wordcloud = WordCloud(
    background_color=‘white‘,# 设置背景颜色
    mask=backgroud_Image,# 设置背景图片
    font_path=‘C:\Windows\Fonts\STZHONGS.TTF‘,  # 若是文本中有中文的话,这句代码必须添加,不然会出现方框,不出现汉字
    random_state=30,# 设置有多少种随机生成状态,即有多少种配色方案
).generate(s)

# 将生成对象书写在指定图片上
wordcloud.to_file(‘asdas.jpg‘)
print(‘开始加载图片‘)

原文地址:https://www.cnblogs.com/zry-yt/p/11780782.html

时间: 2024-08-30 12:03:10

自定义词云图片的相关文章

初窥wordcloud之老司机带你定制词云图片

抓紧上车啦 #-*-coding:utf-8 -*- from os import path from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator #用来画词云的. import matplotlib.pyplot as plt #用来解析特殊的图片模板,numpy也可以的. from scipy.misc import imread #第一步读你要制作成词云的源文件,少年记得用'r'去读,手抖用了次'w+'结果文件让我清

jieba+wordcloud+imageio—自定义词云

import jiebaimport wordcloudfrom imageio import imreadmask=imread('fivestar.png')def shuchu(): txt=open('threekingdoms.txt','r',encoding='gb18030').read() excludes={'将军','却说','荆州','二人','不可','不能','如此'} words=jieba.lcut(txt) counts={} for word in words

使用Python定制词云

一.实验介绍 1.1 实验内容 在互联网时代,人们获取信息的途径多种多样,大量的信息涌入到人们的视线中.如何从浩如烟海的信息中提炼出关键信息,滤除垃圾信息,一直是现代人关注的问题.在这个信息爆炸的时代,我们每时每刻都要更新自己的知识储备,而网络是最好的学习平台.对信息过滤和处理能力强,学习效率就会得到提高."词云"就是为此而诞生的."词云"是对网络文本中出现频率较高的"关键词"予以视觉上的突出,形成"关键词云层"或"

使用python绘制词云

最近在忙考试的事情,没什么时间敲代码,一个月也没几天看代码,最近看到可视化的词云,看到网上也很多这样的工具, 但是都不怎么完美,有些不支持中文,有的中文词频统计得莫名其妙.有的不支持自定义形状.所有的都不能自定义颜色 于是网上找了一下,决定用python绘制词云,主要用到的是wordcloud库,安装只需要pip isntall wordcloud就行, 数据用的是酒店评论的数据,代码如下: # -*- coding: utf-8 -*- import matplotlib.pyplot as

基于Python实现词云制作

1 第三方库的安装与简介 1.1 Python第三方库 jieba(中文分词) 1. 特点 (1)支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析: 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义: 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词. (2)支持繁体分词 (2)支持自定义词典 (3)MIT 授权协议 2. 安装和使用说明 pip install jieba / pip3 install jieba

用Python玩转词云

第一步:引入相关的库包: #coding:utf-8 __author__ = 'Administrator' import jieba #分词包 import numpy #numpy计算包 import codecs #codecs提供的open方法来指定打开的文件的语言编码,它会在读取的时候自动转换为内部unicode import pandas import matplotlib.pyplot as plt %matplotlib inline from wordcloud import

词云wordcloud

pip install wordcloud 没有报错,如果有错误可以从http://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud下载whl文件直接安装. # -*- coding: utf-8 -*- __author__ = 'leilu' #wordcloud生成中文词云 from wordcloud import WordCloud import codecs import jieba #import jieba.analyse as anal

词云分析《天龙八部》人物出现次数

一.需要的三方库 1.安装词云: pip install wordcloud 2.安装结巴 pip install jieba 3.安装matplotlib pip install matplotlib 二.实现代码 1 import jieba # 分词函数 2 from scipy.misc import imread # 这是一个处理图像的函数 3 from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator 4 impor

python实现词云

一.安装使用命令[pip install wordcloud]安装词云 二.参数使用了OpenCV的数据格式进行读取,字体可以多试几种 def create_wordcloud_pic(): stopwords = get_noisy_word() # 噪声词以字典的形式进行呈现 img = cv2.imread(img_path) # 图片矩阵 font = r'C:\Windows\Fonts\simsun.ttc' # 字体 cloud = WordCloud( # 设置字体,不指定就会出