wordcloud词云

借鉴别人的一个小例子,快速生成词云的代码:

 1 from wordcloud import WordCloud
 2
 3 f = open(u‘txt/AliceEN.txt‘,‘r‘).read()
 4 wordcloud = WordCloud(background_color="white",width=1000, height=860, margin=2).generate(f)
 5
 6 # width,height,margin可以设置图片属性
 7
 8 # generate 可以对全部文本进行自动分词,但是他对中文支持不好,对中文的分词处理请看我的下一篇文章
 9 #wordcloud = WordCloud(font_path = r‘D:\Fonts\simkai.ttf‘).generate(f)
10 # 你可以通过font_path参数来设置字体集
11
12 #background_color参数为设置背景颜色,默认颜色为黑色
13
14 import matplotlib.pyplot as plt
15 plt.imshow(wordcloud)
16 plt.axis("off")
17 plt.show()
18
19 wordcloud.to_file(‘test.png‘)
20 # 保存图片,但是在第三模块的例子中 图片大小将会按照 mask 保存

解释一下WordCloud各参数的含义:

font_path: string  #"仿宋.ttf"

width,height 画布宽高

max_words: 显示词的最大个数 default = 200

mask : 图片形状,接受一个ndarray参数(三维数组)

backgroud_color: 背景颜色

stopwords :屏蔽的词 (from wordcloud import STOPWORDS)

关于集合的操作:add,remove,&,|,-  增,删,交集,并集,差集

原文地址:https://www.cnblogs.com/zenan/p/8572804.html

时间: 2024-10-29 06:25:18

wordcloud词云的相关文章

python爬虫——京东评论、jieba分词、wordcloud词云统计

接上一章,抓取京东评论区内容. url='https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98vv399&productId=4560435&score=0&sortType=5&page=0&pageSize=10&isShadowSku=0&fold=1' 重点是productId--产品id.page--页码.pageSize:指定

python3 wordcloud词云

wordclou:根据文本生成词云 一.词云设置 1 wc=WordCloud(width=400, height=200, #画布长.宽,默认(400,200)像素 2 margin=1, #字与字之间的距离 3 background_color='white',#背景颜色 4 min_font_size=3,max_font_size=None,#显示的最小,最大的字体大小 5 max_words=200,#显示的词的最大个数 6 ranks_only=None,#是否只是排名 7 pref

词云wordcloud类介绍&python制作词云图&词云图乱码问题等小坑

词云图,大家一定见过,大数据时代大家经常见,我们今天就来用python的第三方库wordcloud,来制作一个大数据词云图,同时会降到这个过程中遇到的各种坑, 举个例子,下面是我从自己的微信上抓的微信好友签名,制作的词云图:看来用的做多的还是"方得始终"啊 首先我们需要几个库,pip完了导入 1 import chardet #检测字符类型的类 2 from wordcloud import WordCloud #词云库 3 import matplotlib.pyplot as pl

词云绘制wordcloud

wordcloud是优秀的第三方词云展示库,该库以空格为分割线,按照单词出现的频率自动设置字号与颜色实例如下 import wordcloud#词云库 import jieba#分词库 a=open('D:/picture/11.txt','r')#打开一个文本文件,打开方式为r读取 b=a.read()#读取该文件中的内容 a.close()#关闭文件 c=jieba.lcut(b)#将读取的内容进行分词 dd=[] for i in c: if i not in ['.','?',':','

[python] 词云:wordcloud包的安装、使用、原理(源码分析)、中文词云生成、代码重写

词云,又称文字云.标签云,是对文本数据中出现频率较高的“关键词”在视觉上的突出呈现,形成关键词的渲染形成类似云一样的彩色图片,从而一眼就可以领略文本数据的主要表达意思.常见于博客.微博.文章分析等. 除了网上现成的Wordle.Tagxedo.Tagul.Tagcrowd等词云制作工具,在python中也可以用wordcloud包比较轻松地实现(官网.github项目): from wordcloud import WordCloud import matplotlib.pyplot as pl

用Python爬虫对豆瓣《敦刻尔克》影评进行词云展示

最近很想看的一个电影,去知乎上看一下评论,刚好在学Python爬虫,就做个小实例. 代码基于第三方修改 原文链接  http://python.jobbole.com/88325/#comment-94754 #coding:utf-8 from lib2to3.pgen2.grammar import line __author__ = 'hang' import warnings warnings.filterwarnings("ignore") import jieba #分词包

用Python玩转词云

第一步:引入相关的库包: #coding:utf-8 __author__ = 'Administrator' import jieba #分词包 import numpy #numpy计算包 import codecs #codecs提供的open方法来指定打开的文件的语言编码,它会在读取的时候自动转换为内部unicode import pandas import matplotlib.pyplot as plt %matplotlib inline from wordcloud import

用Python词云展示周董唱过的歌,发现内含秘密

马上开始了,你准备好了么 准备工作 环境:Windows + Python3.6 IDE:根据个人喜好,自行选择 模块: Matplotlib是一个 Python 的 2D数学绘图库 1 pip install matplotlib 2 import matplotlib.pyplot as plt jieba中文分词库 1 pip install jieba 2 import jieba wordcloud词云库 1 pip install wordcloud 2 from wordcloud

selenium爬取新闻做成词云(以及selenium的xpath查找方法)

一开始是想用qq空间说说做词云的,然而qq空间需要用cookies以及其他加密的东西,退而求其次搞搞新闻吧. 直接上代码了 # -*-coding:utf-8 -*- from selenium import webdriver import wordcloud #词云制作器 import jieba#强大的中文分词库 from scipy.misc import imread#读取图片 import time url='https://news.nuist.edu.cn/main.htm' n