Python 词云

穿过长长的县道,便是雪国。
在看黄杏元的GIS书籍,按照图论中用相邻矩阵来表示图是应该和书上一样全写出来的。但在寻找最短路径时候只用到了第一行向量,所以分析过程就简化了。
之后考虑会使用Python或者C++来实现一个简单图的Dijkstra算法,目前只是计划,具体什么时候写看时间吧。

import wordcloud
import jieba
import numpy as np
from PIL import Image
import matplotlib.pyplot as plt

txt =open('line.txt','r',encoding='utf-8') #打开文件
text=txt.read()# 读整个文件
txt.close()# 关闭文件
#print(jb)

#jieba中文分词
text=' '.join(jieba.lcut(text))

## 获取图形的颜色和图片 numpy
maskcover= np.array(Image.open('love.jpeg') )

w = wordcloud.WordCloud(font_path="simsun.ttc",mask=maskcover)
w.generate(text)
w.to_file("wc.png")

# 展示词云
plt.imshow(w)
plt.axis('off')
plt.show()

待改进之处

  1. 对词云的字数做出限制
  2. 背景蒙版的修改
  3. 代码优化
  4. 字体大小的赋权显示
  5. jieba库的熟悉

Reference

1.Python wordcloud库学习小结
2.Linux下安装中文字体库

原文地址:https://www.cnblogs.com/tamkery/p/11691341.html

时间: 2024-09-27 09:29:03

Python 词云的相关文章

用Python词云展示周董唱过的歌,发现内含秘密

马上开始了,你准备好了么 准备工作 环境:Windows + Python3.6 IDE:根据个人喜好,自行选择 模块: Matplotlib是一个 Python 的 2D数学绘图库 1 pip install matplotlib 2 import matplotlib.pyplot as plt jieba中文分词库 1 pip install jieba 2 import jieba wordcloud词云库 1 pip install wordcloud 2 from wordcloud

[python] 词云:wordcloud包的安装、使用、原理(源码分析)、中文词云生成、代码重写

词云,又称文字云.标签云,是对文本数据中出现频率较高的“关键词”在视觉上的突出呈现,形成关键词的渲染形成类似云一样的彩色图片,从而一眼就可以领略文本数据的主要表达意思.常见于博客.微博.文章分析等. 除了网上现成的Wordle.Tagxedo.Tagul.Tagcrowd等词云制作工具,在python中也可以用wordcloud包比较轻松地实现(官网.github项目): from wordcloud import WordCloud import matplotlib.pyplot as pl

二级Python词云包安装问题

前言 二级Python第10章<第三方库概览>中介绍了三个库: PyInstaller Jieba WordCloud其中,前两个库是必须掌握的,第三个库是可选学习.因此,编程题中肯定不会出现对于词云库WordCloud的考察要求.但是,从实际应用开发角度讲,这个库是学习时下Python大数据编程必须要掌握的--当然也是比较简单的. 安装问题 在安装WordCloud过程中遇到失败与成功,特别记录于下. 家中机器上的失败安装 遗憾的是,家中笔记本上安装的是WINDOWS 7 32位,且费了很多

Python词云的中文问题

1 image= Image.open('F:/__identity/course/建模/九寨沟地震/四川地图.jpg') 2 fig = plt.figure(figsize=(20, 16)) 3 graph = np.array(image) 4 wc = WordCloud(font_path='./fonts/simhei.ttf',background_color='White',mask=graph) # font_path='./fonts/simhei.ttf' 显示中文 5

Python 词云 【中/英】小白简单入门教程

1. 分析 构建词云需要具备: 原料即文章等内容 将内容进行分词 将分词后的内容利用构建词云的工具进行构建 保存成图片 2. 需要的主要模块 jieba 中文分词 wordcloud 构建词云 3. 模块原理 wordcloud的实现原理 文本预处理 词频统计 将高频词以图片形式进行彩色渲染 jieba的实现原理 进行中文分词(有多种模式)[详情] 4. 英文词云 英文分词和构建词云只需要wordcloud模块 具体实现如下: 1 from wordcloud import WordCloud

python词云

词云图 from os import path from PIL import Image import numpy as np import matplotlib.pyplot as plt from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator import jieba text = open(path.join(r'new.txt'),encoding='utf-8').read() wordlist = jieba.

Python词云wordcloud模板

很简单: import wordcloud import jieba import time start=time.perf_counter() f=open('xyy.txt','r',encoding='gbk') #这里的编码格式还不太了解,有的用utf-8,有的用gbk t=f.read() f.close() ls=jieba.lcut(t) txt=' '.join(ls) w=wordcloud.WordCloud(font_path='msyh.ttc',width=1000,h

如何用Python做词云(收藏)

看过之后你有什么感觉?想不想自己做一张出来? 如果你的答案是肯定的,我们就不要拖延了,今天就来一步步从零开始做个词云分析图.当然,做为基础的词云图,肯定比不上刚才那两张信息图酷炫.不过不要紧,好的开始是成功的一半嘛.食髓知味,后面你就可以自己升级技能,进入你开挂的成功之路. 网上教你做信息图的教程很多.许多都是利用了专用工具.这些工具好是好,便捷而强大.只是它们功能都太过专一,适用范围有限.今天我们要尝试的,是用通用的编程语言Python来做词云. Python是一种时下很流行的编程语言.你不仅

使用Python定制词云

一.实验介绍 1.1 实验内容 在互联网时代,人们获取信息的途径多种多样,大量的信息涌入到人们的视线中.如何从浩如烟海的信息中提炼出关键信息,滤除垃圾信息,一直是现代人关注的问题.在这个信息爆炸的时代,我们每时每刻都要更新自己的知识储备,而网络是最好的学习平台.对信息过滤和处理能力强,学习效率就会得到提高."词云"就是为此而诞生的."词云"是对网络文本中出现频率较高的"关键词"予以视觉上的突出,形成"关键词云层"或"