用词云图分析一带一路峰会哪3个词说的最多

前言

最近几日关注度最高的新闻莫过于一带一路峰会相关的消息,会议结束后,一带一路峰会联合公告已经公布出来了。
本文通过词云分析,了解本次公告以及习大大在峰会开幕式上主要都讲了哪些关键内容。

1 一带一路峰会联合公告词云图

5月17日公布的一带一路峰会联合公告的词云分析结果图,如下:

词云图上,字体越大表示该词语在文件中出现的次数越多。

从上图可以看出,出现次数最多的3个词语为“合作”、“我们”以及“加强” ,基本可以看出,本次峰会是一个新的起点,今后需要做的事情还很多,需要各方务实合作,哈。

2 一带一路峰会开幕式上习大大的讲话词云图

分析开幕式上习大大的讲话内容,得到词云图如下:

从上图可看出,出现次数最多的几个词语为“一带一路”、“合作”、“我们”以及“发展”等。

3 用python制作词云图

下面主要来介绍下用python制作这个词云图的过程,主要分为如下几个步骤:

  • 从txt文件读取需要分析的文本内容
  • 使用jieba分词工具进行中文分词
  • 选取合适的显示图形
  • 用wordcloud进行词云图显示
  • 保存图片

一带一路峰会联合公告词云图实现的代码如下:

# -*- coding: utf-8 -*-
"""
Created on Wed May 17 2017

@author: lemon
"""

import jieba
from wordcloud import WordCloud, ImageColorGenerator
import matplotlib.pyplot as plt
import os
import PIL.Image as Image
import numpy as np

with open(‘ydyl_gb.txt‘, ‘rb‘) as f:
# 读取一带一路峰会联合公报的内容
# with open(‘yidaiyilu.txt‘, ‘rb‘) as f:
    text = f.read()
    f.close()

# 首先使用 jieba 中文分词工具进行分词
wordlist = jieba.cut(text, cut_all=False)
# cut_all, True为全模式,False为精确模式

wordlist_space_split = ‘ ‘.join(wordlist)

d = os.path.dirname(__file__)
alice_coloring = np.array(Image.open(os.path.join(d,‘colors.png‘)))
my_wordcloud = WordCloud(background_color=‘#F0F8FF‘, max_words=100, mask=alice_coloring,
                         max_font_size=300, random_state=42).generate(wordlist_space_split)

image_colors = ImageColorGenerator(alice_coloring)

plt.show(my_wordcloud.recolor(color_func=image_colors))
plt.imshow(my_wordcloud)            # 以图片的形式显示词云
plt.axis(‘off‘)                     # 关闭坐标轴
plt.show()

my_wordcloud.to_file(os.path.join(d, ‘ydyl_gb_colors_cloud.png‘))

更多精彩内容请关注微信公众号:

“Python数据之道”

?

时间: 2024-08-09 06:19:45

用词云图分析一带一路峰会哪3个词说的最多的相关文章

利用词云图分析热词

1.安装第三方库(matplotlib,jieba,wordcloud,numpy) 1.1安装方法:pip命令在线安装(python3.x默认安装了pip,pip下载地址:https://pypi.python.org/pypi/pip#downloads) 已经配置好环境变量前提下,在cmd窗口直接运行:pip install 包名(应为我已经安装过了,所以提示已经安装过了),如 pip install numpy 1.2官网下载对应的whl进行安装 在 http://www.lfd.uci

Python爬虫b站视频弹幕并生成词云图分析

爬虫:requests,beautifulsoup 词云:wordcloud,jieba 代码加注释: 1 # -*- coding: utf-8 -*- 2 import xlrd#读取excel 3 import xlwt#写入excel 4 import requests 5 import linecache 6 import wordcloud 7 import jieba 8 import matplotlib.pyplot as plt 9 from bs4 import Beaut

特朗普退出《巴黎协定》:python词云图舆情分析

1 前言 2017年6月1日,美国特朗普总统正式宣布美国退出<巴黎协定>.宣布退出<巴黎协定>后,特朗普似乎成了“全球公敌”. 特斯拉总裁马斯克宣布退出总统顾问团队 迪士尼董事长离开总统委员会 谷歌等25家大公司联名刊发整版广告:美国不应退出巴黎协定 法国总统马克龙:特朗普宣布退出<巴黎协定>是“错误”之举 …… 在此背景下,本文以python词云图分析的方式来了解下相关情况. 2 特朗普演讲内容分析 首先来看下特朗普宣布退出<巴黎协定>时都说了啥. 特朗普

用python给女朋友做一个歌曲词云图

目录 一 什么是词云 二 制作词云的步骤 4 科比词云图制作测试代码1 -- coding:utf-8 - 生成词云 三 案例 网易云歌手房东的猫词云图 1 整体流程图 2 爬取+词云制作 今天咋们来看看网易云赵雷的歌曲歌词,并做一个词云图.这篇文章可以学习到什么是词云,爬虫的基本流程,简单的可视化操作 @ 一 什么是词云 可视化有很多种,好的数据可视化,可以使得数据分析的结果更加通俗易通."词云"属于可视化的一种,它会根据关键词的出现频率生成一幅图,这样可以让我们一眼就知道其主要要点

【Python成长之路】词云图制作

[写在前面] 以前看到过一些大神制作的词云图 ,觉得效果很有意思.如果有朋友不了解词云图的效果,可以看下面的几张图(图片都是网上找到的): 网上找了找相关的软件,有些软件制作 还要付费.结果前几天在大神的公众号里的文章中看到了python也能实现,而且效果也很不错 .那还等什么,不赶紧盘它? [示例代码] 1 # coding=utf-8 2 # @Auther : "鹏哥贼优秀" 3 # @Date : 2019/7/31 4 # @Software : PyCharm 5 impo

Note of Jieba ( 词云图实例 )

Note of Jieba jieba库是python 一个重要的第三方中文分词函数库,但需要用户自行安装. 一.jieba 库简介 (1) jieba 库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动态规划方法找到最大概率的词组:除此之外,jieba 库还提供了增加自定义中文单词的功能. (2) jieba 库支持3种分词模式: 精确模式:将句子最精确地切开,适合文本分析. 全模式:将句子中所以可以成词的词语都扫描出来,速度非常快,但是不能消除歧义. 搜索引擎模

python学习之 python制作词云图 我的第一张python词云图 python怎么做词云图

首先是思路  针对本文的代码: 注意: 本代码词云图 需要准备 词语内容保存text文件 一个png格式的图片 整体思路: 首先获取需要分析词语的内容保存到一个文件, 然后读取文件. 然后打开一个已有的png图片(其实额可以穿件一个的, 这个代码需要打开已有的), 然后使用参数设置词云图 大小等参数, 图片中填充内容. 然后保存图片文件 再去目录文件下查看图片就已经有了 利用pip安装一些依赖 pip install jieba pip install matplotlib pip instal

python 做词云图

#导入需要模块 import jieba import numpy as np import matplotlib.pyplot as plt from PIL import Image from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator   text_road=str(input('请输入文章的路径:')) picture_road=str(input('请输入图片的路径:'))   #加载需要分析的文章 text =

Echarts词云图

今天使用Echarts写了个词云图,之前使用pycharts生成的html就是echarts.主要代码如下,另外Echarts需要到https://www.echartsjs.com/下载,开发时使用.js文件即可. 先看效果: Echarts官网有详细的开发文档可以参考学习. <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <titl