[Python]networkx入门

networkx是python的一个第三方包,可以方便地调用各种图算法的计算。

通过调用python画图包matplotlib能实现图的可视化。

1.安装

正好整理一下python第三方包的安装方法。

setuptools

使用setuptools包,我们能够手动下载,安装第三方包。

使用方式:

下载第三方包源文件,在setup.py目录下执行

python XX install

easy_install

easy_install工具,自动化地根据第三方包的名称,一键联网搜索,下载并且调用setuptools安装。

使用方式:

上网下载ez_setup.py文件,执行

python ez_setup.py安装setuptools工具。

执行

easy_install SQLObject 

安装第三方包

pip

与easy_install类似,根据名称一键下载,调用setuptools安装。pip是可以看作是easy_install的升级版。

使用方式:

通过 http://www.jsxubar.info/install-pip.html

先下载get-pip.py文件

运行python get-pip.py,自动安装,包括setuptools在内的包

使用:

pip install simplejson --安装包
pip install --upgrade simplejson --升级包
pip uninstall simplejson --卸载包

使用setuptools自助下载安装,经常会遇到包确实,没有制定编译器等等各种问题而导致安装失败。所以使用easy_install或者pip是比较方便的选择。

安装networkx

安装networkx之前要安装画图工具matplotlib,以及矩阵运算工具numpy,于是我们执行:

pip install numpy
pip install matplotlib
pip install networkx

安装完成。

2.使用

networkx的英文版说明可以在其官方网站上下载得到,写的简单易懂。

http://networkx.github.io/documentation/latest/reference/index.html

这里记录下一些简单的建图方法。

在networkx中,图以对象的形式提供借口。

在图对象中,还有点,边等也是以对象形式提供,画图则调用matplotlib的函数完成。

建图

networkx可以建立简单无向图graph,有向图digraph,可重复边的multi-graph。

import networkx as nx
G=nx.Graph()
D=nx.DiGraph()
M=nx.MultiGraph()

这里的点可以是任意可区分的对象(hashable),比如数字,字符串,对象等。

G.add_node(1)
G.add_node('first_node')
#这里用一个对象多为key来唯一区别一个点
#我们还能够用一个列表来批量加入点
G.add_nodes_from([1,2,3])
#还可以用一个图对象作为点,嵌入到其他图中
G.add_node(D) #这里D作为一个点的key
#或者把一个图的所有点赋予另一个图
G.add_nodes_from(D) #这里返回D的所有点,赋予G
#与加入相同的传递方法,我们也可以删除点
G.remove_node(1)
G.remove_nodes_from([1,2,3])

这里的边可以使用两个单独的对象作为输入

G.add_edge(1,2) #表示1,2之间有一条边。
#如果不存在点1,2,则会自动加入点集合。
#或者以元组的形式作为输入
e=(1,2)
G.add_edge(*e)
#这里的*代表吧元组解包(unpack),当作一个个的值扔到函数中去。
#如果不解包,等价于
#G.add_edge(e)=G.add_edge((1,2))与参数传递的方式不符。
#类似的,我们还可以使用包含元组的列表来传递参数
G.add_edges_from([(1,2),(2,3)])
#我们还可以报一个图的边赋予另一个图
G.add_edges_from(H)
#删除
G.remove_edge(1,2)
G.remove_edges_from([(1,2),(2,3)])

访问

node_list = G.nodes()
edge_list = G.edges()
#可以返回包含点与边的列表
node = G.node[‘first_node’]
#如上根据key返回点
edge = G.edge['first_node']['second_node']
#同样的方法,返回两个key之间的边

属性

我们可以给图,点,边赋予各种属性,最简单的就是权值属性

G.add_node(1,time='5pm')
#在添加时跟上属性
G.add_nodes_from([1,2,3],time='5pm')
#批量添加点是,跟上统一的属性
G.add_nodes_from([(3,{'time':'5pm'}), (4,{'time':'4pm'})])
#或者写成元组列表[(key,dict),(key,dict)]的形式
G.node[1]['time']
#根据字典key访问属性值。

#给边添加属性也类似
G.add_edge(1,2,time='3am')
G.add_edges_from([(1,2,{'time'='5pm'}),(2,3,{'time'=3am})])
#批量赋予属性
G.edge[1][2][‘time’]
#访问

#我们还可以使用特定的函数批量返回属性,如
time = nx.get_edge_attributes(G,'time')
#返回得到以元组为key,time属性为值得一个字典
time[(1,2)]

图算法

nx.connected_components(G)
#返回列表形式的G的全连通分量,每个分量一个子列表

类似的,networkx还提供各种图算法,具体可见官方文档。

画图

nx.draw(G) #画出图G
matplotlib.show() #显示出来

我们使用连通分量算法,并画出一个简单的图如下:

networkx的默认属性效果并不好,我们根据文档提供的借口设置合适的属性,才能得到合适的图。

networkx提供图的点位置,大小,颜色,形状,边的颜色,类型等属性可设置。

时间: 2024-09-28 18:50:21

[Python]networkx入门的相关文章

Python爬虫入门七之正则表达式

在前面我们已经搞定了怎样获取页面的内容,不过还差一步,这么多杂乱的代码夹杂文字我们怎样把它提取出来整理呢?下面就开始介绍一个十分强大的工具,正则表达式! 1.了解正则表达式 正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符.及这些特定字符的组合,组成一个"规则字符串",这个"规则字符串"用来表达对字符串的一种过滤逻辑. 正则表达式是用来匹配字符串非常强大的工具,在其他编程语言中同样有正则表达式的概念,Python同样不例外,利用了正则表达式,我

转 Python爬虫入门七之正则表达式

静觅 » Python爬虫入门七之正则表达式 1.了解正则表达式 正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符.及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑. 正则表达式是用来匹配字符串非常强大的工具,在其他编程语言中同样有正则表达式的概念,Python同样不例外,利用了正则表达式,我们想要从返回的页面内容提取出我们想要的内容就易如反掌了. 正则表达式的大致匹配过程是:1.依次拿出表达式和文本中的字符比较,2.如果每一个

Python爬虫入门六之Cookie的使用

大家好哈,上一节我们研究了一下爬虫的异常处理问题,那么接下来我们一起来看一下Cookie的使用. 为什么要使用Cookie呢? Cookie,指某些网站为了辨别用户身份.进行session跟踪而储存在用户本地终端上的数据(通常经过加密) 比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的.那么我们可以利用Urllib2库保存我们登录的Cookie,然后再抓取其他页面就达到目的了. 在此之前呢,我们必须先介绍一个opener的概念. 1.Opener 当你获取一个

(原)python爬虫入门(2)---排序爬取的辽宁科技大学热点新闻

发现科大网页的源码中还有文章的点击率,何不做一个文章点击率的降序排行.简单,前面入门(1)基本已经完成我们所要的功能了,本篇我们仅仅需要添加:一个通过正则获取文章点击率的数字:再加一个根据该数字的插入排序.ok,大功告成! 简单说一下本文插入排序的第一个循环,找到列表中最大的数,放到列表 0 的位置做观察哨. 上代码: # -*- coding: utf-8 -*- # 程序:爬取点击排名前十的科大热点新闻 # 版本:0.1 # 时间:2014.06.30 # 语言:python 2.7 #--

【Python】入门 list有些不懂

#-*- coding: cp936 -*-  #首行加这个 代码里就可以加注释 raw_input("Press Enter Exit")  #最后一行加这个,可以直接点击脚本运行脚本 l[a:b] = [c] #即用右边的[c]完全替换a到b-1个元素 http://www.cnblogs.com/zhengyuxin/articles/1938300.html python list 操作 http://blog.csdn.net/sunvince/article/details

转 Python爬虫入门二之爬虫基础了解

静觅 » Python爬虫入门二之爬虫基础了解 2.浏览网页的过程 在用户浏览网页的过程中,我们可能会看到许多好看的图片,比如 http://image.baidu.com/ ,我们会看到几张的图片以及百度搜索框,这个过程其实就是用户输入网址之后,经过DNS服务器,找到服务器主机,向服务器发出一个请求,服务器经过解析之后,发送给用户的浏览器 HTML.JS.CSS 等文件,浏览器解析出来,用户便可以看到形形色色的图片了. 因此,用户看到的网页实质是由 HTML 代码构成的,爬虫爬来的便是这些内容

转 Python爬虫入门一之综述

转自: http://cuiqingcai.com/927.html 静觅 » Python爬虫入门一之综述 首先爬虫是什么? 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本. 要学习Python爬虫,我们要学习的共有以下几点: Python基础知识 Python中urllib和urllib2库的用法 Python正则表达式 Python爬虫框架Scrapy Python爬虫更高级的功能 1.Pyth

Python开发入门与实战1-开发环境

1.搭建Python Django开发环境 1.1.Python运行环境安装 Python官网:http://www.python.org/ Python最新源码,二进制文档,新闻资讯等可以在Python的官网查看到. Python3.0已经发布,本文我们使用Django作为对象映射层,Django暂时还不支持3.0版本,本文我们以Python 2.7 Windows 8 64位版本为例.下载安Windows X86-64 MSI Installer (2.7.7) [1]安装包,运行安装文件.

1.Python爬虫入门一之综述

要学习Python爬虫,我们要学习的共有以下几点: Python基础知识 Python中urllib和urllib2库的用法 Python正则表达式 Python爬虫框架Scrapy Python爬虫更高级的功能 1.Python基础学习 首先,我们要用Python写爬虫,肯定要了解Python的基础吧,万丈高楼平地起,不能忘啦那地基,哈哈,那么我就分享一下自己曾经看过的一些Python教程,小伙伴们可以作为参考. 1) 慕课网Python教程 曾经有一些基础的语法是在慕课网上看的,上面附有一些