python常用的几种GUI解析

在Python中,开始使用GUI编程的步骤并不复杂,但是它们要求用户开始做出一些选择。作为通用编程语言,每个常见操作系统都有可用的解释器,所以创建图形用户界面对于Python来说并不是难事。程序员可以有很多的选择,真正困难的是如何为用户创建一个简单的方式来与程序互动。
在python中有几种常用的GUI,我们来解析下。
1、Tkinter

  如果有一个包可以被称为“Python的标准GUI工具包”,那么它一定就是Tkinter。Tkinter是Tcl / Tk的封装,是90年代初推出的流行图形界面。选择Tkinter的优势是它拥有大量的资源,包括书籍和代码示例,以及活跃的用户社区,如果您有任何疑问,社区成员都可能会帮助到你。除此之外,还有很多简单的入门示例,而且可读性非常好。

  Tkinter可以使用Python许可证,在Tcl / Tk的BSD许可证之上。
在python中可以无需安装Tkinter,就可以简单方便的使用它。
例如:

只需编程时
import tkinter
import tkinter.messagebox

2、wxPython

  WxPython带来了wxWidgets 跨平台GUI库,支持将本机C++引入到Python中。WxPython是一种稍微更现代化的方法,它看起来比不同操作系统上的Tkinter更加接近原生,因为它不会尝试创建自己的一组小部件。它的入门使用也比较容易,社区中的开发人员也在不断增长,但是需要注意的是,可能需要将wxPython与应用程序捆绑在一起,因为它不会随Python自动安装。

  WxPython使用其父项目的wxWindows库许可证。
这个需要安装后,才能使用

编程时需要导入
import wx
例如:

3、PyQt

  PyQt实现了流行的Qt库,它开辟了在Python中开发应用程序的可能性,而且开发出的应用程序在其他平台上拥有熟悉的外观和感觉。

  PyQt可以利用社区中强大的工具和资源,其拥有 commercial和GPL的双重许可,与Qt项目不同,支持PyQt的主要公司都会提供license FAQ,有助于帮助程序员了解这对应用程序意味着什么。PyQt3支持Qt1到Qt3。 PyQt4支持Qt4,PyQt5支持Qt5。它的首次发布也是在1998年,但是当时它叫 PyKDE,因为开始的时候SIP和PyQt没有分开。PyQt是用SIP写的。PyQt 提供 GPL版和商业版。Qt同样是一种开源的GUI库,Qt的类库大约在300多个,函数大约在5700多个。Qt同样适合于大型应用,由它自带的qt designer可以让我们轻松来构建界面元素。
python中使用PyQt需要安装和配置
安装:
1、使用pip命令安装

2、如想方便设计,还可以安装PyQt5-tools

例如:

4、EasyGui
EasyGui是Python用于简单开发图形化界面的类库,不需要安装即可使用。
编程时导入
import easygui
例如实现效果:

当然还有别的GUI,例如pyGtk、Jython、MFC、PythonCard、Dabo、AnyGui、WPY、IronPython等等。   

我认为对于tkinter是每一个原来搞C的人都应该了解和学习的GUI库,因为它很轻便,小型应用就可以使用它来搞定,而对于较大型应用可以采用pyGtk,pyQt,WxPython或 PythonCard来搞定,这样的话,既可以注重知识的衔接性,也可以快速选定GUI进行软件的开发了。

原文地址:http://blog.51cto.com/xjsunjie/2114228

时间: 2024-08-30 09:11:53

python常用的几种GUI解析的相关文章

爬虫学习 05.Python网络爬虫之三种数据解析方式

爬虫学习 05.Python网络爬虫之三种数据解析方式 引入 回顾requests实现数据爬取的流程 指定url 基于requests模块发起请求 获取响应对象中的数据 进行持久化存储 其实,在上述流程中还需要较为重要的一步,就是在持久化存储之前需要进行指定数据解析.因为大多数情况下的需求,我们都会指定去使用聚焦爬虫,也就是爬取页面中指定部分的数据值,而不是整个页面的数据.因此,本次课程中会给大家详细介绍讲解三种聚焦爬虫中的数据解析方式.至此,我们的数据爬取的流程可以修改为: 指定url 基于r

Python网络爬虫之三种数据解析方式

引入 回顾requests实现数据爬取的流程 指定url 基于requests模块发起请求 获取响应对象中的数据 进行持久化存储 其实,在上述流程中还需要较为重要的一步,就是在持久化存储之前需要进行指定数据解析.因为大多数情况下的需求,我们都会指定去使用聚焦爬虫,也就是爬取页面中指定部分的数据值,而不是整个页面的数据.因此,本次课程中会给大家详细介绍讲解三种聚焦爬虫中的数据解析方式.至此,我们的数据爬取的流程可以修改为: 指定url 基于requests模块发起请求 获取响应中的数据 数据解析

《Python网络爬虫之三种数据解析方式?

回顾requests实现数据爬取的流程 指定url 基于requests模块发起请求 获取响应对象中的数据 进行持久化存储 其实,在上述流程中还需要较为重要的一步,就是在持久化存储之前需要进行指定数据解析.因为大多数情况下的需求,我们都会指定去使用聚焦爬虫,也就是爬取页面中指定部分的数据值,而不是整个页面的数据.因此,本次课程中会给大家详细介绍讲解三种聚焦爬虫中的数据解析方式.至此,我们的数据爬取的流程可以修改为: 指定url 基于requests模块发起请求 获取响应中的数据 数据解析 进行持

05,Python网络爬虫之三种数据解析方式

回顾requests实现数据爬取的流程 指定url 基于requests模块发起请求 获取响应对象中的数据 进行持久化存储 其实,在上述流程中还需要较为重要的一步,就是在持久化存储之前需要进行指定数据解析.因为大多数情况下的需求,我们都会指定去使用聚焦爬虫,也就是爬取页面中指定部分的数据值,而不是整个页面的数据.因此,本次课程中会给大家详细介绍讲解三种聚焦爬虫中的数据解析方式.至此,我们的数据爬取的流程可以修改为: 指定url 基于requests模块发起请求 获取响应中的数据 数据解析 进行持

Python爬虫的三种数据解析方式

数据解析方式 - 正则 - xpath - bs4 数据解析的原理: 标签的定位 提取标签中存储的文本数据或者标签属性中存储的数据 正则 # 正则表达式 单字符: . : 除换行以外所有字符 [] :[aoe] [a-w] 匹配集合中任意一个字符 \d :数字 [0-9] \D : 非数字 \w :数字.字母.下划线.中文 \W : 非\w \s :所有的空白字符包,括空格.制表符.换页符等等.等价于 [ \f\n\r\t\v]. \S : 非空白 数量修饰: * : 任意多次 >=0 + :

Python常用的几种常用的内置函数

abs(x)              用于返回绝对值 divmod(x,y)       函数中传入两个数字,返回的是x/y的一个结果的元组(商,余数) pow(x,y)            用于求x的y次方 all(iterable)       函数中传入一个可迭代的对象,如果对象中的所有的数的bool值都为真才会返回True,不否则就返回Flase any(iterable)    函数中传入一个可迭代的对象,如果对象中有一个数的bool值为真就返回True,如果所有的数都为0,就返回

Python编程中常用的12种基础知识总结

原地址:http://blog.jobbole.com/48541/ Python编程中常用的12种基础知识总结:正则表达式替换,遍历目录方法,列表按列排序.去重,字典排序,字典.列表.字符串互转,时间对象操作,命令行参数解析(getopt),print 格式化输出,进制转换,Python调用系统命令或者脚本,Python 读写文件. 1.正则表达式替换目标: 将字符串line中的 overview.gif 替换成其他字符串 1 2 3 4 5 6 7 8 9 10 11 >>> lin

Python 编程中常用的 12 种基础知识总结

Python 编程中常用的 12 种基础知识总结:正则表达式替换,遍历目录方法,列表按列排序.去重,字典排序,字典.列表.字符串互转,时间对象操作,命令行参数解析(getopt),print 格式化输出,进制转换,Python调用系统命令或者脚本,Python 读写文件. 1.正则表达式替换 目标:将字符串line中的 overview.gif 替换成其他字符串 >>> line = '<IMG ALIGN="middle" SRC=\'#\'" /s

C#-正则,常用几种数据解析-端午快乐

在等待几个小时就是端午节了,这里预祝各位节日快乐. 这里分享的是几个在C#中常用的正则解析数据写法,其实就是Regex类,至于正则的匹配格式,请仔细阅读正则的api文档,此处不具体说明,谢谢. 开始吧: 1.查询是否存在“订单号”数据的字符串 1 //匹配对象 2 var expl = "[{\"订单号\":2006,\"价格\":888.90,\"下单时间\":\"2016-06-08 17:01\",\"