Python历史+优缺点+应用领域+网站职位简介

一、Python的历史

1. 1989年圣诞节:Guido von Rossum开始写Python语言的编译器。
2. 1991年2月:第一个Python编译器(同时也是解释器)诞生,它是用C语言实现的(后面又出现了Java和C#实现的版本Jython和IronPython,以及PyPy、Brython、Pyston等其他实现),可以调用C语言的库函数。在最早的版本中,Python已经提供了对“类”,“函数”,“异常处理”等构造块的支持,同时提供了“列表”和“字典”等核心数据类型,同时支持以模块为基础的拓展系统。
3. 1994年1月:Python 1.0正式发布。
4. 2000年10月16日:Python 2.0发布,增加了实现完整的[垃圾回收]
5. 2008年12月3日:Python 3.0发布,它并不完全兼容之前的Python代码,不过因为目前还有不少公司在项目和运维中使用Python 2.x版本,所以Python 3.x的很多新特性后来也被移植到Python 2.6/2.7版本中。

目前我们使用的Python 3.7.x的版本是在2018年发布的,Python的版本号分为三段,形如A.B.C。其中A表示大版本号,一般当整体重写,或出现不向后兼容的改变时,增加A;B表示功能更新,出现新功能时增加B;C表示小的改动(如修复了某个Bug),只要有修改就增加C。如果对Python的历史感兴趣,可以查看一篇名为[《Python简史》

二、Python的优缺点

Python的优点很多,简单的可以总结为以下几点。

1. 简单和明确,做一件事只有一种方法。
2. 学习曲线低,跟其他很多语言相比,Python更容易上手。
3. 开放源代码,拥有强大的社区和生态圈。
4. 解释型语言,天生具有平台可移植性。
5. 支持两种主流的编程范式(面向对象编程和函数式编程)都提供了支持。
6. 可扩展性和可嵌入性,可以调用C/C++代码,也可以在C/C++中调用Python。
7. 代码规范程度高,可读性强,适合有代码洁癖和强迫症的人群。

Python的缺点主要集中在以下几点。

1. 执行效率稍低,因此计算密集型任务可以由C/C++编写。
2. 代码无法加密,但是现在的公司很多都不是卖软件而是卖服务,这个问题会被淡化。
3. 在开发时可以选择的框架太多(如Web框架就有100多个),有选择的地方就有错误。

三、Python的应用领域

目前Python在云基础设施、DevOps、网络爬虫开发、数据分析挖掘、机器学习等领域都有着广泛的应用,因此也产生了Web后端开发、数据接口开发、自动化运维、自动化测试、科学计算和可视化、数据分析、量化交易、机器人开发、图像识别和处理等一系列的职位。

四、搭建编程环境

python3.7.0搭建成功:

五、拉勾网对Python相关的职位要求,薪资待遇。

此处,我使用了简单爬虫来进行爬取拉勾网的数据

源代码如下:

import requests
import json

header = {
    ‘Accept‘: ‘application/json, text/javascript, */*; q=0.01‘,
    ‘Referer‘: ‘https://www.lagou.com/jobs/list_python%E7%88%AC%E8%99%AB/p-city_184?&cl=false&fromSearch=true&labelWords=sug&suginput=python‘,
    ‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36‘
}
data = {
    ‘first‘: ‘true‘,
    ‘pn‘: ‘1‘,
    ‘kd‘: ‘python‘
}
url1 = ‘https://www.lagou.com/jobs/list_python?city=%E5%85%A8%E5%9B%BD&cl=false&fromSearch=true&labelWords=&suginput=‘ #主url
url = ‘https://www.lagou.com/jobs/positionAjax.json?city=%E6%AD%A6%E6%B1%89&needAddtionalResult=false‘  #ajax请求

s = requests.Session()  #因为需要post和相关cookies,所以得创建session来帮忙获取cookies
s.get(url = url1 ,headers =header)

cookie = s.cookies
respon = s.post(url = url, headers = header, data = data, cookies = cookie)

res_json = json.loads(respon.text)

ret = res_json[‘content‘][‘positionResult‘][‘result‘]

for i in ret:
    salary = i[‘salary‘]
    name = i[‘positionName‘]
    print(name,salary)

输出结果如下:

在爬取过程中,因为在使用requests模拟浏览器访问数据的时候,出现了访问频繁的问题。

拉钩的网页加载的时候有一个url专门返回除了招聘信息以外的其它东西,加载招聘信息的时候会产生另外一个ajax请求,请求返回的正是我们想要的内容,只需要在先发送主请求,之后用

requests.Session()建立Session,建立完成session之后通过session来获取cookie,拿到cookie就可以直接用了。该方法的缺点在于每次的获取,都相当于重新打开一次浏览器。

最后通过一系列的取key来获取我们想要的值:Python职位+职位对应的薪水

最后,大家一起努力学习Python吧~

原文地址:https://www.cnblogs.com/lesliechan/p/11470342.html

时间: 2024-10-12 20:04:19

Python历史+优缺点+应用领域+网站职位简介的相关文章

1、历史天气查询网站-准备工作

一.引言 一直想学习Sql Server.Oracle数据库的优化技巧,以及一些Html的酷炫报表,可是没有数据.如果是自己造数据,觉得太麻烦,同时效果也不好.于是乎小编想到了爬虫,爬取网上的数据. 既然决定采用爬虫获取数据,下面就开始思考选择爬去什么类型的数据.有小说数据.豆瓣电影.天气数据等等,最终小编选择了天气数据.百度了几天了,浏览天气网站,发现历史天气查询网站的数据比较符合小编的感官,下面贴该网站的界面图. 二.目标网站截图 1.天气查询网站首页http://lishi.tianqi.

计算机基础、python历史,环境,分类,安装

一.计算机基础 CPU:大脑,处理数据,计算 内存:临时储存数据,运行速度快,成本高,断电数据会消失:4G,8G,16G,32G 硬盘:1T,固态硬盘,机械硬盘:储存数据,文件,能长久保存 操作系统:打开QQ过程,点击快捷方式,打开硬盘中的.exe文件索引,操作系统将其加载到内存,CPU将内存中的QQ执行 二.python历史.环境.发展.种类 https://www.cnblogs.com/jin-xin/articles/7459977.html 太白金星博客 Python崇尚优美.清晰.简

python爬取某个网站的图片并保存到本地

python爬取某个网站的图片并保存到本地 #coding:utf-8 import urllib import re import sys reload(sys) sys.setdefaultencoding('gb2312') #获取整个页面的数据 def getHtml (url): page = urllib.urlopen(url) html = page.read() return html #保存图片到本地 def getImg(html): reg = r'src="(.+?\.

[转载]python实现带验证码网站的自动登陆

    原文地址:python实现带验证码网站的自动登陆作者:TERRY-V 早听说用python做网络爬虫非常方便,正好这几天单位也有这样的需求,需要登陆XX网站下载部分文档,于是自己亲身试验了一番,效果还不错. 本例所登录的某网站需要提供用户名,密码和验证码,在此使用了python的urllib2直接登录网站并处理网站的Cookie. Cookie的工作原理: Cookie由服务端生成,然后发送给浏览器,浏览器会将Cookie保存在某个目录下的文本文件中.在下次请求同一网站时,会发送该Coo

Python历史以及Python在编程语言中的定位

提及阿姆斯特丹你可以联想到郁金香,也可以联想到关于荷兰的一些东东,当然你如果是计算机爱好一族的话,你就一定会关心Python历史,以下就有关于Python历史的介绍. AD: 以本人的观点看来,Python这种语言是非常优美和强大在实际的应用中,是由专门为非专业程序员设计的计算机语言,而拥有很优美的语言Python为什么会用Python命名呢?如果你想对其有所了解,你也不妨看看关于Python历史的介绍. Python的创始人为Guido van Rossum.1989年圣诞节期间,在阿姆斯特丹

无比强大!Python抓取cssmoban网站的模版并下载

Python实现抓取http://www.cssmoban.com/cssthemes网站的模版并下载 实现代码 # -*- coding: utf-8 -*- import urlparse import urllib2 import re import os import os.path URL='http://www.cssmoban.com/cssthemes' #全局超时设置 urllib2.socket.setdefaulttimeout(500) #根据url获取内容 def ge

Python的序列1–序列的简介

Python的序列1–序列的简介 1.序列的简介 序列是Python中的重要组成部分,也是一种数据结构,那么什么是序列呢?按照定义来说,序列就是一个对象里面的所有元素全部按照一定的顺序进行排列,并且可以通过下标索引,访问到该对象的一个或者几个元素. 那么序列又包括什么呢?在Python中序列值包括三种:字符串,列表,元组.请注意,数值型的对象是不属于序列的,我们说到序列就是单只这三种.也要注意的是:我们说序列并不是单只列表,而应该是包括列表在内的,符合定义中的两条原则:1,顺序排列:2,通过下标

【Python】python代码来登陆网站签到米粒×××

python代码来登陆网站签到米粒×××的代码如下: import requests #导入requests模块 url = r'//www.iplaypy.com/web/' # 把网址改为你要登陆的url即可 user = {'username':'liuaaaaaa','password':'liuaaaaaa'} proxie = { 'User-Agent':"Mozilla/5.0 (Windows NT 6.1; WOW64; rv:38.0) Gecko/20100101 Fir

利用python爬下段子网站的搞笑段子

众所周知,python是写爬虫的利器,今天作者用python写一个小爬虫爬下一个段子网站的众多段子. 目标段子网站为“http://ishuo.cn/”,我们先分析其下段子的所在子页的url特点,可以轻易发现发现为“http://ishuo.cn/subject/”+数字, 经过测试发现,该网站的反扒机制薄弱,可以轻易地爬遍其所有站点. 现在利用python的re及urllib库将其所有段子扒下 import sys import re import urllib #返回html格式 def g