Python3网络爬虫实战-5、Web库的安装:Flask、Tornado

Web 想必我们都不陌生,我们现在日常访问的网站都是 Web 服务程序搭建而成的,Python 同样不例外也有一些这样的 Web 服务程序,比如 Flask、Django 等,我们可以拿它来开发网站,开发接口等等。

在本书中,我们主要要用到这些 Web 服务程序来搭建一些 API 接口,供我们的爬虫使用。例如,维护一个代理池,代理保存在 Redis 数据库中,我们要将代理池作为一个公共的组件使用,那么如何构建一个方便的平台来供我们取用这些代理呢?最合适不过的就是通过 Web 服务提供一个 API 接口,我们只需要请求接口即可获取新的代理,简单、高效、实用。

在本书中用到的一些 Web 服务程序主要有 Flask、Tornado。

本节来分别介绍它们的安装方法。

1.5.1 Flask的安装

Flask 是一个轻量级的 Web 服务程序,简单、易用、灵活,在本书中我们主要用它来做一些 API 服务,本节我们来了解下它的安装方式。

1. 相关链接

2. Pip安装

pip3?install?flask

运行完毕之后就可以完成安装。

3. 验证安装

安装成功之后可以运行如下实例代码测试一下:

from flask import Flask
app = Flask(__name__)

@app.route("/")
def hello():
??? return "Hello World!"

if __name__ == "__main__":
??? app.run()
Python资源分享qun 784758214 ,内有安装包,PDF,学习视频,这里是Python学习者的聚集地,零基础,进阶,都欢迎

直接运行代码,可以发现系统会在 5000 端口开启 Web 服务,控制台输出如下:

* Running on?http://127.0.0.1:5000/ (Press CTRL+C to quit)

直接访问:http://127.0.0.1:5000/,可以观察到网页中呈现了 Hello World!,如图 1-41 所示:
[图片上传失败...(image-e4fea-1563957930486)]
图 1-41 运行结果
这样一个最简单的 Flask 程序就运行成功了。

4. 结语

在后文我们会利用 Flask+Redis 维护动态代理池和 Cookies 池。

1.5.2 Tornado的安装

Tornado 是一个支持异步的Web框架,通过使用非阻塞 I/O 流,它可以支撑成千上万的开放连接,效率非常高,本节我们介绍一下它的安装方式。

1. 相关链接

*GitHub:https://github.com/tornadoweb...
PyPi:https://pypi.python.org/pypi/...
官方文档:http://www.tornadoweb.org

2. Pip安装

pip3?install?tornado

执行完毕之后即可完成安装。

3. 验证安装

同样在这里我们也可以用一个 Hello World 程序测试一下,代码如下:

import tornado.ioloop
import tornado.web

class MainHandler(tornado.web.RequestHandler):
??? def get(self):
??????? self.write("Hello, world")

def make_app():
??? return tornado.web.Application([
??????? (r"/", MainHandler),
??? ])

if __name__ == "__main__":
??? app = make_app()
??? app.listen(8888)
??? tornado.ioloop.IOLoop.current().start()
Python资源分享qun 784758214 ,内有安装包,PDF,学习视频,这里是Python学习者的聚集地,零基础,进阶,都欢迎

直接运行程序,可以发现系统在 8888 端口运行了 Web 服务,控制台没有输出内容,此时访问:http://127.0.0.1:8888/,可以观察到网页中呈现了 Hello, world,如图 1-42 所示:

图 1-42 运行结果
出现上述情景就说明 Tornado 成功安装了。

4.结语

在后文我们会利用 Tornado+Redis 来搭建一个 ADSL 拨号代理池。

原文地址:https://blog.51cto.com/14445003/2424616

时间: 2024-11-07 00:31:29

Python3网络爬虫实战-5、Web库的安装:Flask、Tornado的相关文章

Python3网络爬虫实战-3、数据库的安装:MySQL、MongoDB、Redis

抓取下网页代码之后,下一步就是从网页中提取信息,提取信息的方式有多种多样,可以使用正则来提取,但是写起来会相对比较繁琐.在这里还有许多强大的解析库,如 LXML.BeautifulSoup.PyQuery 等等,提供了非常强大的解析方法,如 XPath 解析.CSS 选择器解析等等,利用它们我们可以高效便捷地从从网页中提取出有效信息. 本节我们就来介绍一下这些库的安装过程. 1.2.1 LXML的安装 LXML 是 Python 的一个解析库,支持 HTML 和 XML 的解析,支持 XPath

《Python3网络爬虫实战案例(崔庆才著)》 中文版PDF下载,附源代码+视频教程

<Python3网络爬虫实战案例(崔庆才著)>中文版PDF下载,附源代码+视频教程,带目录资料下载:https://pan.baidu.com/s/1OzxyHQMLOzWFMzjdQ8kEqQ 原文地址:http://blog.51cto.com/7369682/2330247

Python3网络爬虫实战-14、部署相关库的安装:Scrapyrt、Gerapy

Scrapyrt的安装 Scrapyrt 为 Scrapy 提供了一个调度的 HTTP 接口,有了它我们不需要再执行 Scrapy 命令而是通过请求一个 HTTP 接口即可调度 Scrapy 任务,Scrapyrt 比 Scrapyd 轻量级,如果不需要分布式多任务的话可以简单使用 Scrapyrt 实现远程 Scrapy 任务的调度. 1. 相关链接 GitHub:https://github.com/scrapinghu... 官方文档:http://scrapyrt.readthedocs

Python3网络爬虫实战-10、爬虫框架的安装:PySpider、Scrapy

我们直接用 Requests.Selenium 等库写爬虫,如果爬取量不是太大,速度要求不高,是完全可以满足需求的.但是写多了会发现其内部许多代码和组件是可以复用的,如果我们把这些组件抽离出来,将各个功能模块化,就慢慢会形成一个框架雏形,久而久之,爬虫框架就诞生了. 利用框架我们可以不用再去关心某些功能的具体实现,只需要去关心爬取逻辑即可.有了它们,可以大大简化代码量,而且架构也会变得清晰,爬取效率也会高许多.所以如果对爬虫有一定基础,上手框架是一种好的选择. 本书主要介绍的爬虫框架有PySpi

Python3网络爬虫实战-11、爬虫框架的安装:ScrapySplash、ScrapyRedis

ScrapySplash的安装 ScrapySplash 是一个 Scrapy 中支持 JavaScript 渲染的工具,本节来介绍一下它的安装方式.ScrapySplash 的安装分为两部分,一个是是 Splash 服务的安装,安装方式是通过 Docker,安装之后会启动一个 Splash 服务,我们可以通过它的接口来实现 JavaScript 页面的加载.另外一个是 ScrapySplash 的 Python 库的安装,安装之后即可在 Scrapy 中使用 Splash 服务. 1. 相关链

Python3网络爬虫——三、Requests库的基本使用

一.什么是Requests Requests是用Python语言编写,基于urllib,采用Apache2 Licensed开元协议的HTTP库.它比urllib更加的方便,可以节约我们大量的工作完全满足HTTP测试需求.简单来讲,即Python实现的简单易用的HTTP库. 二.Requests库的安装 如果是初学者,建议使用原生Python3进行安装. 1 >> pip3 install requests 如果有一定的Python基础(会基本语法即可),使用anaconda进行安装更加方便,

Python3网络爬虫实战-4、存储库的安装:PyMySQL、PyMongo、RedisPy、Red

在前面一节我们介绍了几个数据库的安装方式,但这仅仅是用来存储数据的数据库,它们提供了存储服务,但如果想要和 Python 交互的话也同样需要安装一些 Python 存储库,如 MySQL 需要安装 PyMySQL,MongoDB 需要安装 PyMongo 等等,本节我们来说明一下这些库的安装方式. 1.4.1 PyMySQL的安装 在前面一节我们了解了 MySQL 的安装方式,在 Python3 中如果想要将数据存储到 MySQL 中就需要借助于 PyMySQL 来操作,本节我们介绍一下 PyM

Python3网络爬虫实战-23、使用Urllib:分析Robots协议

利用 Urllib 的 robotparser 模块我们可以实现网站 Robots 协议的分析,本节我们来简单了解一下它的用法. 1. Robots协议 Robots 协议也被称作爬虫协议.机器人协议,它的全名叫做网络爬虫排除标准(Robots Exclusion Protocol),用来告诉爬虫和搜索引擎哪些页面可以抓取,哪些不可以抓取.它通常是一个叫做 robots.txt 的文本文件,放在网站的根目录下. 当搜索爬虫访问一个站点时,它首先会检查下这个站点根目录下是否存在 robots.tx

Python3网络爬虫实战-6、APP爬取相关库的安装:Charles的安装

除了 Web 网页,爬虫也可以对 APP 的数据进行抓取,APP 中的页面要加载出来,首先需要获取数据,那么这些数据一般是通过请求服务器的接口来获取的,由于 APP 端没有像浏览器一样的开发者工具直接比较直观地看到后台的请求,所以对 APP 来说,它的数据抓取主要用到一些抓包技术. 本书介绍的抓包工具有 Charles.MitmProxy.MitmDump,APP 一些简单的接口我们通过 Charles 或 MitmProxy 分析找出规律就可以直接用程序模拟来抓取了,但是如果遇到更复杂的接口我