一些爬虫中的snippet

1.tornado

一个精简的异步爬虫(来自tornado的demo)

#!/usr/bin/env python

import time
from datetime import timedelta

try:
    from HTMLParser import HTMLParser
    from urlparse import urljoin, urldefrag
except ImportError:
    from html.parser import HTMLParser
    from urllib.parse import urljoin, urldefrag

from tornado import httpclient, gen, ioloop, queues

base_url = ‘http://www.tornadoweb.org/en/stable/‘
concurrency = 10

@gen.coroutine
def get_links_from_url(url):
    """Download the page at `url` and parse it for links.
    Returned links have had the fragment after `#` removed, and have been made
    absolute so, e.g. the URL ‘gen.html#tornado.gen.coroutine‘ becomes
    ‘http://www.tornadoweb.org/en/stable/gen.html‘.
    """
    try:
        response = yield httpclient.AsyncHTTPClient().fetch(url)
        print(‘fetched %s‘ % url)

        html = response.body if isinstance(response.body, str)             else response.body.decode()
        urls = [urljoin(url, remove_fragment(new_url))
                for new_url in get_links(html)]
    except Exception as e:
        print(‘Exception: %s %s‘ % (e, url))
        raise gen.Return([])

    raise gen.Return(urls)

def remove_fragment(url):
    pure_url, frag = urldefrag(url)
    return pure_url

def get_links(html):
    class URLSeeker(HTMLParser):
        def __init__(self):
            HTMLParser.__init__(self)
            self.urls = []

        def handle_starttag(self, tag, attrs):
            href = dict(attrs).get(‘href‘)
            if href and tag == ‘a‘:
                self.urls.append(href)

    url_seeker = URLSeeker()
    url_seeker.feed(html)
    return url_seeker.urls

@gen.coroutine
def main():
    q = queues.Queue()
    start = time.time()
    fetching, fetched = set(), set()

    @gen.coroutine
    def fetch_url():
        current_url = yield q.get()
        try:
            if current_url in fetching:
                return

            print(‘fetching %s‘ % current_url)
            fetching.add(current_url)
            urls = yield get_links_from_url(current_url)
            fetched.add(current_url)

            for new_url in urls:
                # Only follow links beneath the base URL
                if new_url.startswith(base_url):
                    yield q.put(new_url)

        finally:
            q.task_done()

    @gen.coroutine
    def worker():
        while True:
            yield fetch_url()

    q.put(base_url)

    # Start workers, then wait for the work queue to be empty.
    for _ in range(concurrency):
        worker()
    yield q.join(timeout=timedelta(seconds=300))
    assert fetching == fetched
    print(‘Done in %d seconds, fetched %s URLs.‘ % (
        time.time() - start, len(fetched)))

if __name__ == ‘__main__‘:
    import logging
    logging.basicConfig()
    io_loop = ioloop.IOLoop.current()
    io_loop.run_sync(main)

2.tornado的定时回调

from tornado import ioloop
import datetime

period = 5 * 1000  # every 5 s

def like_cron():
    print datetime.datetime.now()

def xiaorui():
    print ‘call xiaorui.cc 2s‘

def lee():
    print ‘call lee 3s‘

if __name__ == ‘__main__‘:
    ioloop.PeriodicCallback(like_cron, 3000).start()  # start scheduler
    # ioloop.PeriodicCallback(lee, 3000).start()
    ioloop.IOLoop.instance().start()
时间: 2024-10-12 18:15:32

一些爬虫中的snippet的相关文章

手把手教你写Sublime中的Snippet

手把手教你写Sublime中的Snippet Sublime Text号称最性感的编辑器, 并且越来越多人使用, 美观, 高效 关于如何使用Sublime text可以参考我的另一篇文章, 相信你会喜欢上的..Sublime Text 2使用心得 现在介绍一下Snippet, Snippets are smart templates that will insert text for you and adapt it to their context. Snippet 是插入到文本中的智能模板并

简易“线程池”在Python网络爬虫中的应用

一,我是如何使用Python抓取网页的 我知道Python有一个爬虫框架scrapy,但是目前还没有学习,并且也没有什么很棘手的的问题需要去使用一个爬虫框架,所以我就用Python自带的urllib,将目标网页爬下来,然后用正则过滤出自己需要的内容. 二,效率问题 上面的方法简单,真的是上手即用,但是问题是效率问题,如果一个网页一个网页的抓,显然带宽无法达到最高,浪费了大部分带宽,这时候大部分人都会想到,多线程啊! 对,但是我们大部分人又都会写出下面的代码 # 总任务数有500个 while i

python爬虫中图形验证码的处理

使用python爬虫自动登录时,遇到需要输入图形验证码的情况,一个比较简单的处理方法是使用打码平台识别验证码. 使用过两个打码平台,打码兔和若快,若快的价格更便宜,识别率相当.若快需要注册两个帐号:开发者帐号与用户帐号,用户帐号用于发送识别请求,开发者帐号可以注册软件id,并于识别请求进行绑定,可以参与识别收入的分成返现. 获取图形验证码目前发现的有两种方式: 0x01 在抓包中可以直接获得图片:发送get请求可以直接获取图片(png或jpg格式),这种情况可以使用request.get()返回

爬虫——爬虫中使用正则表达式

下面我们尝试爬取内涵段子网站:http://www.neihan8.com/article/list_5_1.html 打开之后,当你进行翻页的时候,不能注意到,url地址的变化: 第一页url: http: //www.neihan8.com/article/list_5_1 .html 第二页url: http: //www.neihan8.com/article/list_5_2 .html 第三页url: http: //www.neihan8.com/article/list_5_3

Scrapy爬虫中遇到问题"Filtered offsite request"

1."Filtered offsite request" 参考一份示例代码运行的时候发生该错误,一般来说原因应该是request的地址和allow_domain的地址相冲突,会被过滤掉,所以解决方法是修改代码: yield Request(url, callback=self.parse_item, dont_filter=True) 但是在我这里不知道为什么没有办法解决,在网上搜到了另一个方法,就是禁用中间件功能,在setting.py中添加: SPIDER_MIDDLEWARES

爬虫中urllib库

一.urllib库 urllib是Python自带的一个用于爬虫的库,其主要作用就是可以通过代码模拟浏览器发送请求.其常被用到的子模块在Python3中的为urllib.request和urllib.parse,在Python2中是urllib和urllib2. 一般是用urllib 库 爬取图片比较方便, requests 库 封装的比 urllib库好多了  二.由易到难的爬虫程序: 1.爬取百度首页面所有数据值 #!/usr/bin/env python # -*- coding:utf-

09 Scrapy框架在爬虫中的使用

一.简介 Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架.它集成高性能异步下载,队列,分布式,解析,持久化等. Scrapy 是基于twisted框架开发而来,twisted是一个流行的事件驱动的python网络框架.因此Scrapy使用了一种非阻塞(又名异步)的代码来实现并发.它是爬虫界最知名的框架.就好比web框架中的django.Scrapy之所以能实现异步,得益于twisted框架.twisted有事件队列,哪一个事件有活动,就会执行! 1. 安装 Linux:pip

Python多线程在爬虫中的应用

题记:作为测试工程师经常需要解决测试数据来源的问题,解决思路无非是三种:(1)直接从生产环境拷贝真实数据 (2)从互联网上爬取数据 (3)自己用脚本或者工具造数据.前段时间,为了获取更多的测试数据,笔者就做了一个从互联网上爬取数据的爬虫程序,虽然功能上基本满足项目的需求,但是爬取的效率还是不太高.作为一个精益求精的测试工程师,决定研究一下多线程在爬虫领域的应用,以提高爬虫的效率. 一.为什么需要多线程 凡事知其然也要知其所以然.在了解多线程的相关知识之前,我们先来看看为什么需要多线程.打个比方吧

python爬虫中涉及json数据的处理

在执行爬虫项目的过程中,有时返回的不是一个html页面而是json格式数据,此时对数据的解析非常重要. 1.Json格式数据的爬取   采用request对以上的url进行爬取: import  requests content=requests.get(url,headers=headers).content 在爬取的过程中,考虑到需要模拟真实的用户,因此需要添加cookie或者header参数. 2.对爬取的json格式数据的解析 数据已经爬取下来,存放在contend里面,接下来就是对数据