一个网络爬虫的分析

编译过程中要下载,没编译成功。

svn checkout http://py-leveldb.googlecode.com/svn/trunk/

svn co http://py-leveldb.googlecode.com/svn/trunk/ py-leveldb

重新找到安装包:

wget https://pypi.python.org/packages/source/l/leveldb/leveldb-0.193.tar.gz
tar -zxvf leveldb-0.193.tar.gz
cd leveldb-0.193
python setup.py build
sudo python setup.py install
安装成功

这个爬虫是从outofmemory看到的,只有100行,内容是抓取淘宝商品信息,包括商品名、卖家id、地区、价格等信息,json格式,作者说他曾经抓取到了一千万条信息。

出于对这个爬虫能力的感叹,我好奇的对它进行了分析,发现原理是如此的简单,感叹python的强大之余,好也把分析的心得记录一下,引为后来的经验。

现在这个爬虫能不能用就没有保证了,不过没有关系,只是作为一个学习的例子。

#-*- coding: UTF-8 -*-
import time
import leveldb
from urllib.parse import quote_plus
import re
import json
import itertools
import sys
import requests
from queue import Queue
from threading import Thread

URL_BASE = ‘http://s.m.taobao.com/search?q={}&n=200&m=api4h5&style=list&page={}‘

def url_get(url):
    # print(‘GET ‘ + url)
    header = dict()
    header[‘Accept‘] = ‘text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8‘
    header[‘Accept-Encoding‘] = ‘gzip,deflate,sdch‘
    header[‘Accept-Language‘] = ‘en-US,en;q=0.8‘
    header[‘Connection‘] = ‘keep-alive‘
    header[‘DNT‘] = ‘1‘
    #header[‘User-Agent‘] = ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/28.0.1500.71 Safari/537.36‘
    header[‘User-Agent‘] = ‘Mozilla/12.0 (compatible; MSIE 8.0; Windows NT)‘
    return requests.get(url, timeout = 5, headers = header).text

def item_thread(cate_queue, db_cate, db_item):
    while True:
        try:
            cate = cate_queue.get()
            post_exist = True
            try:
                state = db_cate.Get(cate.encode(‘utf-8‘))
                if state != b‘OK‘: post_exist = False
            except:
                post_exist = False
            if post_exist == True:
                print(‘cate-{}: {} already exists ... Ignore‘.format(cate, title))
                continue
            db_cate.Put(cate.encode(‘utf-8‘), b‘crawling‘)
            for item_page in itertools.count(1):
                url = URL_BASE.format(quote_plus(cate), item_page)
                for tr in range(5):
                    try:
                        items_obj = json.loads(url_get(url))
                        break
                    except KeyboardInterrupt:
                        quit()
                    except Exception as e:
                        if tr == 4: raise e
                if len(items_obj[‘listItem‘]) == 0: break
                for item in items_obj[‘listItem‘]:
                    item_obj = dict(
                        _id = int(item[‘itemNumId‘]),
                        name = item[‘name‘],
                        price = float(item[‘price‘]),
                        query = cate,
                        category = int(item[‘category‘]) if item[‘category‘] != ‘‘ else 0,
                        nick = item[‘nick‘],
                        area = item[‘area‘])
                    db_item.Put(str(item_obj[‘_id‘]).encode(‘utf-8‘),
                                json.dumps(item_obj, ensure_ascii = False).encode(‘utf-8‘))

                print(‘Get {} items from {}: {}‘.format(len(items_obj[‘listItem‘]), cate, item_page))

                if ‘nav‘ in items_obj:
                    for na in items_obj[‘nav‘][‘navCatList‘]:
                        try:
                            db_cate.Get(na[‘name‘].encode(‘utf-8‘))
                        except:
                            db_cate.Put(na[‘name‘].encode(‘utf-8‘), b‘waiting‘)
            db_cate.Put(cate.encode(‘utf-8‘), b‘OK‘)
            print(cate, ‘OK‘)
        except KeyboardInterrupt:
            break
        except Exception as e:
            print(‘An {} exception occured‘.format(e))

def cate_thread(cate_queue, db_cate):
    while True:
        try:
            for key, value in db_cate.RangeIter():
                if value != b‘OK‘:
                    print(‘CateThread: put {} into queue‘.format(key.decode(‘utf-8‘)))
                    cate_queue.put(key.decode(‘utf-8‘))
            time.sleep(10)
        except KeyboardInterrupt:
            break
        except Exception as e:
            print(‘CateThread: {}‘.format(e))

if __name__ == ‘__main__‘:
    db_cate = leveldb.LevelDB(‘./taobao-cate‘)
    db_item = leveldb.LevelDB(‘./taobao-item‘)

    orig_cate = ‘正装‘.encode(‘gb2312‘)
    try:
        db_cate.Get(orig_cate.encode(‘utf-8‘))
    except:
        db_cate.Put(orig_cate.encode(‘utf-8‘), b‘waiting‘)
    cate_queue = Queue(maxsize = 1000)
    cate_th = Thread(target = cate_thread, args = (cate_queue, db_cate))
    cate_th.start()
    item_th = [Thread(target = item_thread, args = (cate_queue, db_cate, db_item)) for _ in range(5)]
    for item_t in item_th:
        item_t.start()
    cate_th.join()

分析

一个只有一百行的代码,也不用花太多心思就可以看懂了,不过其中一些有意思的心得还是可以分享下。

  1. 使用vim打开,在使用了fold功能后,可以清晰的看到代码由import部分,三个自定义函数和一个main了,所以可以直接从main开始看。
  2. main建立(也可以是已经建立的)了两个数据库,分别是db_catedb_item,还定义了开始时抓取的商品种类(category)orig_cate
  3. 先在db_cate中尝试访问下orig_cate,如果没有这个种类,就加入这个种类,属性设置为waitingleveldb就是一个key-value数据库,使用起来非常的方便。
  4. 建立一个种类的队列cate_queue,然后就建立一个种类的线程cate_th,会调用自己定义的一个函数cate_thread,参数是队列和种类数据库。
  5. 再建立5个线程item_th,调用定义的item_thread函数参数是队列和两个数据库。
  6. 最后会等待线程终止后退出。
  7. 这时就可以看前面的定义的函数cate_thread,这个函数会重复从种类数据库cate_db中遍历取出种类名,然后看这个种类是不是已经抓取过了,如果没有,就加入到种类队列cate_queue
  8. 再看函数item_thead,从种类队列cate_queue中取出一个种类,再从种类数据库中查看其状态,如果是ok,就取下一个种类;如果不是ok,就标记为crawling,然后就使用这个类别和一个遍历的序号就可以获得一个网址,然后就重复的尝试获取这个页面的数据,再分析,保存到item_db中,再把种类在cate_db中标记为ok,也就是完成,同时,把页面有的种类信息放到cate_db数据库中。
  9. 这样这个爬虫就可以一直工作了。

总结

这个爬虫的结构很清晰,一个数据库用来保存种类的状态信息,一个数据库保存获取到的信息,一个队列作为进程间通信的工具,数据库使用key-value,网页抓取使用requests。参考这个结构,很多爬虫都可以写出来了。

时间: 2024-10-29 19:10:29

一个网络爬虫的分析的相关文章

10- python 网络爬虫分析

Python 网络爬虫简单分析 1 import urllib2 2 response = urllib2.urlopen("http://www.baidu.com") 3 print response.read() 我们下面开始分析代码 response = urllib2.urlopen("http://www.baidu.com") 这里我们利用的是urllib2库中的urlopen方法,这里可以知道这是一个http协议的网址,urlopen一般接受三个参数

网络爬虫

网络爬虫 概述 这是一个网络爬虫学习的技术分享,主要通过一些实际的案例对爬虫的原理进行分析,达到对爬虫有个基本的认识,并且能够根据自己的需要爬到想要的数据.有了数据后可以做数据分析或者通过其他方式重新结构化展示. 什么是网络爬虫 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本.另外一些不常使用的名字还有蚂蚁.自动索引.模拟程序或者蠕虫.via 百度百科网络爬虫网络蜘蛛(Web spider)也叫网络爬

初步认识网络爬虫

无论你是由于什么原因想做一个网络爬虫,首先做的第一件事情就是要了解它. 在了解网络爬虫之前一定要牢记以下4个要点,这是做网络爬虫的基础: 1.抓取 py的urllib不一定去用,但是要学,如果你还没用过的话.比较好的替代品有requests等第三方更人性化.成熟的库,如果pyer不了解各种库,那就白学了.抓取最基本就是拉网页回来. 如果深入做下去,你会发现要面对不同的网页要求,比如有认证的,不同文件格式.编码处理,各种奇怪的url合规化处理.重复抓取问题.cookies跟随问题.多线程多进程抓取

爬虫学习之一个简单的网络爬虫

这是一个网络爬虫学习的技术分享,主要通过一些实际的案例对爬虫的原理进行分析,达到对爬虫有个基本的认识,并且能够根据自己的需要爬到想要的数据.有了数据后可以做数据分析或者通过其他方式重新结构化展示. 什么是网络爬虫 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本.另外一些不常使用的名字还有蚂蚁.自动索引.模拟程序或者蠕虫.via 百度百科网络爬虫 网络蜘蛛(Web spider)也叫网络爬虫(Web c

JAVA多线程网络爬虫的代码实现

因为项目需要,做了一个网络爬虫的小DEMO. 为实现高性能的网络爬虫,首先考虑采用APACE的HttpClient进行页面的采集和解析,HttpClient可以很方便的通过URL获得远程内容,例如一个小程序:     CloseableHttpClienthttp client = HttpClients.createDefault();     HttpGet httpget = newHttpGet("http://localhost/");     CloseableHttpRe

Python网络爬虫(一):初步认识网络爬虫

无论你是由于什么原因想做一个网络爬虫,首先做的第一件事情就是要了解它. 在了解网络爬虫之前一定要牢记以下4个要点,这是做网络爬虫的基础: 1.抓取 py的urllib不一定去用,但是要学,如果你还没用过的话.比较好的替代品有requests等第三方更人性化.成熟的库,如果pyer不了解各种库,那就白学了.抓取最基本就是拉网页回来. 如果深入做下去,你会发现要面对不同的网页要求,比如有认证的,不同文件格式.编码处理,各种奇怪的url合规化处理.重复抓取问题.cookies跟随问题.多线程多进程抓取

nutch从搜索引擎到网络爬虫

人物介绍 姓名:DougCutting 个人名望:开发出开源全文检索引擎工具包Lucene. 个人简介/主要荣誉:除了 Lucene,还开发了著名的网络爬虫工具 Nutch,分布式系统基础架构Hadoop,这些大师级作品都是开源的.目前任职 Apache 软件基金会主席. 网络上对 Doug Cutting 的评价:“他开发出卓越超群的全文检索引擎工具包(Lucene/Solr)以及为世界打开了一扇通往大数据的大门.”“开源的Lucene 以及 Hadoop 为全球创造了无数的财富以及就业机会.

如何用SHELL写好网络爬虫

上周,老大压下来任务,让写一个网络爬虫,负责爬某一个行业网站的数据信息.由于本人只会 shell 编程语言,其它编程语言从未涉猎,因此就只能硬着头皮用 shell 去写了. 转眼之前已经过去一周了,一切从无到有,经历的坎坷无数,这里我就不一一吐槽. 这里呢,我就简单和大家分享下,我个人对,如何用 shell 去写好网络爬虫的几点拙见,希望有想法的朋友联系我一起交流交流想法,没有想法的就看看有精华就吸收走,有糟粕的果断弃之. 1.你肯定要简单了解下网络爬虫是什么!这个定义在谷歌一搜一大堆,这里我就

【转】44款Java 网络爬虫开源软件

原帖地址 http://www.oschina.net/project/lang/19?tag=64&sort=time 极简网络爬虫组件 WebFetch WebFetch 是无依赖极简网页爬取组件,能在移动设备上运行的微型爬虫. WebFetch 要达到的目标: 没有第三方依赖jar包 减少内存使用 提高CPU利用率 加快网络爬取速度 简洁明了的api接口 能在Android设备上稳定运行 小巧灵活可以方便集成的网页抓取组件 使用...更多WebFetch信息 开源爬虫框架 Guozhong