爬虫:Scrapy2 - Items

Item 对象是种简单的容器,保存了爬取到得数据。其提供了类似于词典(dictionary-like)的API以及用于声明可用字段的简单语法。

声明Item

import scrapy

class Product(scrapy.Item):
    name = scrapy.Field()
    price = scrapy.Field()
    stock = scrapy.Field()
    last_updated = scrapy.Field(serializer=str)

注:与 Django Models 很类似,不过没有那么多不同的字段类型(Field type)。

Item字段(Item Fields)

Field 对象指明了每个字段的元数据(metadata)。例如上面例子中 last_updated 中指明了该字段的序列化函数。

可以为每个字段指明任何类型的元数据。

创建item

>>> product = Product(name=‘Desktop PC‘, price=1000)
>>> print product
Product(name=‘Desktop PC‘, price=1000)

获取字段的值

>>> product[‘name‘]
Desktop PC
>>> product.get(‘name‘)
Desktop PC

>>> product[‘price‘]
1000

>>> product[‘last_updated‘]
Traceback (most recent call last):
    ...
KeyError: ‘last_updated‘

>>> product.get(‘last_updated‘, ‘not set‘)
not set

>>> product[‘lala‘] # getting unknown field
Traceback (most recent call last):
    ...
KeyError: ‘lala‘

>>> product.get(‘lala‘, ‘unknown field‘)
‘unknown field‘

>>> ‘name‘ in product  # is name field populated?
True

>>> ‘last_updated‘ in product  # is last_updated populated?
False

>>> ‘last_updated‘ in product.fields  # is last_updated a declared field?
True

>>> ‘lala‘ in product.fields  # is lala a declared field?
False

设置字段的值

>>> product[‘last_updated‘] = ‘today‘
>>> product[‘last_updated‘]
today

>>> product[‘lala‘] = ‘test‘ # setting unknown field
Traceback (most recent call last):
    ...
KeyError: ‘Product does not support field: lala‘

获取所有获取到的值

>>> product.keys()
[‘price‘, ‘name‘]

>>> product.items()
[(‘price‘, 1000), (‘name‘, ‘Desktop PC‘)]

赋值item

>>> product2 = Product(product)
>>> print product2
Product(name=‘Desktop PC‘, price=1000)

>>> product3 = product2.copy()
>>> print product3
Product(name=‘Desktop PC‘, price=1000)

根据item创建字典(dict)

>>> dict(product) # create a dict from all populated values
{‘price‘: 1000, ‘name‘: ‘Desktop PC‘}

根据字典(dict)创建item

>>> Product({‘name‘: ‘Laptop PC‘, ‘price‘: 1500})
Product(price=1500, name=‘Laptop PC‘)

>>> Product({‘name‘: ‘Laptop PC‘, ‘lala‘: 1500}) # warning: unknown field in dict
Traceback (most recent call last):
    ...
KeyError: ‘Product does not support field: lala‘

扩展Item

可以通过继承原始的 Item 来扩展 item(添加更多的字段或者修改某些字段的元数据)。

class DiscountedProduct(Product):
    discount_percent = scrapy.Field(serializer=str)
    discount_expiration_date = scrapy.Field()

也可以通过使用原字段的元数据,添加新的值或修改原来的值来扩展字段的元数据:

class SpecificProduct(Product):
    name = scrapy.Field(Product.fields[‘name‘], serializer=my_serializer)

这段代码在保留所有原来的元数据值的情况下添加(或者覆盖)了 name 字段的 serializer。

Item对象

class scrapy.item.Item([arg])

返回一个根据给定的参数可选初始化的 item。

Item复制了标准的 dict API。包括初始化函数也相同。Item 唯一额外添加的属性是:

fields

一个包含了 item 所有声明的字段的字典,而不仅仅是获取到的字段。该字典的 key 是字段(field)的名字,值是 Item 声明中使用到的 Field 对象。

字段(Field)对象

class scrapy.item.Field([arg])

Field 仅仅是内置的 dict 类的一个别名,并没有提供额外的方法或者属性。换句话说,Field 对象完完全全就是 Python 字典(dict)。被用来基于类属性(class attribute)的方法来支持 item 声明语法。

时间: 2024-11-07 09:07:15

爬虫:Scrapy2 - Items的相关文章

scrapy增量式爬虫

命令: 1.创建scrapy工程:scrapy startproject projectName 2.创建爬虫文件:scrapy genspider -t crawl spiderName www.xxx.com 指令多了 "-t crawl",表示创建的爬虫文件是基于CrawlSpider这个类的,而不再是Spider这个基类. 3.运行 scrapy crawl spider2 spider.py 用hashlib来制作哈希值来放在Redis中, 可以减少放在Redis中的为了校验

爬虫框架Scrapy之手机抓包案例

手机App抓包爬虫 1. items.py class DouyuspiderItem(scrapy.Item): name = scrapy.Field()# 存储照片的名字 imagesUrls = scrapy.Field()# 照片的url路径 imagesPath = scrapy.Field()# 照片保存在本地的路径 2. spiders/douyu.py import scrapy import json from douyuSpider.items import Douyusp

【Scrapy框架基于scrapy-redis实现分布式爬虫】 򓮘

原文: http://blog.gqylpy.com/gqy/370 "Scrapy框架无法自己实现分布式,原因有二 多台机器上部署的Scrapy各自拥有各自的调度器,这样就使得多台机器无法分配 start_urls 列表中的url,即多台机器无法共享同一个调度器. 多台机器爬取到的数据无法通过同一个管道进行统一的持久化存储,即多台机器无法共享同一个管道. ___ 基于 scrapy-redis 组件的分布式爬虫 安装 :pip install scrapy-redis scrapy-redis

11-scrapy(递归解析,post请求,日志等级,请求传参)

一.递归解析: 需求:将投诉_阳光热线问政平台中的投诉标题和状态网友以及时间爬取下来永久储存在数据库中 url:http://wz.sun0769.com/index.php/question/questionType?type=4&page= 需求分析:每一个页面对应的是一个url,scrapy框架发起请求对一个url进行解析,解析完后又对另一个url发起请求进行解析. 实现方案: 1.可以将每一个页面的url放在爬虫程序中的start_urls中请求.(不推荐,累死人) 2.另一种请求使用R

scrapy爬虫实例w3school报错ImportError: No module named w3school.items

爬虫例程就不整个叙述了,百度一下超多的,贴上一篇经过验证可以爬取的例程的网址 http://blog.csdn.net/u012150179/article/details/32911511 下面是我在运行时中出现的错误 错误ImportError: No module named w3school.items 相应的错误的代码是 from w3school.items import W3SchoolItem 好坑啊,刚开始就觉得这个错误简直莫名其妙,在网上也看了很多都没解决,后来... 将it

一篇文章教会你理解和定义Scrapy爬虫框架中items.py文件

在前面几篇文章中我们已经学会了如何了编写Spider去获取网页上所有的文章链接及其对应的网页目标信息.在这篇文章中,我们将主要介绍Scrapy中的Item. 在介绍Item之前,我们需要知道明确一点,网络爬虫的主要目标就是需要从非结构化的数据源中提取出结构化的数据,在提取出结构化的数据之后,怎么将这些数据进行返回呢?最简单的一种方式就是将这些字段放到一个字典当中来,然后通过字典返回给Scrapy.虽然字典很好用,但是字典缺少一些结构性的东西,比方说我们容易敲错字段的名字,容易导致出错,比方说我们

Python爬虫从入门到放弃(十一)之 Scrapy框架整体的一个了解

这里是通过爬取伯乐在线的全部文章为例子,让自己先对scrapy进行一个整理的理解 该例子中的详细代码会放到我的github地址:https://github.com/pythonsite/spider/tree/master/jobboleSpider 注:这个文章并不会对详细的用法进行讲解,是为了让对scrapy各个功能有个了解,建立整体的印象. 在学习Scrapy框架之前,我们先通过一个实际的爬虫例子来理解,后面我们会对每个功能进行详细的理解.这里的例子是爬取http://blog.jobb

Python爬虫库Scrapy入门1--爬取当当网商品数据

1.关于scrapy库的介绍,可以查看其官方文档:http://scrapy-chs.readthedocs.io/zh_CN/latest/ 2.安装:pip install scrapy  注意这个库的运行需要pywin32的支持,因此还需要安装pywin32.可以在这个网站上选择合适的版本下载安装:https://sourceforge.net/projects/pywin32/files/pywin32/ 3.挖掘当当网商品数据: 首先需要创建一个名为dangdang的爬虫项目,在pow

python网络爬虫学习(六)利用Pyspider+Phantomjs爬取淘宝模特图片

本篇博文在编写时参考了http://cuiqingcai.com/2652.html,向作者表示感谢 一.新的问题与工具 平时在淘宝上剁手的时候,总是会看到各种各样的模特.由于自己就读于一所男女比例三比一的工科院校--写代码之余看看美女也是极好的放松方式.但一张一张点右键–另存为又显得太过麻烦而且不切实际,毕竟图片太多了.于是,我开始考虑用万能的python来解决问题. 我们先看看淘女郎页面的URL,https://mm.taobao.com/json/request_top_list.htm?