Python网页信息采集:使用PhantomJS采集淘宝天猫商品内容

1,引言

最近一直在看Scrapy 爬虫框架,并尝试使用Scrapy框架写一个可以实现网页信息采集的简单的小程序。尝试过程中遇到了很多小问题,希望大家多多指教。

本文主要介绍如何使用Scrapy结合PhantomJS采集天猫商品内容,文中自定义了一个DOWNLOADER_MIDDLEWARES,用来采集需要加载js的动态网页内容。看了很多介绍DOWNLOADER_MIDDLEWARES资料,总结来说就是使用简单,但会阻塞框架,所以性能方面不佳。一些资料中提到了自定义DOWNLOADER_HANDLER或使用scrapyjs可以解决阻塞框架的问题,有兴趣的小伙伴可以去研究一下,这里就不多说了。

2,具体实现

2.1,环境需求

需要执行以下步骤,准备Python开发和运行环境:

  • Python--官网下载安装并部署好环境变量 (本文使用Python版本为3.5.1)
  • lxml-- 官网库下载对应版本的.whl文件,然后命令行界面执行 "pip install .whl文件路径"
  • Scrapy--命令行界面执行 "pip install Scrapy",详细请参考《Scrapy的第一次运行测试》
  • selenium--命令行界面执行 "pip install selenium"
  • PhantomJS -- 官网下载

上述步骤展示了两种安装:1,安装下载到本地的wheel包;2,用Python安装管理器执行远程下载和安装。注:包的版本需要和python版本配套

2.2,开发和测试过程

首先找到需要采集的网页,这里简单找了一个天猫商品,网址https://world.tmall.com/item/526449276263.htm, 页面如下:

然后开始编写代码,以下代码默认都是在命令行界面执行

1),创建scrapy爬虫项目tmSpider

E:\python-3.5.1>scrapy startproject tmSpider

2),修改settings.py配置

  • 更改ROBOTSTXT_OBEY的值为False;
  • 关闭scrapy默认的下载器中间件;
  • 加入自定义DOWNLOADER_MIDDLEWARES。

配置如下:

DOWNLOADER_MIDDLEWARES = {
    ‘tmSpider.middlewares.middleware.CustomMiddlewares‘: 543,
    ‘scrapy.contrib.downloadermiddleware.useragent.UserAgentMiddleware‘: None
}

3),在项目目录下创建middlewares文件夹,然后在文件夹下创建middleware.py文件,代码如下:

# -*- coding: utf-8 -*-

from scrapy.exceptions import IgnoreRequest
from scrapy.http import HtmlResponse, Response

import tmSpider.middlewares.downloader as downloader

class CustomMiddlewares(object):
    def process_request(self, request, spider):
        url = str(request.url)
        dl = downloader.CustomDownloader()
        content = dl.VisitPersonPage(url)
        return HtmlResponse(url, status = 200, body = content)

    def process_response(self, request, response, spider):
        if len(response.body) == 100:
            return IgnoreRequest("body length == 100")
        else:
            return response

4),使用selenium和PhantomJS写一个网页内容下载器,同样在上一步创建好的middlewares文件夹中创建downloader.py文件,代码如下:

# -*- coding: utf-8 -*-
import time
from scrapy.exceptions import IgnoreRequest
from scrapy.http import HtmlResponse, Response
from selenium import webdriver
import selenium.webdriver.support.ui as ui 

class CustomDownloader(object):
    def __init__(self):
        # use any browser you wish
        cap = webdriver.DesiredCapabilities.PHANTOMJS
        cap["phantomjs.page.settings.resourceTimeout"] = 1000
        cap["phantomjs.page.settings.loadImages"] = True
        cap["phantomjs.page.settings.disk-cache"] = True
        cap["phantomjs.page.customHeaders.Cookie"] = ‘SINAGLOBAL=3955422793326.2764.1451802953297; ‘
        self.driver = webdriver.PhantomJS(executable_path=‘F:/phantomjs/bin/phantomjs.exe‘, desired_capabilities=cap)
        wait = ui.WebDriverWait(self.driver,10)

    def VisitPersonPage(self, url):
        print(‘正在加载网站.....‘)
        self.driver.get(url)
        time.sleep(1)
        # 翻到底,详情加载
        js="var q=document.documentElement.scrollTop=10000"
        self.driver.execute_script(js)
        time.sleep(5)
        content = self.driver.page_source.encode(‘gbk‘, ‘ignore‘)
        print(‘网页加载完毕.....‘)
        return content

    def __del__(self):
        self.driver.quit()

5) 创建爬虫模块

在项目目录E:\python-3.5.1\tmSpider,执行如下代码:

E:\python-3.5.1\tmSpider>scrapy genspider tmall ‘tmall.com‘

执行后,项目目录E:\python-3.5.1\tmSpider\tmSpider\spiders下会自动生成tmall.py程序文件。该程序中parse函数处理scrapy下载器返回的网页内容,采集网页信息的方法可以是:

  • 使用xpath或正则方式从response.body中采集所需字段,
  • 通过gooseeker api获取的内容提取器实现一站转换所有字段,而且不用手工编写转换用的xpath(如何获取内容提取器请参考python使用xslt提取网页数据),代码如下:
# -*- coding: utf-8 -*-
import time
import scrapy

import tmSpider.gooseeker.gsextractor as gsextractor

class TmallSpider(scrapy.Spider):
    name = "tmall"
    allowed_domains = ["tmall.com"]
    start_urls = (
        ‘https://world.tmall.com/item/526449276263.htm‘,
    )

    # 获得当前时间戳
    def getTime(self):
        current_time = str(time.time())
        m = current_time.find(‘.‘)
        current_time = current_time[0:m]
        return current_time

    def parse(self, response):
        html = response.body
        print("----------------------------------------------------------------------------")
        extra=gsextractor.GsExtractor()
        extra.setXsltFromAPI("0a3898683f265e7b28991e0615228baa", "淘宝天猫_商品详情30474","tmall","list")

        result = extra.extract(html)
        print(str(result).encode(‘gbk‘, ‘ignore‘).decode(‘gbk‘))
        #file_name = ‘F:/temp/淘宝天猫_商品详情30474_‘ + self.getTime() + ‘.xml‘
        #open(file_name,"wb").write(result)

6),启动爬虫

在E:\python-3.5.1\tmSpider项目目录下执行命令

E:\python-3.5.1\simpleSpider>scrapy crawl tmall

输出结果:

提一下,上述命令只能一次启动一个爬虫,如果想同时启动多个呢?那就需要自定义一个爬虫启动模块了,在spiders下创建模块文件runcrawl.py,代码如下

# -*- coding: utf-8 -*-

import scrapy
from twisted.internet import reactor
from scrapy.crawler import CrawlerRunner

from tmall import TmallSpider
...
spider = TmallSpider(domain=‘tmall.com‘)
runner = CrawlerRunner()
runner.crawl(spider)
...
d = runner.join()
d.addBoth(lambda _: reactor.stop())
reactor.run()

执行runcrawl.py文件,输出结果:

3,展望

以自定义DOWNLOADER_MIDDLEWARES调用PhantomJs的方式实现爬虫后,在阻塞框架的问题上纠结了很长的时间,一直在想解决的方式。后续会研究一下scrapyjs,splash等其他调用浏览器的方式看是否能有效的解决这个问题。

4,相关文档

1, Python即时网络爬虫:API说明

5,集搜客GooSeeker开源代码下载源

1, GooSeeker开源Python网络爬虫GitHub源

6,文档修改历史

1,2016-07-06:V1.0

时间: 2024-10-16 22:19:23

Python网页信息采集:使用PhantomJS采集淘宝天猫商品内容的相关文章

Python3中级玩家:淘宝天猫商品搜索爬虫自动化工具(第一篇)

Python3中级玩家:淘宝天猫商品搜索爬虫自动化工具(第一篇) 一.前言 大家好,今天我要来讲讲一个比较实用的爬虫工具,抓取淘宝的关键字商品信息,即是: 输入关键字,按照价格等排序,抓取列出的商品信息以及下载图片,并且支持导出为Excel. 如果如下: 看完下面的讲解,Python语言就掌握得差不多,中级水平了,而且这个封装后的工具还是很好用的. 感觉自己萌萌哒~~ 二.原理 大家知道什么叫爬虫,它也叫网络蜘蛛,机器人等,意思就是说自动的程序,可以去抓取使用网络协议传输的内容. 目前来讲爬虫主

gui采集淘宝列表商品[后期有空更新采集各大电商平台]

import requestsfrom pymysql import *from tkinter import * window = Tk()window.title("淘宝列表商品采集")window.geometry('200x180') Label(window, text='关键字采集').pack()name = StringVar()Entry(window, textvariable=name).pack() Label(window, text='采集起始页').pac

利用nodejs+phantomjs+casperjs采集淘宝商品的价格

因为一些业务需求需要采集淘宝店铺商品的销售价格,但是淘宝详情页面的价格显示是通过js动态调用显示的.所以就没法通过普通的获取页面html然后通过正则或者xpath的方式获取到想到的信息了. 所幸我们现在有了casperjs.这个是一个基于Phantomjs的库,而Phantomjs则是一个服务器端的js api的webkit浏览器.是不是很神奇?真的是.net的以外的世界很神奇,我们要多走去看看. 好了,现在废话不多说,开始切入正题. 首先就是就是几个相关库的安装.安装过程很简单,相关内容大家百

Mac 无法打开淘宝,天猫,京东等

我的Mac Pro是新本,一直打不开淘宝,天猫,京东等购物网站,查了一下是DNS的问题,我把原有的DNS改成114.114.114.114,然后打开以上网页的速度就飞起来了. 修改DNS的步骤如下: 1.打开"系统偏好设置" 2.点击"网络" 3.点击"高级" 4.按照以下序号进行操作: 1.点击标号1位置DNS,如果3区域有内容,则全部选中然后点击标号2旁边的"-"(减号)删除 2.如果标号3区域无内容则直接点击"

手把手教你写电商爬虫-第四课 淘宝网商品爬虫自动JS渲染

系列教程: 手把手教你写电商爬虫-第一课 找个软柿子捏捏 手把手教你写电商爬虫-第二课 实战尚妆网分页商品采集爬虫 手把手教你写电商爬虫-第三课 实战尚妆网AJAX请求处理和内容提取 老规矩,爬之前首先感谢淘宝公布出这么多有价值的数据,才让我们这些爬虫们有东西可以搜集啊,不过淘宝就不用我来安利了 广大剁手党相信睡觉的时候都能把网址打出来吧. 工欲善其事,必先利其器,先上工具: 1.神箭手云爬虫,2.Chrome浏览器 3.Chrome的插件XpathHelper 不知道是干嘛的同学请移步第一课

淘宝天猫关键词SEO优化

淘宝天猫的网站完全像是一个成熟的搜索引擎,只是从google.bing.baidu改成了淘宝天猫而已,普通搜索引擎有品专,有皇冠,有PC,有无线:淘宝天猫里面有钻展,有直通车,也有PC,无线.搜索引擎是依靠竞价和热度来排名的,但是淘宝天猫却是完全依靠热度在排名,打开淘宝天猫的页面可以看到: 商品根据搜索关键词来进行展现,但是排序方式有这几种: 1.综合排序 2.人气排序 3.销量排序 4.信用排序 5.价格排序 系统默认的排序是综合排序,在其他情况不变的情况下,怎么通过优化关键词来将排名靠前呢?

@半条_虫 淘宝天猫自动批量打旗帜插件,精准打旗解放双手

/* * * 淘宝天猫批量打旗帜工具 Beta 1.0.0.0 * Release date: * Author : 半条虫(466814195) * Keywords : Etsoftware 半条虫(466814195) rimke 39doo 39度 * Description : 本脚本功能由EtSoftWare团队研发,仅供学习不得用于商业用途. * Blog : http://rimke.blog.163.com/ * Website : http://www.39doo.com/

淘宝优惠券是真的吗?教你怎么领取淘宝天猫内部优惠券

先领券,再下单.省钱不止一点点!  你购物,我掏钱.天猫淘宝任你选!  荐好友,领佣金.你省我省大家省!  一路省到底,微信号:vv33487 天猫购物券免费领取_什么是淘宝购物津贴 不用下载 APP,不用验证激活码很多人由于对淘宝优惠券不了解,对于刚接触淘宝优惠券的人来说,问这个问题是正常的.以上是针对天猫购物券免费领取_什么是淘宝购物津贴详细介绍 以前我也加了很多优惠券群,再里面也领过很多淘宝优惠券,还逛过"什么值得买" 逛丢”等这样购物资讯网站,也为自己家里增添了很多实用的小宝贝

淘宝APP商品搜索API提取

@TOC 淘宝APP商品搜索API提取 业务部门反馈PC和WAP版的协议有访问频次限制,经测试APP端基本可以满足,因此,今天我们开始提取相应API. 流程 抓包:经过分析得知,此处为搜索相应接口 分别分析请求头及参数,分别封装成类: 请求头 @Data @Builder @NoArgsConstructor @AllArgsConstructor public class TaobaoHttpHeader { @Builder.Default private String utdid = Ra