Scrapy爬取美女图片第三集 代理ip(下)

  这是我的公众号获取原创保护的首篇文章,原创的肯定将支持我继续前行。现在写这篇文章的时间是晚上11:30,写完就回寝室休息了,希望更多的朋友与我一起同行(当然需要一个善良的妹子的救济)。

好了,废话不多说,咱们进入今天的主题。上一篇咱们讲解了代理ip上篇,本篇咱们继续讲解代理ip。这一篇是上一篇的扩展和优化,主要的改动是使用scrapy来进行爬取代理ip,同时演示在scrapy框架中怎么使用mongodb数据库,最后使用多线程批量验证代理ip的合理性,大大加快了速度。

  这次我选择的依然是http://www.xicidaili.com/nn/,我之后打算做一个大的代理ip池,方便之后做分布式爬虫。

  使用firebug审查元素,查看如何解析html,上一篇我已经讲过了,所以就不详细说了,大家不明白的可以看看代理ip上篇。

下面咱们可以写代码了,由于咱们使用的是scrapy框架进行爬取,所以首先先生成scrapy工程,在cmd中 输入scrapy startproject proxySpider_scrapy,然后使用pycharm打开。

工程结构如下:

  db包中db_helper:实现的是mongodb的增删改查。和代理ip上篇增加了proxyId字段。

  detect包中 detect_proxy:验证代理ip的可用性的线程

  detect_manager: 用来管理验证线程,监控线程状态

  spiders包中 proxySpider:主要实现爬虫的逻辑和html解析

  items:主要是描述了ip和port

  pipelines:里面主要是将爬取到的ip和port存储到数据库中

  main:主要是完成参数的判断和爬虫的启动(咱们使用脚本来启动爬虫不使用命令行)

还要说一下检测:我是用 http://ip.chinaz.com/getip.aspx作为检测网址,只要使用代理访问不超时,而且响应码为200,咱们就认为是成功的代理。

  接下来运行程序看看效果:

  在windows下切换到工程目录,运行python main.py -h,会看到我定义的使用说明和参数设置。和上一篇基本上完全一样。

  接着运行python main.py -c 1 5  (意思是爬取1-5页的ip地址):

  这时候如果想验证ip的正确性:运行python main.py -t db

  使用多线程验证的速度非常快,我设置了5个线程。两分钟不到,就验证结束。124个ip是可以使用的。

  看一下mongodb数据库:

  大家注意到那个proxyId字段了吗?这个在我们进行多线程分段验证的时候是很有用的。详细的使用,请看代码。

当咱们下一篇讲解突破反爬虫的时候就可以使用这些ip了。

 下面把解析和验证的代码贴一下:

proxySpider.py:
#coding:utf-8
import scrapy
from proxySpider_scrapy.db.db_helper import DB_Helper
from proxySpider_scrapy.detect.detect_proxy import Detect_Proxy
from proxySpider_scrapy.detect.detect_manager import Detect_Manager
from proxySpider_scrapy.items import ProxyItem

‘‘‘
这个类的作用是将代理数据进行爬取
‘‘‘
class ProxySpider(scrapy.Spider):
    name = ‘proxy‘
    start_urls = ["http://www.xicidaili.com/nn/"]
    allowed_domains = []
    db_helper = DB_Helper()
    detecter = Detect_Manager(5)
    Page_Start = 1
    Page_End = 4
    headers = {
         ‘Accept‘: ‘text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8‘,
        ‘Accept-Language‘: ‘en‘,
        ‘Referer‘:‘http://www.xicidaili.com/‘
    }

    def parse(self, response):
        ‘‘‘
        解析出其中的ip和端口
        :param response:
        :return:
        ‘‘‘
        trs = response.xpath(‘//tr[@class="odd" or @class=""]‘)
        for tr in trs:
            item = ProxyItem()
            tds = tr.xpath(‘./td/text()‘).extract()
            for td in tds:
                content = td.strip()
                if len(content)>0:
                    if content.isdigit():
                        item[‘port‘] = content
                        print ‘ip:‘,item[‘ip‘]
                        print ‘port:‘,item[‘port‘]
                        break
                    if content.find(‘.‘)!= -1:
                        item[‘ip‘] = content

            yield item
        if self.Page_Start < self.Page_End:
            new_url = self.start_urls[0]+str(self.Page_Start)
            self.Page_Start += 1
            yield scrapy.Request(new_url,headers=self.headers,callback=self.parse)

  

pipelines.py:
# -*- coding: utf-8 -*-

# Define your item pipelines here
#
# Don‘t forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html

from proxySpider_scrapy.spiders.proxySpider import ProxySpider

class ProxyPipeline(object):
    proxyId = 1 #设置一个ID号,方便多线程验证
    def process_item(self, item, spider):
        ‘‘‘

        :param item:
        :param spider:
        :return:
        ‘‘‘
        if spider.name == ‘proxy‘:#需要判断是哪个爬虫

            proxySpider = ProxySpider(spider)
            proxy = {‘ip‘:item[‘ip‘],‘port‘:item[‘port‘]}
            proxy_all = {‘ip‘:item[‘ip‘],‘port‘:item[‘port‘],‘proxyId‘:self.proxyId}
            if proxySpider.db_helper.insert(proxy,proxy_all) == True:#插入数据
                 self.proxyId += 1
            return item

        else:
            return item

  

detect_manager.py:
#coding:utf-8
from threading import Thread
import time

from proxySpider_scrapy.db.db_helper import DB_Helper
from proxySpider_scrapy.detect.detect_proxy import Detect_Proxy

‘‘‘
定义一个管理线程,来管理产生的线程
‘‘‘
class Detect_Manager(Thread):

    def __init__(self,threadSum):
        Thread.__init__(self)
        sqldb = DB_Helper()#将序号重新恢复
        sqldb.updateID()
        self.pool =[]
        for i in range(threadSum):
            self.pool.append(Detect_Proxy(DB_Helper(),i+1,threadSum))

    def run(self):
        self.startManager()
        self.checkState()

    def startManager(self):
        for thread in self.pool:
            thread.start()

    def checkState(self):
        ‘‘‘
        这个函数是用来检测线程的状态
        :return:
        ‘‘‘
        now = 0
        while now < len(self.pool):
            for thread in self.pool:
                if thread.isAlive():
                    now = 0
                    break
                else:
                    now+=1
            time.sleep(0.1)
        goodNum=0
        badNum =0
        for i in self.pool:

            goodNum += i.goodNum
            badNum += i.badNum
        sqldb = DB_Helper()#将序号重新恢复
        sqldb.updateID()
        print ‘proxy good Num ---‘,goodNum
        print ‘proxy bad Num ---‘,badNum

  

detect_proxy.py:
#coding:utf-8
import socket
from threading import Thread

import urllib

‘‘‘
这个类主要是用来检测代理的可用性
‘‘‘
class Detect_Proxy(Thread):

    url = ‘http://ip.chinaz.com/getip.aspx‘
    def __init__(self,db_helper,part,sum):
        Thread.__init__(self)
        self.db_helper = db_helper
        self.part = part#检测的分区
        self.sum = sum#检索的总区域

        self.counts = self.db_helper.proxys.count()
        socket.setdefaulttimeout(2)
        self.__goodNum = 0
        self.__badNum = 0

    @property
    def goodNum(self):
        return self.__goodNum

    @goodNum.setter
    def goodNum(self,value):
        self.__goodNum = value

    @property
    def badNum(self):
        return self.__badNum

    @badNum.setter
    def badNum(self,value):
        self.__badNum = value

    def run(self):

        self.detect()#开始检测

    def detect(self):
        ‘‘‘
        http://ip.chinaz.com/getip.aspx  作为检测目标
        :return:
        ‘‘‘

        if self.counts < self.sum:
            return

        pre = self.counts/self.sum
        start = pre * (self.part-1)
        end = pre * self.part
        if self.part == self.sum:#如果是最后一部分,结束就是末尾
            end = self.counts
        # print ‘pre-%d-start-%d-end-%d‘%(pre,start,end)

        proxys = self.db_helper.proxys.find({‘proxyId‘:{‘$gt‘:start,‘$lte‘:end}})#大于start小于等于end,很重要

        for proxy in proxys:

            ip = proxy[‘ip‘]
            port = proxy[‘port‘]
            try:
                proxy_host ="http://ha:[email protected]"+ip+‘:‘+port #随便添加了账户名和密码,只是为了防止填写账户名密码暂停的情况
                response = urllib.urlopen(self.url,proxies={"http":proxy_host})
                if response.getcode()!=200:
                    self.db_helper.delete({‘ip‘:ip,‘port‘:port})
                    self.__badNum += 1
                    print proxy_host,‘bad proxy‘
                else:
                    self.__goodNum += 1
                    print proxy_host,‘success proxy‘

            except Exception,e:
                print proxy_host,‘bad proxy‘
                self.db_helper.delete({‘ip‘:ip,‘port‘:port})
                self.__badNum += 1
                continue

  

完整的代码我已经上传到github上:https://github.com/qiyeboy/proxySpider_scrapy
今天的分享就到这里,已经晚上12:15了,如果大家觉得还可以呀,请继续支持我。提前透露一下,下一篇会讲解突破反爬虫。

欢迎大家支持我公众号:

本文章属于原创作品,欢迎大家转载分享。尊重原创,转载请注明来自:七夜的故事 http://www.cnblogs.com/qiyeboy/


				
时间: 2024-10-08 16:23:55

Scrapy爬取美女图片第三集 代理ip(下)的相关文章

Scrapy爬取美女图片第三集 代理ip(上) (原创)

首先说一声,让大家久等了.本来打算520那天进行更新的,可是一细想,也只有我这样的单身狗还在做科研,大家可能没心思看更新的文章,所以就拖到了今天.不过忙了521,522这一天半,我把数据库也添加进来了,修复了一些bug(现在肯定有人会说果然是单身狗). 好了,废话不多说,咱们进入今天的主题.上两篇 Scrapy爬取美女图片 的文章,咱们讲解了scrapy的用法.可是就在最近,有热心的朋友对我说之前的程序无法爬取到图片,我猜应该是煎蛋网加入了反爬虫机制.所以今天讲解的就是突破反爬虫机制的上篇 代理

Scrapy爬取美女图片 (原创)

有半个月没有更新了,最近确实有点忙.先是华为的比赛,接着实验室又有项目,然后又学习了一些新的知识,所以没有更新文章.为了表达我的歉意,我给大家来一波福利... 今天咱们说的是爬虫框架.之前我使用python爬取慕课网的视频,是根据爬虫的机制,自己手工定制的,感觉没有那么高大上,所以我最近玩了玩 python中强大的爬虫框架Scrapy. Scrapy是一个用 Python 写的 Crawler Framework ,简单轻巧,并且非常方便.Scrapy 使用 Twisted 这个异步网络库来处理

Scrapy爬取美女图片续集 (原创)

上一篇咱们讲解了Scrapy的工作机制和如何使用Scrapy爬取美女图片,而今天接着讲解Scrapy爬取美女图片,不过采取了不同的方式和代码实现,对Scrapy的功能进行更深入的运用. 在学习Scrapy官方文档的过程中,发现Scrapy自身实现了图片和文件的下载功能,不需要咱们之前自己实现图片的下载(不过原理都一样). 在官方文档中,我们可以看到下面一些话:Scrapy为下载item中包含的文件(比如在爬取到产品时,同时也想保存对应的图片)提供了一个可重用的 item pipelines .

一个简单的网络爬虫-从网上爬取美女图片

CrawlerPicture.java 文件 package com.lym.crawlerDemo; import java.io.DataInputStream; import java.io.File; import java.io.FileOutputStream; import java.io.IOException; import java.io.InputStream; import java.net.URL; import java.util.ArrayList; import

python爬虫爬取美女图片

python 爬虫爬取美女图片 #coding=utf-8 import urllib import re import os import time import threading def getHtml(url): page = urllib.urlopen(url) html = page.read() return html def getImgUrl(html,src): srcre = re.compile(src) srclist = re.findall(srcre,html)

Python 爬取美女图片,分目录多级存储

最近有个需求:下载https://mm.meiji2.com/网站的图片. 所以简单研究了一下爬虫. 在此整理一下结果,一为自己记录,二给后人一些方向. 爬取结果如图: 整体研究周期 2-3 天,看完之后,在加上看的时候或多或少也会自己搜到一些其他知识. 顺着看下来,应该会对爬虫技术有一个初步的认识. 大致的步骤: 分析页面,编写爬虫规则 下载图片,如果有分页,则分页 多页爬取,并且分目录保存到本地,多级存储. 应对反爬虫 以上就是学习的时候,看到的一些资料. 然后贴出一篇我自己写的,爬取的时候

福利贴——爬取美女图片的Java爬虫小程序代码

自己做的一个Java爬虫小程序 废话不多说,先上图. 文件夹命名是用标签缩写,如果大家看得不顺眼可以等下载完成后手动改一下,比如像有强迫症的我一样... 这是挂了一个晚上下载的总大小,不过还有很多因为一些问题没有遍历下载到,而且会产生很多空文件,最下面我附带了一个递归删除空文件夹的小程序代码. 接下来是文件夹内部~ 图片存放位置默认为d:\picture,可在程序中更改,main函数的开头就是,有注释.爬取的网站为http://www.mmonly.cc/,大家有更好的资源网站可以私我. 爬虫源

BeautifuSoup库爬取美女图片

爬虫模块(从网页上采集数据 数据放置在网页标签里面)1.requests2.BeautifuSoup3.urllib4.urllib25.scrapy6.lxml爬取步骤1.获取标签的内容数据 :<div> <title> <a> ....找到标签里面的内容 soup.div 2.打开网页获取文件的内容soup.prettify() //打印本地文件的内容 3.html源代码相同标签很多,怎么获取到我想要的那一部分内容网页名字 class id find:查找标签e =

第三百三十四节,web爬虫讲解2—Scrapy框架爬虫—Scrapy爬取百度新闻,爬取Ajax动态生成的信息

第三百三十四节,web爬虫讲解2-Scrapy框架爬虫-Scrapy爬取百度新闻,爬取Ajax动态生成的信息 crapy爬取百度新闻,爬取Ajax动态生成的信息,抓取百度新闻首页的新闻标题和rul地址 有多网站,当你浏览器访问时看到的信息,在html源文件里却找不到,由得信息还是滚动条滚动到对应的位置后才显示信息,那么这种一般都是 js 的 Ajax 动态请求生成的信息 我们以百度新闻为列: 1.分析网站 首先我们浏览器打开百度新闻,在网页中间部分找一条新闻信息 然后查看源码,看看在源码里是否有