python爬虫实战,多线程爬取京东jd html页面:无需登录的网站的爬虫实战

【前言】

# 本脚本用来爬取jd的页面:http://list.jd.com/list.html?cat=737,794,870到
# ......http://list.jd.com/list.html?cat=737,794,870&page=11&JL=6_0_0的所有html的内容和图片。
# 本脚本仅用于技术交流,请勿用于其他用途
# by River
# qq : 179621252
# Date : 2014-12-02 19:00:00


【需求说明】

以京东为示例,爬取页面的,获取页面中得数据:记录到data.txt;获取页面中得图片,保存下来。

1、list的url如下

2、商品详情页的url如下:

【技术说明】

使用了python的以下库
import os#检查文件是否存在等
from HTMLParser import HTMLParser#用于解析html的库,有坑:如果2.6的python,可能悲剧
import httplib,re#发起http请求
import sys,json,datetime,bisect#使用了二分快速查找
from urlparse import urlparse#解析url,分析出url的各部分功能
from threading import Thread#使用多线程
import socket #设置httplib超时时间

【代码逻辑说明】

1、run(获取最终要的结果)

2、parseListpageurl:返回list的总共的页面数量

3、judgelist:判断该list是否已经爬取完毕了,第一个list中的所有url、最后list的所有url都爬取完毕了,那么久说明list的所有page爬取完毕了(实际上是一种弱校验)

4、getfinalurl_content:如果list没爬取完毕,每个list爬取,解析list中得每个html(判断html是否爬取过),获得内容和img

【坑说明】

1、需要设置超时时间,和重试,否则爬取一个url卡住的时候,整个线程都悲剧了。

2、有编码的坑,如果页面是gb2312的编码,需要转换为utf-8的编码:httprestmp.decode(‘gbk‘).encode(‘utf-8‘)

3、parser.feed的内容,如果存在一些特殊字符,可能需要替换,否则解析出来会莫名不对

4、图片保存,根据url获取前面两个数字,保存。以免一个目录下保存了过多的图片。

【执行结果】

1、console输出

2、data.txt存储解析出来的内容

3、judegurl.txt(保存已经爬取过的url)

4、图片(下载的图片)

【代码详情】

# -*- coding: utf-8 -*-

__author__ = ‘River‘

# 本脚本用来爬取jd的页面:http://list.jd.com/list.html?cat=737,794,870到
# ......http://list.jd.com/list.html?cat=737,794,870&page=11&JL=6_0_0的所有html的内容和图片。

# 本脚本仅用于技术交流,请勿用于其他用途
# by River
# qq : [email protected]
# Date : 2014-12-02 19:00:00

import os#创建文件
from HTMLParser import HTMLParser#用于解析html的库,有坑:如果2.6的python,可能悲剧
import httplib,re#发起http请求
import sys,json,datetime,bisect#使用了二分快速查找
from urlparse import urlparse#解析url,分析出url的各部分功能
from threading import Thread#使用多线程
import socket #设置httplib超时时间
#定义一个ListPageParser,用于解析ListPage,如http://list.jd.com/list.html?cat=737,794,870

#htmlparser的使用简介
#定义intt方法:需要使用到得属性
#定义handle_starttag,处理你想分析的tag的具体操作
#定义handle_data,遇到你定义的情况,获取相应标签的data
#定义你获取最终返回的各种数据
class ListPageParser(HTMLParser):
    def __init__(self):
        self.handledtags=[‘a‘]
        self.processing=None
        self.flag=‘‘
        self.link=‘‘
        self.setlinks=set()##该list页面中包含的每个商品的url,定义为set,主要是为了使用其特性:去重
        self.pageNo=1
        self.alldata=[]
        self.lasturl=""#指的最后一页的url如<a href="http://list.jd.com/list.html?cat=737%2C794%2C798&amp;page=10&amp;JL=6_0_0">10</a>
        HTMLParser.__init__(self)
    def handle_starttag(self, tag, attrs):
        pattern = re.compile(r‘^[0-9]{2,}‘)
        pattern2=re.compile(r‘^http:\/\/item.jd.com\/\d{1,10}.html$‘)#取出link
        pattern3=re.compile(r‘^http:\/\/list.jd.com\/list.html\?cat=\d{0,9}%2C\d{0,9}%2C\d{0,9}&page=*‘)#取出link
        #attrs是属性的list,每个属性(包含key,value)又是一个元组
        #<a target="_blank" href="http://item.jd.com/1258277.html" onclick="log(&quot;search&quot;,&quot;list&quot;,window.location.href,798,5,1258277,2,1,1,2,A)">创维酷开(coocaa) K50J 50英寸八核智能wifi网络安卓平板液晶电视(黑色)<font style="color: #ff0000;" name="1258277" class="adwords"></font></a>
        #已上为例子:判断了该list的长度为3(其他的a标签就被过滤了)
        if tag in self.handledtags and len(attrs)==3 :#非常关键的是,找出你想的url和不想要的url的区别
            #print "debug:attrs",attrs
            self.flag=‘‘
            self.data=‘‘
            self.processing=tag
            for target,href in attrs:#非常关键的是,找出你想的url和不想要的url的区别
                if pattern2.match(href):#再加一层判断,如果匹配上pattern2,说明是我们想要的url
                    self.setlinks.add(href)
                else:
                    pass
        #怎样获取list中最后一页的url?分析吧:<a href="http://list.jd.com/list.html?cat=737%2C794%2C798&amp;page=10&amp;JL=6_0_0">10</a>
        #1、长度为1
        #2,href是由规则的:cat=737%2C794%2C798&amp;page=10&amp;JL=6_0_0,所以,以下代码就出来了
        if tag in self.handledtags and len(attrs)==1 :
            self.flag=‘‘
            self.data=‘‘
            self.processing=tag
            for href,url in attrs:#非常关键的是,找出你想的url和不想要的url的区别
                #print ‘debug:attrs‘,attrs
                if pattern3.match(url):
                    #print ‘debug:url‘,url
                    self.lasturl=url
                else:
                    pass
    def handle_data(self, data):
        if self.processing:#去掉空格
            pass#其实这里我们根本没使用获取到得data,就pass把
        else:
            pass
    def handle_endtag(self, tag):
        if tag==self.processing:
            self.processing=None
    def getlinks(self):
        return self.setlinks
    def getlasturl(self):
        return self.lasturl

        
#定义一个FinallPageParser,用于解析最终的html页面,如http://item.jd.com/1258277.html
#FinallPageParser的定义过程参考上个parser,关键是怎样分析页面,最终写出代码,并且验证,这里就不详细说了
class FinallPageParser(HTMLParser):
    def __init__(self):
        self.handledtags=[‘div‘,‘h1‘,‘strong‘,‘a‘,‘del‘,‘div‘,‘img‘,‘li‘,‘span‘,‘tbody‘,‘tr‘,‘th‘,‘td‘,‘i‘]
        self.processing=None
        self.title=‘‘
        self.jdprice=‘‘
        self.refprice=‘‘
        self.partimgs_show=set()#展示图片
        self.partimgs=set()#详情图片
        self.partdetail={}#商品详情,参数等
        self.specification=[]#规格参数
        self.typeOrsize=set()#尺码和类型
        self.div=‘‘
        self.flag={}
        self.flag[‘refprice‘]=‘‘
        self.flag[‘title‘]=‘‘
        self.flag[‘jdprice‘]=‘‘
        self.flag[‘typeOrsize‘]=‘‘
        self.flag[‘partimgs‘]=‘‘
        self.flag[‘partdetail‘]=‘‘
        self.flag[‘specification‘]=‘‘
        self.flag[‘typeOrsize‘]=‘‘
        self.link=‘‘
        self.partslinks={}
        HTMLParser.__init__(self)
    def handle_starttag(self, tag, attrs):
        self.titleflag=‘‘
        self.flag[‘refprice‘]=‘‘
        self.flag[‘title‘]=‘‘
        self.flag[‘jdprice‘]=‘‘
        self.flag[‘typeOrsize‘]=‘‘
        self.flag[‘partimgs‘]=‘‘
        self.flag[‘partdetail‘]=‘‘
        self.flag[‘specification‘]=‘‘
        self.flag[‘typeOrsize‘]=‘‘
        if tag in self.handledtags:
            self.data=‘‘
            self.processing=tag
            if tag==‘div‘:
                for key,value in attrs:
                    self.div=value# 取出div的name,判断是否是所需要的图片等元素
            if tag==‘i‘:
                self.flag[‘typeOrsize‘]=‘match‘
            if tag==‘a‘ and len(attrs)==2:
                tmpflag=""
                for key,value in attrs:
                    if key==‘href‘ and re.search(r‘^http:\/\/item.jd.com\/[0-9]{1,10}.html$‘,value):
                        tmpflag="first"
                    if key==‘title‘ and value!="":
                        tmpflag=tmpflag+"second"
                if tmpflag== "firstsecond":
                    self.flag[‘typeOrsize‘]=‘match‘
            if tag==‘h1‘:
                self.flag[‘title‘]=‘match‘
            if tag==‘strong‘ and len(attrs)==2:
                for tmpclass,id in attrs:
                    if id==‘jd-price‘:
                        self.flag[‘jdprice‘]=‘match‘
            if tag==‘del‘:
                self.flag[‘refprice‘]=‘match‘
            if tag==‘li‘:
                self.flag[‘partdetail‘]=‘match‘
            if tag==‘th‘ or tag==‘tr‘ or tag==‘td‘ :#++++++++############################################879498.html td中有br的只取到第一个,需要把<br/>喜欢为“”
                self.flag[‘specification‘]=‘match‘
            if tag==‘img‘ :
                imgtmp_flag=‘‘
                imgtmp=‘‘
                for key,value in attrs:
                    if re.search(r‘^http://img.*jpg|^http://img.*gif|^http://img.*png‘,str(value)) and (key==‘src‘ or key==‘data-lazyload‘):
                        imgtmp=value
                    if key== ‘width‘:############可能还有logo
                        if re.search(r‘^\d{1,9}$‘,value):
                            if int(value)<=160:
                                imgtmp_flag=‘no‘
                                break
                if self.div=="spec-items" and imgtmp!=‘‘:
                    imgtmp=re.compile("/n5/").sub("/n1/",imgtmp)
                    self.partimgs_show.add(imgtmp)
                elif imgtmp_flag!=‘no‘ and imgtmp!=‘‘:
                    self.partimgs.add(imgtmp)#
    def handle_data(self, data):
        if self.processing:
            self.data+=data
            if self.flag[‘title‘]==‘match‘:#获取成功
                self.title=data
            if self.flag[‘jdprice‘]==‘match‘:
                self.jdprice=data.strip()
            if self.flag[‘typeOrsize‘]==‘match‘:
                self.typeOrsize.add(data.strip())
            if self.flag[‘refprice‘]==‘match‘:
                self.refprice=data.strip()
            if self.flag[‘partdetail‘]==‘match‘ and re.search(r‘:‘,data):#获取成功
                keytmp=data.split(":")[0].strip()
                valuetmp=data.split(":")[1].strip()
                self.partdetail[keytmp]=valuetmp
            if self.flag[‘specification‘]==‘match‘ and data.strip() != ‘‘ and data.strip()!=‘主体‘:
                self.specification.append(data.strip())
        else:
            pass
    def handle_endtag(self, tag):
        if tag==self.processing:
            self.processing=None
    def getdata(self):
        return {‘title‘:self.title,‘partimgs_show‘:self.partimgs_show,‘jdprice‘:self.jdprice,‘refprice‘:self.refprice,‘partimgs‘:self.partimgs,‘partdetail‘:self.partdetail,‘specification‘:self.specification,‘typeOrsize‘:self.typeOrsize}
#定义方法httpread,用于发起http的get请求,返回http的获取内容
#这也是代码抽象的结果,如若不抽象这块代码出来,后续你回发现很多重复的写这块代码
def httpread(host,url,headers):
    httprestmp=‘‘
    try:
        conn = httplib.HTTPConnection(host)
        conn.request(‘GET‘,url,None,headers)
        httpres = conn.getresponse()
        httprestmp=httpres.read()
    except Exception,e:
        conn = httplib.HTTPConnection(host)
        conn.request(‘GET‘,url,None,headers)
        httpres = conn.getresponse()
        httprestmp=httpres.read()
        print e
    finally:
        if conn:
            conn.close()
    return httprestmp
#定义方法sendhttp,调用httpread,获取结果并替换编码(gbk换为utf-8),并保存到文件中(以免下次再去下载页面,这样就节省了时间)
#
def sendhttp(url,host,savefile):
    #定义http头部,很多网站对于你不携带User-Agent及Referer等情况,是不允许你爬取。
    #具体的http的头部有些啥信息,你可以看chrome,右键审查元素,点击network,点击其中一个链接,查看request header
    headers = {"Host":host,
               "Origin":"http://www.jd.com/",
               "Referer":"http://www.jd.com/",
                "Content-type": "application/x-www-form-urlencoded; charset=UTF-8",
                "Accept": "text/html;q=0.9,image/webp,*/*;q=0.8",
               "User-Agent":"Mozilla/3.0 AppleWebKit/537.36 (KHTML,Gecko) Chrome/3.0.w4.",
               "Cookie":"__utmz=qwer2434.1403499.1.1.utmcsr=www.jd.com|utmccn=(refrral)|utmcmd=rferral|utmcct=/order/getnfo.action; _pst=xx89; pin=x9; unick=jaa; cshi3.com=D6045EA24A6FB9; _tp=sdyuew8r9e7r9oxr3245%3D%3D; user-key=1754; cn=0; ipLocation=%u7F0C; ipLoc97; areaId=1; mt_ext2%3a%27d; aview=6770.106|68|5479.665|675.735|6767.100|6757.13730|6ee.9ty711|1649.10440; atw=65.15.325.24353.-4|188.3424.-10|22; __j34|72.2234; __jdc=2343423; __jdve|-; __jdu=3434"
    }
    httprestmp=‘‘
    try:
        httprestmp=httpread(host,url,headers)
        if httprestmp==‘‘:#
            httprestmp=httpread(host,url,headers)
            if  httprestmp==‘‘:#重试2次
                httprestmp=httpread(host,url,headers)
    except Exception,e:
        try:
            httprestmp=httpread(host,url,headers)
            if httprestmp==‘‘:#
                httprestmp=httpread(host,url,headers)
                if  httprestmp==‘‘:#重试2次
                    httprestmp=httpread(host,url,headers)
        except Exception,e:
            print e
        print e
    if  re.search(r‘charset=gb2312‘,httprestmp):#如果是gb2312得编码,就要转码为utf-8(因为全局都使用了utf-8)
        httprestmp.replace("charset=gb2312",‘charset=utf-8‘)
        try:
            httprestmp=httprestmp.decode(‘gbk‘).encode(‘utf-8‘)#有可能转码失败,所以要加上try
        except Exception,e:#如果html编码本来就是utf8或者转换编码出错的时候,就啥都不做,就用原始内容
            print e
    try:
        with  open(savefile, ‘w‘) as file_object:
            file_object.write(httprestmp)
            file_object.flush()
    except Exception,e:
        print e
    return httprestmp
#list的页面的解析方法
def parseListpageurl(listpageurl):
        urlobj=urlparse(listpageurl)
        if urlobj.query:
            geturl=urlobj.path+"?"+urlobj.query
        else:
            geturl=urlobj.path
        htmlfile="html/list"+geturl
        if not os.path.exists(htmlfile):
            httpresult=sendhttp(geturl,urlobj.hostname,htmlfile)
        with  open(htmlfile) as file:
            htmlcontent=file.read()
        parser= ListPageParser()#声明一个解析对象
        #http://list.jd.com/list.html?cat=737%2C794%2C870&amp;page=11&amp;JL=6_0_0,所以这里需要把‘amp;‘去掉
        parser.feed(htmlcontent.replace(‘amp;‘,‘‘))#将html的内容feed进去
        #print ‘debug:htmlcontent‘,htmlcontent
        finalparseurl=parser.getlinks()#然后get数据即可
        lastpageurl=parser.getlasturl()
        urlobj_lastpageurl=urlparse(lastpageurl)
        #print ‘debug:urlobj_lastpageurl‘,urlobj_lastpageurl
        totalPageNo=‘0‘
        #print urlobj
        if re.search(r‘&‘,urlobj_lastpageurl.query):
            try:
                totalPageNo=urlobj_lastpageurl.query.split("&")[1].split("=")[1]#获得总共有多少页
            except Exception,e:
                print "lastpageurl:"+str(lastpageurl)
                print e
        parseListpageurl_rult={‘finalparseurls‘:finalparseurl,‘totalPageNo‘:totalPageNo}
        if parseListpageurl_rult[‘finalparseurls‘] !="" and parseListpageurl_rult[‘totalPageNo‘]!=‘‘:
            print datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")+",parse listpageurl succ:"+listpageurl
        else:
            print datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")+",parse listpageurl fail:"+listpageurl
        return parseListpageurl_rult
#最终的html页面的解析方法:会使用到html得解析器FinallPageParser
def parseFinallyurl(finallyurl):
        urlobj=urlparse(finallyurl)
        geturl=urlobj.path
        htmlfiledir="html/finally/"+geturl.split(‘/‘)[1][0:2]
        if not os.path.exists(htmlfiledir):
            try:
                os.makedirs(htmlfiledir)
            except Exception,e:
                print e
        htmlfile=htmlfiledir+geturl
        if not os.path.exists(htmlfile):
            httpresult=sendhttp(geturl,urlobj.hostname,htmlfile)
            if httpresult:
                print datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")+",sent http request succ,Finallyurl:"+finallyurl
            else:
                print datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")+",sent http request fail,Finallyurl:"+finallyurl
        with  open(htmlfile) as file:
            htmlcontent=file.read()
        parser= FinallPageParser()
        ##htmmparser遇到/>就表示tag结尾,所以必须替换,遇到<br/>替换为BRBR,否则会解析失败
        htmlcontent=re.compile(‘<br/>‘).sub(‘BRBR‘,htmlcontent)
        parser.feed(htmlcontent)
        finalparseurl=parser.getdata()
        if finalparseurl:
            print datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")+",parse finalparseurl succ:"+finallyurl
        else:
            print datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")+",parse finalparseurl fail:"+finallyurl
        return finalparseurl
#获取图片的方法
def getimg(imgdir,imgurl):
        imgobj=urlparse(imgurl)
        getimgurl=imgobj.path
        imgtmppathlist=getimgurl.split(‘/‘)
        imgname=imgtmppathlist[len(imgtmppathlist)-1]
        if not os.path.exists(imgdir):
            try:
                os.makedirs(imgdir)
            except Exception,e:
                print e
        savefile=imgdir+"/"+imgname
        if not os.path.exists(savefile):
            sendhttp_rult=sendhttp(getimgurl,imgobj.hostname,savefile)
            if sendhttp_rult:
                print datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")+",sent http request succ,getimg:"+imgurl
            else:
                print datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")+",sent http request fail,getimg:"+imgurl
        else:
            pass
#获取价格
def getprice(pricedir,priceurl):
        priceobj=urlparse(priceurl)
        getpriceurl=priceobj.path+"?"+priceobj.query
        pricename="price"
        if not os.path.exists(pricedir):
            try:
                os.makedirs(pricedir)
            except Exception,e:
                print e
        savefile=pricedir+"/"+pricename
        if not os.path.exists(savefile):
            sendhttp_rult=sendhttp(getpriceurl,priceobj.hostname,savefile)
            if sendhttp_rult:
                print datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")+",sent http request succ,getprice:"+priceurl
            else:
                print datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")+",sent http request fail,getprice:"+priceurl
        else:
            pass
        with open(savefile) as file:
            price_content=file.read()
        price_content=re.compile(‘cnp\\(\\[|\\]\\);‘).sub(‘‘,price_content)
        price_dic={"id":"0","p":"0","m":"0"}
        if re.search(r‘:‘,price_content):
            try:
                price_dic=json.loads(price_content)#以免数据格式不对悲剧
            except Exception,e:
                print e
        return  {"jdprice":price_dic[‘p‘],‘refprice‘:price_dic[‘m‘]}
#获取最后页面的具体内容
def getfinalurl_content(partlists,listpageurl,finalparseurl):
        parseFinallyurl_rult=parseFinallyurl(finalparseurl)
        htmlname_tmp=urlparse(finalparseurl).path
        imgtopdir_tmp="img/"+htmlname_tmp.split(‘/‘)[1][0:2]
        imgdir=imgtopdir_tmp+htmlname_tmp+"/introduction"
        imgshowdir=imgtopdir_tmp+htmlname_tmp+"/show"
        partdetail_tmp=""
        for imgurl in parseFinallyurl_rult[‘partimgs‘]:#获取商品介绍的图片
            getimg(imgdir,imgurl)
        for imgshowurl in parseFinallyurl_rult[‘partimgs_show‘]:#获取展示图片
            getimg(imgshowdir,imgshowurl)
        for key in parseFinallyurl_rult[‘partdetail‘].keys():
            partdetail_tmp=partdetail_tmp+key+"$$"+parseFinallyurl_rult[‘partdetail‘][key]+","#商品介绍
        specification_tmp=""
        i=0
        for specification_var in  parseFinallyurl_rult["specification"]:#规格参数
            if i==0:
                str_slip=""
            elif(i%2==0  and i!=0 ):
                str_slip=","
            else:
                str_slip="$$"
            specification_tmp=specification_tmp+str_slip+specification_var
            i=i+1
        typeOrsize_tmp=""
        for typeOrsize_var in parseFinallyurl_rult[‘typeOrsize‘]:
            typeOrsize_tmp=typeOrsize_tmp+","+typeOrsize_var
        priceurl="http://p.3.cn/prices/get?skuid=J_"+htmlname_tmp.split(‘/‘)[1].split(‘.‘)[0]+"&type=1&area=6_309_312&callback=cnp"
        pricedir="price/"+htmlname_tmp.split(‘/‘)[1][0:2]+htmlname_tmp
        getprice_dic=getprice(pricedir,priceurl)
        parseFinallyurl_rult["jdprice"]=getprice_dic[‘jdprice‘]
        parseFinallyurl_rult["refprice"]=getprice_dic[‘refprice‘]
        #partlists[listpageurl]):商品分类
        #finalparseurl,页面的url
        #parseFinallyurl_rult["title"]):标题
        #parseFinallyurl_rult["jdprice"]:京东的价格
        #parseFinallyurl_rult["refprice"]:市场参考价格
        #imgshowdir:商品展示的图片保存位置
        #imgdir:商品说明的图片保存位置:jd的商品说明也是用图片的
        #partdetail_tmp:商品的详细信息
        #specification_tmp:商品的规则参数
        #typeOrsize_tmp:商品的类型和尺寸
        return str(partlists[listpageurl]).strip()+"\t"+finalparseurl.strip()+"\t"+str(parseFinallyurl_rult["title"]).strip()+"\t"+str(parseFinallyurl_rult["jdprice"]).strip()               +"\t"+str(parseFinallyurl_rult["refprice"]).strip()+"\t"+imgshowdir.strip()+"\t"+imgdir.strip()+"\t"+partdetail_tmp.strip()+"\t"+specification_tmp.strip()+"\t"+               typeOrsize_tmp.strip()

#判断最后的页面(商品详情页)是否被爬取了
def judgeurl(url):#优化后,使用二分法查找url(查找快了,同时也不用反复读取文件了)。第一次加载judgeurl_all_lines之后,维护好此list,同时新增的url也保存到judgeurl.txt中
    url=url+"\n"
    global judgeurl_all_lines
    find_url_flag=False
    url_point=bisect.bisect(judgeurl_all_lines,url)#这里使用二分法快速查找(前提:list是排序好的)
    find_url_flag = judgeurl_all_lines and judgeurl_all_lines[url_point-1] == url
    return find_url_flag

    
    
    
#判断list页面是否已经爬取完毕了
#这里的逻辑是:第一个list中的所有url、最后list的所有url都爬取完毕了,那么久说明list的所有page爬取完毕了(实际上是一种弱校验)。
#调用了judgeurl得方法
def judgelist(listpageurl,finallylistpageurl):#判断第一个、最后一个的list页面的所有的html是否下载完毕,以此判断该类型是否处理完毕
    judgelist_flag=True
    parseListpageurl_rult_finally=parseListpageurl(finallylistpageurl)
    finalparseurls_deep_finally=list(parseListpageurl_rult_finally[‘finalparseurls‘])#获取到最后的需要解析的url的列表
    parseListpageurl_rult_first=parseListpageurl(listpageurl)
    finalparseurls_deep_first=list(parseListpageurl_rult_first[‘finalparseurls‘])#获取到最后的需要解析的url的列表
    for finalparseurl in finalparseurls_deep_finally:
        #print finalparseurl
        if judgeurl(finalparseurl):
            pass
        else:
            judgelist_flag=False
            break
    if judgelist_flag==True:
        for finalparseurl_first in finalparseurls_deep_first:
            #print finalparseurl
            if judgeurl(finalparseurl_first):
                pass
            else:
                judgelist_flag=False
                break
    return judgelist_flag
#整体控制的run方法
def run():
    partlists={‘http://list.jd.com/list.html?cat=737,794,870‘:‘空调‘}
    partlistskeys=partlists.keys()
    for listpageurl in partlistskeys:
        parseListpageurl_rult=parseListpageurl(listpageurl)#开始解析list页面,如:http://list.jd.com/list.html?cat=737,794,870
        totalPageNo=parseListpageurl_rult[‘totalPageNo‘]#获取该list总共有多少页
        #print ‘debug:totalPageNo‘,totalPageNo
        finallylistpageurl=listpageurl+‘&page=‘+str(int(totalPageNo)+1)+‘&JL=6_0_0‘#拼接出最后一个list页面(list页面有1、2、3。。。n页)
        #print ‘debug:finallylistpageurl ‘,finallylistpageurl
        if judgelist(listpageurl,finallylistpageurl):#如果该list已经爬取完毕了。那么,就跳过这个list
            print datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")+‘,All html done for ‘+str(listpageurl)+":"+str(partlists[listpageurl])+"【Done Done】,【^_^】"
            continue
        else:#否则就逐个沿着list,从其第1页,开始往下爬取
            for i in range(1,int(totalPageNo)+2):
                finalparseurl=‘‘
                listpageurl_next=listpageurl+‘&page=‘+str(i)+‘&JL=6_0_0‘
                #print "debug:listpageurl_next",listpageurl_next
                parseListpageurl_rult=parseListpageurl(listpageurl_next)
                totalPageNo=parseListpageurl_rult[‘totalPageNo‘]#需要更行总的页面数量,以免数据陈旧
                finalparseurls_deep=list(parseListpageurl_rult[‘finalparseurls‘])
                for finalparseurl in finalparseurls_deep:
                    if judgeurl(finalparseurl):#判断该具体的url是否已经爬取
                        print ‘finalparseurl pass yet:‘+finalparseurl
                        pass
                    else:
                        finalurl_content=getfinalurl_content(partlists,listpageurl,finalparseurl)
                        finalparseurl_tmp=finalparseurl+"\n"
                        with open("data.txt","a") as datafile:#将爬取完毕好的url写入data.txt
                            datafile.writelines(finalurl_content+"\n")
                        with open("judgeurl.txt","a") as judgefile:#将已经爬取好的url写入judgeurl.txt
                            judgefile.writelines(finalparseurl+"\n")
                        bisect.insort_right(judgeurl_all_lines,finalparseurl+"\n")
#主方法
if __name__ == ‘__main__‘:
    reload(sys)
    sys.setdefaultencoding(‘utf8‘)#设置系统默认编码是utf8
    socket.setdefaulttimeout(5)#设置全局超时时间
    global judgeurl_all_lines#设置全局变量
    #不存在文件就创建文件,该文件用于记录哪些url是爬取过的,如果临时中断了,可以直接重启脚本即可
    if not os.path.exists("judgeurl.txt"):
        with open("judgeurl.txt",‘w‘) as judgefile:
            judgefile.close()
    #每次运行只在开始的时候读取一次,新产生的数据(已怕去过的url)也会保存到judgeurl.txt
    with open("judgeurl.txt","r") as judgefile:
        judgeurl_all_lines=judgefile.readlines()
    judgeurl_all_lines.sort()#排序,因为后面需要使用到二分查找,必须先排序
    #启多个线程去爬取
    Thread(target=run(),args=()).start()
    Thread(target=run(),args=()).start()
    #Thread(target=run(),args=()).start()
时间: 2024-10-27 12:15:22

python爬虫实战,多线程爬取京东jd html页面:无需登录的网站的爬虫实战的相关文章

分布式爬虫系统设计、实现与实战:爬取京东、苏宁易购全网手机商品数据+MySQL、HBase存储

[TOC] 1 概述 在不用爬虫框架的情况,经过多方学习,尝试实现了一个分布式爬虫系统,并且可以将数据保存到不同地方,类似MySQL.HBase等. 基于面向接口的编码思想来开发,因此这个系统具有一定的扩展性,有兴趣的朋友直接看一下代码,就能理解其设计思想,虽然代码目前来说很多地方还是比较紧耦合,但只要花些时间和精力,很多都是可抽取出来并且可配置化的. 因为时间的关系,我只写了京东和苏宁易购两个网站的爬虫,但是完全可以实现不同网站爬虫的随机调度,基于其代码结构,再写国美.天猫等的商品爬取,难度不

python爬虫实战(一)----------爬取京东商品信息

本文章的例子仅用于学习之用,如涉及版权隐私信息,请联系本人删除,谢谢. 最近一直在练习使用python爬取不同网站的信息,最终目的是实现一个分布式的网络爬虫框架,可以灵活适用不同的爬取需求. 项目github地址: https://github.com/happyAnger6/anger6Spider 在学习的过程中遇到不少问题,在这里做一下总结,并分享出来,希望有兴趣的朋友批评指正,共同学习共同进步. 本着实用至上的目的,不准备过多讲实现细节和原理,直接通过项目需求来边实战边学习,因此本系列文

Python爬虫实战(2):爬取京东商品列表

1,引言 在上一篇<Python爬虫实战:爬取Drupal论坛帖子列表>,爬取了一个用Drupal做的论坛,是静态页面,抓取比较容易,即使直接解析html源文件都可以抓取到需要的内容.相反,JavaScript实现的动态网页内容,无法从html源代码抓取需要的内容,必须先执行JavaScript. 我们在<Python爬虫使用Selenium+PhantomJS抓取Ajax和动态HTML内容>一文已经成功检验了动态网页内容的抓取方法,本文将实验程序进行改写,使用开源Python爬虫

python制作爬虫爬取京东商品评论教程

作者:蓝鲸 类型:转载 本文是继前2篇Python爬虫系列文章的后续篇,给大家介绍的是如何使用Python爬取京东商品评论信息的方法,并根据数据绘制成各种统计图表,非常的细致,有需要的小伙伴可以参考下 本篇文章是python爬虫系列的第三篇,介绍如何抓取京东商城商品评论信息,并对这些评论信息进行分析和可视化.下面是要抓取的商品信息,一款女士文胸.这个商品共有红色,黑色和肤色三种颜色, 70B到90D共18个尺寸,以及超过700条的购买评论. 京东商品评论信息是由JS动态加载的,所以直接抓取商品详

Python爬虫入门教程: All IT eBooks多线程爬取

All IT eBooks多线程爬取-写在前面 对一个爬虫爱好者来说,或多或少都有这么一点点的收集癖 ~ 发现好的图片,发现好的书籍,发现各种能存放在电脑上的东西,都喜欢把它批量的爬取下来. 然后放着,是的,就这么放着.......然后慢慢的遗忘掉..... All IT eBooks多线程爬取-爬虫分析 打开网址 http://www.allitebooks.com/ 发现特别清晰的小页面,一看就好爬 在点击一本图书进入,发现下载的小链接也很明显的展示在了我们面前,小激动一把,这么清晰无广告的

Python爬虫入门教程 13-100 斗图啦表情包多线程爬取

写在前面 今天在CSDN博客,发现好多人写爬虫都在爬取一个叫做斗图啦的网站,里面很多表情包,然后瞅了瞅,各种实现方式都有,今天我给你实现一个多线程版本的.关键技术点 aiohttp ,你可以看一下我前面的文章,然后在学习一下. 网站就不分析了,无非就是找到规律,拼接URL,匹配关键点,然后爬取. 撸代码 首先快速的导入我们需要的模块,和其他文章不同,我把相同的表情都放在了同一个文件夹下面,所以需要导入os模块 import asyncio import aiohttp from lxml imp

python爬虫实践——爬取京东商品信息

1 ''' 2 爬取京东商品信息: 3 请求url: 4 https://www.jd.com/ 5 提取商品信息: 6 1.商品详情页 7 2.商品名称 8 3.商品价格 9 4.评价人数 10 5.商品商家 11 ''' 12 from selenium import webdriver 13 from selenium.webdriver.common.keys import Keys 14 import time 15 16 17 def get_good(driver): 18 try

Python爬取京东商品数据

对京东某一商品信息页面的HTML代码进行分析,可以发现它的图书产品信息页面都含有这样一段代码(不同类的商品页面有些不同): window.pageConfig={compatible:true,searchType: 1,product:{"skuid":"11408255","name":"\u4f17\u795e\u7684\u536b\u661f\uff1a\u4e2d\u56fd\u7981\u533a","

Python 爬虫入门(二)——爬取妹子图

Python 爬虫入门 听说你写代码没动力?本文就给你动力,爬取妹子图.如果这也没动力那就没救了. GitHub 地址: https://github.com/injetlee/Python/blob/master/%E7%88%AC%E8%99%AB%E9%9B%86%E5%90%88/meizitu.py 公众号:[智能制造专栏].欢迎关注,分享智能制造与编程那些事. 爬虫成果 当你运行代码后,文件夹就会越来越多,如果爬完的话会有2000多个文件夹,20000多张图片.不过会很耗时间,可以在