21天打造分布式爬虫-数据解析实战(三)

3.1.豆瓣电影

使用lxml

import requests
from lxml import etree

headers = {
    ‘User-Agent‘:‘Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36‘,
    ‘Referer‘:‘https://movie.douban.com/‘
}
url = ‘https://movie.douban.com/cinema/nowplaying/beijing/‘
response = requests.get(url,headers=headers)
text = response.text

html = etree.HTML(text)
#获取正在上映的电影
ul = html.xpath("//ul[@class=‘lists‘]")[0]
lis = ul.xpath("./li")
movies = []

for li in lis:
    title = li.xpath("@data-title")[0]
    score = li.xpath("@data-score")[0]
    duration = li.xpath("@data-duration")[0]
    region = li.xpath("@data-region")[0]
    director = li.xpath("@data-director")[0]
    actors = li.xpath("@data-actors")[0]
    #电影海报图片
    thumbnail = li.xpath(".//img/@src")[0]

    movie = {
        ‘title‘:title,
        ‘score‘:score,
        ‘duration‘:duration,
        ‘region‘:region,
        ‘director‘:director,
        ‘actors‘:actors,
        ‘thumbnail‘:thumbnail,
    }
    movies.append(movie)

print(movies)

 3.2.电影天堂

使用lxml

import requests
from lxml import etree

BASE_DOMAIN = ‘http://dytt8.net‘

HEADERS = {
    ‘User-Agent‘:‘Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36‘,
}

def get_detail_urls(url):
    ‘‘‘获取详情页url‘‘‘
    response = requests.get(url, headers=HEADERS)
    text = response.text
    html = etree.HTML(text)
    # 获取电影详情的url
    detail_urls = html.xpath("//table[@class=‘tbspan‘]//a/@href")
    #加上域名,拼接成完整的url
    detail_urls = map(lambda url:BASE_DOMAIN + url,detail_urls)
    return detail_urls

def parse_detail_page(url):
    ‘‘‘处理爬取页面‘‘‘
    movie = {}
    response= requests.get(url,headers=HEADERS)
    text = response.content.decode(‘gbk‘)
    html = etree.HTML(text)
    title = html.xpath("//div[@class=‘title_all‘]//font[@color=‘#07519a‘]/text()")[0]
    movie[‘title‘] = title

    zoomE = html.xpath("//div[@id=‘Zoom‘]")[0]
    imgs = zoomE.xpath(".//img/@src")
    cover = imgs[0]         #电影海报
    movie[‘cover‘] = cover
    #因为有的电影没有截图,所有这里加个异常处理
    try:
        screenshot = imgs[1]    #电影截图
        movie[‘screenshot‘] = screenshot
    except IndexError:
        pass

    infos = zoomE.xpath(".//text()")
    for index,info in enumerate(infos):
        if info.startswith("◎年  代"):
            info = info.replace("◎年  代","").strip()
            movie[‘year‘] = info
        elif info.startswith("◎产  地"):
            info = info.replace("◎产  地", "").strip()
            movie[‘country‘] = info
        elif info.startswith("◎类  别"):
            info = info.replace("◎类  别", "").strip()
            movie[‘category‘] = info
        elif info.startswith("◎豆瓣评分"):
            info = info.replace("◎豆瓣评分", "").strip()
            movie[‘douban_rating‘] = info
        elif info.startswith("◎片  长"):
            info = info.replace("◎片  长", "").strip()
            movie[‘duration‘] = info
        elif info.startswith("◎导  演"):
            info = info.replace("◎导  演", "").strip()
            movie[‘director‘] = info

        #影片的主演有多个,所有要添加判断
        elif info.startswith("◎主  演"):
            info = info.replace("◎主  演", "").strip()
            actors = [info,]
            for x in range(index+1,len(infos)):
                actor = infos[x].strip()
                if actor.startswith("◎简  介 "):
                    break
                actors.append(actor)
            # print(actors)
            movie[‘actors‘] = actors

        elif info.startswith("◎简  介 "):
            info = info.replace("◎简  介 ", "").strip()
            for x in range(index+1,len(infos)):
                profile = infos[x].strip()
                if profile.startswith("【下载地址】"):
                    break
                # print(profile)
                movie[‘profile‘] = profile
    #下载地址
    download_url = html.xpath("//td[@bgcolor=‘#fdfddf‘]/a/@href")[0]
    # print(download_url)
    movie[‘download_url‘] = download_url
    return movie

def spider():
    base_url = ‘http://dytt8.net/html/gndy/dyzz/list_23_{}.html‘
    movies = []
    for x in range(1,8):    #爬前7页
        url = base_url.format(x)
        detail_urls = get_detail_urls(url)
        for detail_url in detail_urls:
            movie = parse_detail_page(detail_url)
            movies.append(movie)
            print(movie)
    print(movies)    #所有的电影信息

if __name__ == ‘__main__‘:
    spider()

原文地址:https://www.cnblogs.com/derek1184405959/p/9384050.html

时间: 2024-10-09 17:47:46

21天打造分布式爬虫-数据解析实战(三)的相关文章

爬虫数据解析的三种方式

一.正则表达式解析 常用正则表达式回顾: 单字符: . : 除换行以外所有字符 [] :[aoe] [a-w] 匹配集合中任意一个字符 \d :数字 [0-9] \D : 非数字 \w :数字.字母.下划线.中文 \W : 非\w \s :所有的空白字符包,括空格.制表符.换页符等等.等价于 [ \f\n\r\t\v]. \S : 非空白 数量修饰: * : 任意多次 >=0 + : 至少1次 >=1 ? : 可有可无 0次或者1次 {m} :固定m次 hello{3,} {m,} :至少m次

21天打造分布式爬虫-中国天气网实战(四)

4.1.中国天气网 网址:http://www.weather.com.cn/textFC/hb.shtml 解析:BeautifulSoup4 爬取所有城市的最低天气 import requests from bs4 import BeautifulSoup import html5lib def parse_page(url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/53

21天打造分布式爬虫(一)

1.1.urlopen函数的用法 #encoding:utf-8 from urllib import request res = request.urlopen("https://www.cnblogs.com/") print(res.readlines()) #urlopen的参数 #def urlopen(url, data=None, timeout=socket._GLOBAL_DEFAULT_TIMEOUT, # *, cafile=None, capath=None,

21天打造分布式爬虫-Crawl爬取小程序社区(八)

8.1.Crawl的用法实战 新建项目 scrapy startproject wxapp scrapy genspider -t crawl wxapp_spider "wxapp-union.com" wxapp_spider.py # -*- coding: utf-8 -*- import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import CrawlSpider,

21天打造分布式爬虫-urllib库(一)

1.1.urlopen函数的用法 #encoding:utf-8 from urllib import request res = request.urlopen("https://www.cnblogs.com/") print(res.readlines()) #urlopen的参数 #def urlopen(url, data=None, timeout=socket._GLOBAL_DEFAULT_TIMEOUT, # *, cafile=None, capath=None,

21天打造分布式爬虫-房天下全国658城市房源(十一)

项目:爬取房天下网站全国所有城市的新房和二手房信息 网站url分析 1.获取所有城市url http://www.fang.com/SoufunFamily.htm 例如:http://cq.fang.com/ 2.新房url http://newhouse.sh.fang.com/house/s/ 3.二手房url http://esf.sh.fang.com/ 4.北京新房和二手房url规则不同 http://newhouse.fang.com/house/s/ http://esf.fan

21天打造分布式爬虫-Selenium爬取拉钩职位信息(六)

6.1.爬取第一页的职位信息 第一页职位信息 from selenium import webdriver from lxml import etree import re import time class LagouSpider(object): def __init__(self): self.driver = webdriver.Chrome() #python职位 self.url = 'https://www.lagou.com/jobs/list_python?labelWords

爬虫-数据解析-bs4

1.数据解析 解析: 根据指定的规则对数据进行提取 作用: 实现聚焦爬虫 数据解析方式: - 正则表达式 - bs4 - xpath 数据解析的通用原理: 数据解析需要作用在页面源码中(一组html标签组成的) html:的核心作用是展示数据 通用原理: 标签定位 获取文本或者属性 正则表达式实现数据解析 # 需求:爬取糗事百科中糗图数据 import requests headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64;

python3下scrapy爬虫(第十三卷:scrapy+scrapy_redis+scrapyd打造分布式爬虫之配置)

之前我们的爬虫都是单机爬取,也是单机维护REQUEST队列, 看一下单机的流程图: 一台主机控制一个队列,现在我要把它放在多机执行,会产生一个事情就是做重复的爬取,毫无意义,所以分布式爬虫的第一个难点出来了,共享请求队列,看一下架构: 三台主机由一个队列控制,意味着还需要一个主机来控制队列,我们一般来用REDIS来控制队列,形成如下分布式架构 从机抓取,存储主机负责控制队列 SCRAPY_REDIS这个插件解决了SCRAPY不能做分布式爬取的问题 它内部的CONNECTION.PY作为连接MAS