python爬虫,一段完整的python爬虫批量下载网站图片资源的代码

# 本程序为爬虫学习代码,成功爬取了漫微网站上的全部图片内容
import re
import os
import requests

def getHTMLText(url):
    try:
        r=requests.get(url)
        r.raise_for_status()
        r.encoding=r.apparent_encoding
        return r.text
    except:
        print("request failed")

url = ‘http://marvel.mtime.com/‘ # 漫微网址
web_data = getHTMLText(url)  # web_data保存目标url的html代码内容
res = re.compile(r‘src="(.+?.jpg)"‘) # 定义查询规则,所有以src开头,中间包含任意多个字符的,并且结尾为.jpg的文件被
                                    #提取并保存
reg = re.findall(res, web_data) # 在web_data中找到并提取满足res规则的全部字符串,并保存在reg列表
for i in reg:
    target_url = url + i      # 变量target_url获得图片的url
    try:
        pic = requests.get(target_url).content # 从target_url下载了图片,并以二进制的形式保存在变量pic中
    except:
        print(target_url + ‘can not open‘)
    res = re.compile(r‘images/(.+?.jpg)‘)
    pic_name = re.findall(res, i)[0]  #提取图片文件名,从结果数组第[0]个元素获得具体文件名
    print(pic_name)
    with open(pic_name, ‘wb‘) as f:
        f.write(pic)

原文地址:https://www.cnblogs.com/iceberg710815/p/12240408.html

时间: 2024-07-30 12:20:07

python爬虫,一段完整的python爬虫批量下载网站图片资源的代码的相关文章

使用Python批量下载网站图片

  在网上冲浪的时候,总有些"小浪花"令人喜悦.没错,小浪花就是美图啦.边浏览边下载,自然是不错的:不过,好花不常开,好景不常在,想要便捷地保存下来,一个个地另存为还是很麻烦的.能不能批量下载呢? 只要获得图片地址,还是不难的. 目标  太平洋摄影网, 一个不错的摄影网站. 如果你喜欢自然风光的话,不妨在上面好好饱览一顿吧.饱览一顿,或许你还想打包带走呢.这并不是难事,让我们顺藤摸瓜地来尝试一番吧(懒得截图,自己打开网站观赏吧). 首先,我们打开网址 http://dp.pconlin

一段完整的批量下载网站视频资源的python爬虫代码(附注解)

# 本程序为学习代码,成功爬取了'梨视频'网站的全部视频文件,并保存在video文件夹 import os import re import requests def getHTMLText(url): try: r=requests.get(url) r.raise_for_status() r.encoding=r.apparent_encoding return r.text except: print("request failed") url = 'https://www.p

Python编程快速上手(七)Unsplash批量下载器

首发于个人博客:http://rhinoc.top/post/python_7.html 程序描述 V1.0输入关键字搜索图片,模拟页面下拉获取更多图片,页面加载完成后获取图片链接并下载至指定文件夹. V2.0解决了V1.0版本存在的两个严重问题.更改为深入二级链接获取图片,从而不再需要等待一级页面加载完毕. 涉及知识点 selenium bs4 iter_content() javascript V1.0存在的问题 & V2.0的解决方法 获取图片链接需要预先对页面进行加载,下载图片时相当于进

Python抓取网页&批量下载文件方法初探(正则表达式+BeautifulSoup) (转)

Python抓取网页&批量下载文件方法初探(正则表达式+BeautifulSoup) 最近两周都在学习Python抓取网页方法,任务是批量下载网站上的文件.对于一个刚刚入门python的人来说,在很多细节上都有需要注意的地方,以下就分享一下我在初学python过程中遇到的问题及解决方法. 一.用Python抓取网页 基本方法: [python] view plaincopyprint? import urllib2,urllib url = 'http://www.baidu.com' req 

2019最新Python学习教程(Python学习路线_Python爬虫教程)爬虫工程师必备的10个爬虫工具

2019最新Python学习教程(Python学习路线_Python爬虫教程)爬虫工程师必备的10个爬虫工具 爬虫工程师必备的10个爬虫工具! 最近很多学爬虫的伙伴让推荐顺手的爬虫工具,总结了一下,把这些好用的爬虫工具都跟你们找齐活了! 磨刀不误砍柴工!都知道工欲善其事必先利其器,那么作为经常要和各大网站做拉锯战的爬虫工程师们,更需要利用利用好身边的一切法器,才能更快的攻破对方防线.这里以日常爬虫流程,给大家介绍十款爬虫工具,相信大家掌握以后,工作效率提高是完全没有问题了! 大家也可以看看有你们

Python爬虫之足球小将动漫(图片)下载

??尽管俄罗斯世界杯的热度已经褪去,但这届世界杯还是给全世界人民留下了无数难忘的回忆,不知你的回忆里有没有日本队的身影?本次世界杯中,日本队的表现让人眼前一亮,很难想象,就是这样一只队伍,二十几年还是我们国家足球队的水平一样,也许还不如我们国足呢. ??足球小将(队长小翼.キャプテン翼)由日本著名动漫家高桥阳一于1981年开始连载,从此这部动漫就伴随着一代又一代的日本,甚至全世界的少年儿童成长,也在无形有形中促进了日本足球的进步.本届世界杯中,在日本与比利时的比赛中,日本球迷们高举队长小翼的画面

Python爬虫工作好做吗?爬虫工作发展前景如何呢?

为什么网上Python爬虫教程这么多,但是做爬虫的这么少呢?爬虫发展又该是如何呢? 我们来看看一篇深入前线的小哥的分析. 关于爬虫的技术要求: 爬虫掌握熟练的话,包括简单的mysql语句.html和css简单的知识以及最厉害的scrapy爬虫框架,基本上就可以去尝试海投一下爬虫岗位.创一个小群,供大家学习交流聊天如果有对学python方面有什么疑惑问题的,或者有什么想说的想聊的大家可以一起交流学习一起进步呀.也希望大家对学python能够持之以恒python爱好群,如果你想要学好python最好

为什么写爬虫,我们要选择Python

记得有次发现有些网页抓不下来,开始好久都找不着头脑,废了九牛二虎之力,终于发现是http请求处理的问题.深入代码才看到,http协议的这部分代码都是写这个人自己实现的,只是实现了最基本的协议,也就是,建立socket连接,发送请求,然后通过socket接收数据,解析响应头(response headers).然而这个响应头连http重定向都没有处理,凡是重定向的响应就都失败了,自然那些网页就抓不下来了. 为了抓到那些响应,我们就不得不继续完善http协议的解析功能,贡献了很多代码.. 为什么要自

Python有了asyncio和aiohttp在爬虫这类型IO任务中多线程/多进程还有存在的必要吗?

最近正在学习Python中的异步编程,看了一些博客后做了一些小测验:对比asyncio+aiohttp的爬虫和asyncio+aiohttp+concurrent.futures(线程池/进程池)在效率中的差异,注释:在爬虫中我几乎没有使用任何计算性任务,为了探测异步的性能,全部都只是做了网络IO请求,就是说aiohttp把网页get完就程序就done了. 结果发现前者的效率比后者还要高.我询问了另外一位博主,(提供代码的博主没回我信息),他说使用concurrent.futures的话因为我全