爬虫===下载图片的方法

方法一:

import urllib.request

for x in range(1,21):
    urllib.request.urlretrieve("http://url/"+str(x)+".jpg", ‘%s.jpg‘ % x)

方法二:

推荐

import requests

for i, j in enumerate(range(1,21)):
    with open(‘{0}.jpg‘.format(i), ‘wb‘) as file:
        file.write(requests.get(‘https://meiriyiwen.com/images/new_feed/bg_‘+str(j)+‘.jpg‘).content)


import requests
for i, j in enumerate(imgUrlList):
    with open(‘E:/{0}.jpg‘.format(i), ‘wb‘) as file:
        file.write(requests.get(j).content)

enumerate函数的功能简单解释,例如:

list_ = [‘a‘, ‘b‘, ‘c‘]
for i, j in enumerate(list_):
    print([i, j])

输出结果:

[0, ‘a‘]
[1, ‘b‘]
[2, ‘c‘]

在这里 i 迭代的是list_的索引值,j 迭代的是元素值!

原文地址:https://www.cnblogs.com/botoo/p/8549570.html

时间: 2024-10-03 21:17:48

爬虫===下载图片的方法的相关文章

使用爬虫下载图片

import urllib#调用urllib模块 import re#调用正则模块 def getHtml(url): if url is None:#如果url为空的话直接return return html=urllib.urlopen(url)#使用urllib.urlopen打开网页 if html.getcode()!=200: return page=html.read()#返回网页信息 return page def getImg(page): if page is None: r

使用SDWebImage下载图片,sharedDownloader方法下载成功,new 方法下载失败

一,经历 1.使用 new 方法创建下载对象时,下载图片总是失败,而且不会执行成功或失败后的回调. 2.参考别人的代码,用的是sharedDownloader来创建下载对象,可以顺利下载图片. 3.看SDWebImage源代码,发现该源代码中sharedDownloader方法是纯粹的单例方法,同样会调用 new 方法. 4.百思不得其解后,于是我就怀疑是 new 方法创建的对象会很快被销毁,而sharedDownloader创建的下载对象不会被销毁,因此会成功下载. 二,经验总结 1.当一个方

Day3-scrapy爬虫下载图片自定义名称

学习Scrapy过程中发现用Scrapy下载图片时,总是以他们的URL的SHA1 hash值为文件名,如: 图片URL:http://www.example.com/image.jpg 它的SHA1 hash值为:3afec3b4765f8f0a07b78f98c07b83f013567a0a 则下载的图片为:3afec3b4765f8f0a07b78f98c07b83f013567a0a.jpg 目的是下载的图片为:image.jpg或者xxx.jpg 可以通过编写Pipeline来实现. 以

Python学习---网页爬虫[下载图片]

爬虫学习--下载图片 1.主要用到了urllib和re库 2.利用urllib.urlopen()函数获得页面源代码 3.利用正则匹配图片类型,当然正则越准确,下载的越多 4.利用urllib.urlretrieve()下载图片,并且可以重新命名,利用%S 5.应该是运营商有所限制,所以未能下载全部的图片,不过还是OK的 URL分析: 源码: #coding=utf-8 import re import urllib def getHtml(url): page=urllib.urlopen(u

PHP (爬虫)下载图片

原文地址:http://www.phpfensi.com/php/20140107/1128.html 通过图片地地址把图片保存到本址,这里我们直接通过readfile读取然后通过fopen保存即可,实例代码如下: <?php /** * 通过图片的远程url,下载到本地 * @param: $url为图片远程链接 * @param: $filename为下载图片后保存的文件名 */ function GrabImage($url,$filename) { if($url==""

Python网络爬虫 - 下载图片

下载博客园的logo from urllib.request import urlretrieve from urllib.request import urlopen from bs4 import BeautifulSoup html = urlopen("http://www.cnblogs.com") bsObj = BeautifulSoup(html, "html.parser") imageLocation = bsObj.find("div

【Python】python3实现网页爬虫下载图片

import re import urllib.request # ------ 获取网页源代码的方法 --- def getHtml(url): page = urllib.request.urlopen(url) html = page.read() return html # ------ getHtml()内输入任意帖子的URL ------ html = getHtml("https://tieba.baidu.com/p/5352556650") # ------ 修改ht

浏览器下载图片的方法,修改报文来实现。

public class DownloadTest : IHttpHandler { public void ProcessRequest(HttpContext context) { string f1 = context.Request["f1"];//文件流 //指定为下载操作 context.Response.ContentType = "application/octet-stream"; //附加头信息,表示保存文件时的文件名 context.Respo

我的第一个python爬虫程序(从百度贴吧自动下载图片)

这个学期开设了编译原理和形式语言与自动机,里面都有介绍过正则表达式,今天自己学了学用python正则表达式写爬虫 一.网络爬虫的定义 网络爬虫,即Web Spider,是一个很形象的名字. 把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛. 网络蜘蛛是通过网页的链接地址来寻找网页的. 从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址, 然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止. 如果把整个互联网当成