Python爬虫获取图片并下载保存至本地的实例

今天小编就为大家分享一篇Python爬虫获取图片并下载保存在本地的实例,具有很好的参考价值,希望对大家有所帮助。一起来看看吧!

1.抓取煎蛋网上的图片

2.代码如下

* * *

import urllib.request

import os

def url_open(url):

 req=urllib.request.Request(url)

 req.add_header(‘User-Agent‘,‘Mozilla/5.0 (Windows NT 6.3; WOW64; rv:51.0) Gecko/20100101 Firefox/51.0‘)

 response=urllib.request.urlopen(url)

 html=response.read()

 return html

#
to get the num of page like 1,2,3,4...

def get_page(url):

 html=url_open(url).decode(‘utf-8‘)

 a=html.find(‘current-comment-page‘)+23 #add the 23 offset th arrive at the [2356]

 b=html.find(‘]‘,a)

 print(html[a:b])

 return html[a:b]

find the url of imgs and return the url of arr

def find_imgs(url):

 html=url_open(url).decode(‘utf-8‘)

 img_addrs=[]

 a=html.find(‘img src=‘)

 while a!=-1:

  b=html.find(‘.jpg‘,a,a+255) # if false : return -1

  if b!=-1:

   img_addrs.append(‘http:‘+html[a+9:b+4])

  else:

   b=a+9

  a=html.find(‘img src=‘,b)

print(img_addrs) 

 return img_addrs

 print(‘http:‘+each)

save the imgs

def save_imgs(folder,img_addrs):

 for each in img_addrs:

  filename=each.split(‘/‘)[-1] #get the last member of arr,that is the name

  with open(filename,‘wb‘) as f:

   img = url_open(each)

   f.write(img)

def download_mm(folder=‘mm‘,pages=10):

 os.mkdir(folder)

 os.chdir(folder)

 url=‘http://jandan.net/ooxx/‘

 page_num=int(get_page(url))

 for i in range(pages):

  page_num -= i

  page_url = url + ‘page-‘ + str(page_num) + ‘#comments‘

  img_addrs=find_imgs(page_url)

  save_imgs(folder,img_addrs)

if __name__ == ‘__main__‘:

 download_mm()

* * *

以上这篇Python爬虫获取图片并下载保存至本地的实例就是小编分享给大家的全部内容了,希望给大家一个参考,也希望大家多多支持小编!

那这边有需要Python中文软件,各种书籍、视频的小伙伴!可以加QQ群:838197940!进群备注“资料”既可免费获取!

原文地址:https://www.cnblogs.com/tiao/p/9434061.html

时间: 2024-10-10 17:14:08

Python爬虫获取图片并下载保存至本地的实例的相关文章

python爬虫获取图片

import re import os import urllib #根据给定的网址来获取网页详细信息,得到的html就是网页的源代码 def getHtml(url): page = urllib.request.urlopen(url) html = page.read() return html.decode('UTF-8') def getImg(html): reg = r'src="(.+?\.jpg)" pic_ext' imgre = re.compile(reg) i

通过公开的API获取图片并且下载保存

首页显示 1 <script type="text/javascript" src="scripts/jquery-2.2.1.js"></script> 2 <script type="text/javascript"> 3 $(function(){ 4 $("#button1").click(function(){ 5 $.post("GsonServlet", 6

SpringMVC上传文件(图片)并保存到本地

SpringMVC上传文件(图片)并保存到本地 小记一波~ 基本的MVC配置就不展示了,这里给出核心代码 在spring-mvc的配置文件中写入如下配置 <bean id="multipartResolver" class="org.springframework.web.multipart.commons.CommonsMultipartResolver"> <property name="maxUploadSize">

[python][爬虫]从网页中下载图片

说明:仅为测试下载图片.正则表达式 测试url为钢铁侠贴吧的一个介绍mark各代盔甲帖子 以下代码将第一页的图片全部下载到本程序根目录 #!/usr/bin/env python #! -*- coding: utf-8 -*- import urllib,urllib2 import re #返回网页源代码 def getHtml(url): html = urllib2.urlopen(url) srcCode = html.read() return srcCode def getImg(

Python爬虫(图片)编写过程中遇到的问题

最近我突然对网络爬虫开窍了,真正做起来的时候发现并不算太难,都怪我以前有点懒,不过近两年编写了一些程序,手感积累了一些肯定也是因素,总之,还是惭愧了.好了,说正题,我把这两天做爬虫的过程中遇到的问题总结一下: 需求:做一个爬虫,爬取一个网站上所有的图片(只爬大图,小图标就略过) 思路:1.获取网站入口,这个入口网页上有很多图片集合入口,进入这些图片集合就能看到图片链接了,所以爬取的深度为2,比较简单:2.各个子图片集合内所包含的图片链接有两种形式:一种是绝对图片路径(直接下载即可),另一种的相对

Python爬虫 网页图片

一 概述 参考http://www.cnblogs.com/abelsu/p/4540711.html 弄了个Python捉取单一网页的图片,但是Python已经升到3+版本了.参考的已经失效,基本用不上.修改了下,重新实现网页图片捉取. 二 代码 #coding=utf-8 #urllib模块提供了读取Web页面数据的接口 import urllib #re模块主要包含了正则表达式 import re import urllib.parse import urllib.request #定义一

[python][爬虫]暴漫gif下载

说明:和上一个下载百度贴吧图片差不多,修改了正则,加入了页码控制 #!/usr/bin/env python #! -*- coding: utf-8 -*- #图片地址样例:src="http://ww2.sinaimg.cn/large/005Yan1vjw1erf95qkbfog307e08uu0y.gif" style="width:460px" import urllib,urllib2 import re #返回网页源代码 def getHtml(url

python爬虫开发之urllib模块详细使用方法与实例全解

爬虫所需要的功能,基本上在urllib中都能找到,学习这个标准库,可以更加深入的理解后面更加便利的requests库. 首先 在Pytho2.x中使用import urllib2——-对应的,在Python3.x中会使用import urllib.request,urllib.error 在Pytho2.x中使用import urllib——-对应的,在Python3.x中会使用import urllib.request,urllib.error,urllib.parse 在Pytho2.x中使

scrapy爬虫系列之三--爬取图片保存到本地及日志的基本用法

功能点:如何爬取图片,并保存到本地 爬取网站:斗鱼主播 完整代码:https://files.cnblogs.com/files/bookwed/Douyu.zip 主要代码: douyu.py import scrapy import json from Douyu.items import DouyuItem class DouyuSpider(scrapy.Spider): name = 'douyu' allowed_domains = ['douyucdn.cn'] base_url