python批量下载图片的三种方法

  一是用微软提供的扩展库win32com来操作IE:

win32com可以获得类似js里面的document对象,但貌似是只读的(文档都没找到)。

  二是用selenium的webdriver:

selenium则提供了Chrome,IE,FireFox等的支持,每种浏览器都有execute_script和find_element_by_xx方法,可以方便的执行js脚本(包括修改元素)和读取html里面的元素。不足是selenium只提供对python2.6和2.7的支持。

  三是用python自带的HTMLParser解析:

HTMLParser则是需要自己写个类继承基类,重写解析元素的方法。

1.win32com

 1 #将滚动条滑到底,最多滑动20000像素
 2 #模拟键盘右键,查看多张图片
 3 import sys
 4 import win32com.client,win32api
 5 import urllib.request
 6 import time
 7 import os
 8 def main():
 9     #获取参数
10     url=sys.argv[1]
11     #操作IE
12     ie=win32com.client.Dispatch("InternetExplorer.Application")
13     ie.Navigate(url)
14     ie.Visible=True
15     last_url=‘‘
16     dir_name=‘‘
17     while last_url!=url:
18         print(‘\nThe URL is:‘,url,‘\n‘)
19         while ie.ReadyState != 4:
20             time.sleep(1)
21         while ie.Document.readyState != "complete":
22             time.sleep(1)
23         #滑动滚动条
24         win=ie.Document.parentWindow
25         lastY=-1;
26         for i in range(40):
27             win.scrollTo(0,500*i)
28             nowY=win.pageYOffset
29             if(nowY==lastY):
30                 break
31             lastY=nowY
32             time.sleep(0.4)
33         print(‘Document load state:‘,ie.Document.readyState)
34         doc=ie.Document
35         #第一次需要创建目录
36         if(dir_name==‘‘):
37             root_dir=‘E:\\img‘
38             dir_name=root_dir+‘\\‘+doc.title
39             dir_name=dir_name.replace(‘|‘,‘-‘)
40             if(os.path.exists(root_dir)!=True):
41                 os.mkdir(root_dir)
42             if(os.path.exists(dir_name)!=True):
43                 os.mkdir(dir_name)
44         all_image=doc.images
45         print(‘共有‘,all_image.length,‘张图片‘)
46         count=0;
47         for img in all_image:
48             if(img.id==‘b_img‘):
49                 count=count+1
50                 print(count,img.src)
51                 time.sleep(1)
52                 img_file=urllib.request.urlopen(img.src)
53                 byte=img_file.read()
54                 print(count,‘donwload complete!‘,‘-‘*10,‘size:‘,‘{:.3}‘.format(byte.__len__()/1024),‘KB‘)
55                 if(byte.__len__()>7000):
56                     file_name=img.src.replace(‘/‘,‘_‘)
57                     file_name=file_name.replace(‘:‘,‘_‘)
58                     end=file_name.__len__()
59                     if(file_name.rfind(‘!‘)!=-1):
60                         end=file_name.rfind(‘!‘)
61                     if(file_name.rfind(‘?‘)!=-1):
62                         end=file_name.rfind(‘?‘)
63                     file_name=file_name[:end]
64                     write_file=open(dir_name+‘\\‘+file_name,‘wb‘)
65                     write_file.write(byte)
66                     write_file.close()
67                     print(count,file_name,‘complete!‘)
68         #下一张
69         last_url=url
70         win32api.keybd_event(39,0)
71         time.sleep(1)
72         url=ie.Document.url
73         print(last_url,url)
74     #ie.Quit()
75 if __name__ == ‘__main__‘:
76     main()

2.selenium

 1 # -*- coding: cp936 -*-
 2 import sys
 3 import urllib
 4 import time
 5 import os
 6 from selenium import webdriver
 7 def main():
 8     #获取参数
 9     url=sys.argv[1]
10     #操作IE
11     driver=webdriver.Chrome()
12     driver.get(url)
13     driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
14     #创建目录
15     dir_name=driver.find_element_by_tag_name(‘title‘).text
16     print dir_name
17     root_dir=‘E:\\img‘
18     dir_name=root_dir+‘\\‘+dir_name
19     dir_name=dir_name.replace(‘|‘,‘-‘)
20     if(os.path.exists(root_dir)!=True):
21         os.mkdir(root_dir)
22     if(os.path.exists(dir_name)!=True):
23         os.mkdir(dir_name)
24     images=driver.find_elements_by_tag_name(‘img‘)
25     count=0
26     for image in images:
27         count=count+1
28         image_url=str(image.get_attribute(‘src‘))
29         img_file=urllib.urlopen(image_url)
30         byte=img_file.read()
31         print count,‘donwload complete!‘,‘-‘*10,‘size:‘,byte.__len__()/1024,‘KB‘
32         if(byte.__len__()>7000):
33             file_name=image_url.replace(‘/‘,‘_‘)
34             file_name=file_name.replace(‘:‘,‘_‘)
35             end=file_name.__len__()
36             if(file_name.rfind(‘!‘)!=-1):
37                 end=file_name.rfind(‘!‘)
38             if(file_name.rfind(‘?‘)!=-1):
39                 end=file_name.rfind(‘?‘)
40             file_name=file_name[:end]
41             write_file=open(dir_name+‘\\‘+file_name,‘wb‘)
42             write_file.write(byte)
43             write_file.close()
44             print count,file_name,‘complete!‘
45     driver.quit()
46 if __name__ == ‘__main__‘:
47     main()

3.HTMLParser:

 1 # import modules used here -- sys is a very standard one
 2 import sys
 3 import urllib.request
 4 # Gather our code in a main() function
 5 from html.parser import HTMLParser
 6 class MyHTMLParser(HTMLParser):
 7     def handle_starttag(self,tag,attrs):
 8         if(tag==‘img‘):
 9             for attr in attrs:
10                 if(attr[0]==‘src‘):
11                     img_file=urllib.request.urlopen(attr[1])
12                     byte=img_file.read()
13                     #文件大于1000b则生成文件,添加计数,下载多少图片,显示html代码
14                     if(byte.__len__()>1000):
15                         file_name=attr[1].replace(‘/‘,‘_‘)
16                         file_name=file_name.replace(‘:‘,‘_‘)
17                         end=file_name.__len__()
18                         if(file_name.rfind(‘!‘)!=-1):
19                             end=file_name.rfind(‘!‘)
20                         if(file_name.rfind(‘?‘)!=-1):
21                             end=file_name.rfind(‘?‘)
22                         file_name=file_name[:end]
23 ##                        print(file_name)
24                         write_file=open(‘E:\\img\\‘+file_name,‘wb‘)
25                         write_file.write(byte)
26                         write_file.close()
27 def main():
28     #获取参数
29     url=sys.argv[1]
30     print(‘\nThe URL is:‘,url,‘\n‘)
31     #读取url所指向的资源
32     html_file=urllib.request.urlopen(url)
33     byte_content=html_file.read()
34     #将html网页保存起来
35     url_file=open(‘E:\\img\\html\\result.htm‘,‘wb‘)
36     url_file.write(byte_content)
37     url_file.close()
38     #从字节转换为字符串
39     s=str(byte_content, encoding = "utf-8")
40     #print(s)
41     #bytes.decode(html_file.read())
42     parser=MyHTMLParser(strict=False)
43     parser.feed(s)
44 # Standard boilerplate to call the main() function to begin
45 # the program.
46 if __name__ == ‘__main__‘:
47     main()
时间: 2024-10-14 00:02:11

python批量下载图片的三种方法的相关文章

Android TextView里直接显示图片的三种方法

方法一:重写TextView的onDraw方法,也挺直观就是不太好控制显示完图片后再显示字体所占空间的位置关系.一般如果字体是在图片上重叠的推荐这样写.时间关系,这个不付源码了. 方法二:利用TextView支持部分Html的特性,直接用api赋图片.代码如下: //第一种方法在TextView中显示图片 String html = "<img src='" + R.drawable.circle + "'/>"; ImageGetter imgGett

Python爬取网页的三种方法

# Python爬取网页的三种方法之一:  使用urllib或者urllib2模块的getparam方法 import urllib fopen1 = urllib.urlopen('http://www.baidu.com').info() fopen2 = urllib2.urlopen('http://www.sina.com').info() print fopen1.getparam('charset') print fopen2.getparam('charset') #----有些

python下载文件的三种方法

Python开发中时长遇到要下载文件的情况,最常用的方法就是通过Http利用urllib或者urllib2模块. 当然你也可以利用ftplib从ftp站点下载文件.此外Python还提供了另外一种方法requests. 下面来看看三种方法是如何来下载zip文件的:方法一: import urllib import urllib2 import requests print "downloading with urllib" url = 'http://***/test/demo.zip

url下载网页的三种方法

# -*- coding: utf-8 -*- import cookielib import urllib2 url = "http://www.baidu.com" print "第一种方法" response1 = urllib2.urlopen(url) print response1.getcode() print len(response1.read()) print "第二种方法" res = urllib2.Request(url

用python批量下载图片

一 写爬虫注意事项 网络上有不少有用的资源, 如果需要合理的用爬虫去爬取资源是合法的,但是注意不要越界,前一阶段有个公司因为一个程序员写了个爬虫,导致公司200多个人被抓,所以先进入正题之前了解下什么样的爬虫是违法的: 如果爬虫程序采集到公民的姓名.身份证件号码.通信通讯联系方式.住址.账号密码.财产状况.行踪轨迹等个人信息,并将之用于非法途径的,则肯定构成非法获取公民个人信息的违法行为.除此之外,根据相关规定,对于违反国家有关规定,向他人出售或者提供公民个人信息,情节严重的,窃取或者以其他方法

Android--从网络获取图片的三种方法

android中获取网络图片是一件耗时的操作,如果直接获取有可能会出现应用程序无响应(ANR:Application Not Responding)对话框的情况.对于这种情况,一般的方法就是耗时操作用线程来实现.下面列三种获取url图片的方法: 1.直接获取:(容易:ANR,不建议) mImageView = (ImageView)this.findViewById(R.id.imageThreadConcept) ;Drawable drawable = loadImageFromNetwor

Jenkins 批量创建任务的三种方法

最近,要搭建多套测试环境,需要把 Jenkins 中 dev 视图下的所有任务批量复制到 sit 等视图下. 说明 Jenkins 任务名称规则为:[测试环境标识]-[工程名称],如:dev-daodaotest,sit-daodaotest. 视图中显示任务的正则表达式:[测试环境标识]-.* ,如:dev-.*,sit-.*. 第一种:目录下批量复制 Jenkins 的任务都是以 xml 文件方式存储的,所有可以通过复制 xml 的方式来批量创建. # 进入 jobs 目录下 $ cd ~/

Python 批量下载图片示例

使用Python find函数和urllib下载图片. #!/usr/bin/env python import time import urllib i = 0 url = ['']*10 name = ['']*10 con = urllib.urlopen('http://www.ithome.com/html/bizhi/164396.htm').read() src = con.find(r'/newsuploadfiles') end = con.find(r'.jpg',src)

python实现fibonacci数列的三种方法

第一种:递归法 def fibo(n): if n < 3: return 1 return fibo(n-1) + fibo(n-2) print(fibo(6)) 第二种:循环 1 def fibo1(n): 2 a, b = 1, 1 3 for i in range(n): 4 a, b = b, a+b 5 return a 6 7 print(fibo1(6)) 第三种:生成器 1 def fibo2(n): 2 a, b = 1, 1 3 while n: 4 yield a 5