Python 2.7_爬取妹子图网站单页测试图片_20170114

1、url= http://www.mzitu.com/74100/x,2为1到23的值

2、用到模块 os 创建文件目录; re模块正则匹配目录名 图片下载地址; time模块 限制下载时间;requests模块获取网页源代码;urllib模块 urllib.urlretrieve(图片url,保存的带扩展名的文件名x.jpg)方法下载图片

3、知识点 文件目录处理  函数封装调用 全局变量

4、代码

#coding:utf-8
import os
import re
import requests as rq
import urllib
import time
#创建目录函数 保存文件位置
def create_catename():
    #取出网页的上层目录名称
    url=urls[0]
    html=rq.get(url).text
    cate_name=re.findall(r‘<a href="http://www.mzitu.com/xinggan" rel="category tag">(.*?)</a>‘,html)[0]
    path=‘D:\\%s‘ % cate_name
    return path
#下载图片 定义n为全局变量 以n计数为图片的文件名n.jpg  定义n全面变量 以免for循环时候上次循环n的值被重新赋值
def getimg():
    global n
    n=1
    for url in urls:
        html = rq.get(url).text
        regex = re.compile(‘<img src="(.*?.jpg)" alt=‘)
        img_url = re.findall(regex, html)[0]
        urllib.urlretrieve(img_url,‘%s.jpg‘ % n)
        n+=1
#main函数 调用上面的两个函数  urls是个全局变量 取23张页面 下载23张图
def main():
    global urls
    urls = [‘http://www.mzitu.com/74100/{}‘.format(str(i)) for i in range(1, 24)]
    path=create_catename()
    #创建文件目录
    os.mkdir(path)
    # 切换到该目录
    os.chdir(path)
    time.sleep(2)
    getimg()
main()

  

时间: 2024-12-27 23:57:46

Python 2.7_爬取妹子图网站单页测试图片_20170114的相关文章

Python爬虫入门教程 2-100 妹子图网站爬取

前言 从今天开始就要撸起袖子,直接写Python爬虫了,学习语言最好的办法就是有目的的进行,所以,接下来我将用10+篇的博客,写爬图片这一件事情.希望可以做好. 为了写好爬虫,我们需要准备一个火狐浏览器,还需要准备抓包工具,抓包工具,我使用的是CentOS自带的tcpdump,加上wireshark ,这两款软件的安装和使用,建议你还是学习一下,后面我们应该会用到. 网络请求模块requests Python中的大量开源的模块使得编码变的特别简单,我们写爬虫第一个要了解的模块就是requests

Python爬虫之——爬取妹子图片

首先声明,本博文为我原创,但是我在看了 崔庆才 博主的文章之后加以自己的实际处理的所得,感谢 崔庆才 博主,写的爬虫文章都好,博主文章地址:http://cuiqingcai.com/3179.html 环境:python 3.6 注:单线程版以在安卓的Qpython(py2.7)上运行成功 第三方库 requests:解析url beautifulsoup4:不会正则表达式童鞋的福音,可以容易的提取到html文件中各种标签及其属性 安装方法: pip install requests pip

Python 2.7_爬取CSDN单页面利用正则提取博客文章及url_20170113

年前有点忙,没来的及更博,最近看爬虫正则的部分 巩固下 1.爬取的单页面:http://blog.csdn.net/column/details/why-bug.html 2.过程 解析url获得网站源代码 3.找到文章标题列表和文章url(a标签下'href'属性)组成列表 4.for循环取出 #解析用到的还是urlllib urllib2两个模块 并加了个header请求表头 代码及过程如下: #coding:utf-8 import re import urllib import urll

04 爬取妹子图最热图片

参考链接:https://github.com/wzyonggege/Mzitu-Crawler/blob/master/mzitu.py 项目地址: copywang/spiders_collection 实验功能 爬取 http://www.mzitu.com/hot/ 的文章图片 先请求http://www.mzitu.com/hot/ 首页 分析首页HTML代码,用正则表达式获取一共有多少后翻页数,后续的url格式是http://www.mzitu.com/hot/页码 在"http:/

爬取千图网上的高清图片

贴下源码 配置环境:python3.5  win10 import urllib.request import re#遍历其中端午节的海报网址页数 for i in range(1,10): pageurl="http://www.58pic.com/tupian/duanwujie-800-0-"+str(i)+".html" data=urllib.request.urlopen(pageurl).read().decode("utf-8",

Scrapy爬取妹子图保存到不同目录下

进行设置settings #启动图片管道 ITEM_PIPELINES = { 'mztu.pipelines.ImagesPipelinse': 300, } #设置默认目录地址 注意下载图片的话默认地址必须设置!!! IMAGES_STORE = "E:\study\Python\scrapy\mztu\imges" #设置图片通道失效时间 IMAGES_EXPIRES =90 #缩略图生成 #IMAGES_THUMBS = { # 'small': (50, 50), # 'bi

Python 爬虫5——爬取并下载网页指定规格的图片

看完上篇文档之后,我们对于正则表达式已经有了基本的了解,其实学习最有效的办法就是带着问题和目的,这里我们假设有一个目标:获取某个网页上指定规格的图片的链接地址,并下载到本地. 一.实现步骤: 1.在浏览器中打开某个网页,例如:http://tieba.baidu.com/p/4691693167 2.假设我们要下载该页面中的几张大图,那么我们需要获取图片的url,这其实需要有两步操作来获取,一是先知道该图片的url,二是查看当前网页的html内容找到包含此url地址的格式,这样我们就能通过正则表

使用Python下载妹子图网站图片

最近在学习Python的爬虫部分.看到有网友在分享使用爬虫爬取各种网站的图片的代码,也想自己写个玩玩.今天花时间分析了一下妹子图网站的结构和HTML代码,使用urllib2和BeautifulSoup写出了一个自动下载妹子图网站图片的脚本. 妹子图网址:http://www.mzitu.com 运行效果如下: 源代码如下,请各位大神指教: # -*- coding:utf8 -*- # Python:         2.7.8 # Platform:       Windows # Autho

python爬虫实例——爬取歌单

学习自http://www.hzbook.com/index.php/Book/search.html 书名:从零开始学python网络爬虫 爬取酷狗歌单,保存入csv文件 直接上源代码:(含注释) import requests #用于请求网页获取网页数据 from bs4 import BeautifulSoup #解析网页数据 import time #time库中的sleep()方法可以让程序暂停 import csv ''' 爬虫测试 酷狗top500数据 写入csv文件 ''' fp