python shell 爬虫 妹子图片

最近开始学Python,人们学一门语言潜移默化的第一个命令往往那个就是 hello world!

这里也差不多,用python写了个小爬虫,爬妹子图的"照片".感觉效率好慢,应该是代码的问题,

在此献丑了!!!

需要安装两个好用的库,分别是 requests 和 Beautifulsoup,安装十分简单回头补上!

嗯~就这样

代码在 Python 2.7.8  以及 Python 3.4.1 下都可以测试通过!

#coding:utf-8
import requests
from bs4 import BeautifulSoup
import re
DownPath = "/jiaoben/python/meizitu/pic/"
import urllib
head = {‘User-Agent‘:‘Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6‘}
TimeOut = 5
PhotoName = 0
c = ‘.jpeg‘
PWD="/jiaoben/python/meizitu/pic/"
for x in range(1,4):
  site = "http://www.meizitu.com/a/qingchun_3_%d.html" %x
  Page = requests.session().get(site,headers=head,timeout=TimeOut)
  Coding =  (Page.encoding)
  Content = Page.content#.decode(Coding).encode(‘utf-8‘)
  ContentSoup = BeautifulSoup(Content)
  jpg = ContentSoup.find_all(‘img‘,{‘class‘:‘scrollLoading‘})
  for photo in jpg:
    PhotoAdd = photo.get(‘data-original‘)
    PhotoName +=1
    Name =  (str(PhotoName)+c)
    r = requests.get(PhotoAdd,stream=True)
    with open(PWD+Name, ‘wb‘) as fd:
        for chunk in r.iter_content():
                fd.write(chunk)
print ("You have download %d photos" %PhotoName)

#在放一个以前用shell写的下载煎蛋妹子图片的代码吧!

页码自己嵌套一个for 就可以下载多点妹子图了~懒得弄了!

#!/bin/bash
DATE=`date +%y%m%d-%H:%M`
PITCURE_ADDRESS="/jiaoben/python/meizitu/pic"
BROWSER="Mozil5.0 (Windows NT 6.1; WOW64; rv:32.0) Gecko/20100101 Firefox/32.0"
read -p "down number: " page
WEBSITE="http://jandan.net/ooxx/page-"${page}""
SOURCE_WEBSITE="http://jandan.net/ooxx"

#read -p "down number: " page

#photo=`curl -A $"BROWSER" -m 10 -e $SOURCE_WEBSITE  $WEBSITE |awk -F"://" ‘/.jpg/  {print $3}‘ |awk ‘{FS="\""}{print $1}‘ `
#curl -A "Mozil5.0 (Windows NT 6.1; WOW64; rv:32.0) Gecko/20100101 Firefox/32.0" -m 10 -e "http://jandan.net/ooxx"  "http://jandan.net/ooxx/page-1210" |awk -F"://" ‘/.jpg/  {print $3}‘|awk -F"\"" ‘{print $1}‘
photo=`curl -A $"BROWSER" -m 10 -e $SOURCE_WEBSITE  $WEBSITE |awk -F"://" ‘/.jpg/  {print $3}‘|awk -F"\"" ‘{print $1}‘`

number=`$photo|wc -l`
for i in $photo
do
wget -q  -T 10 -P $PITCURE_ADDRESS  $i >/dev/null
name=‘echo ${i##*/}‘
number=$((number+1))

/bin/mv ${PITCURE_ADDRESS}${i##*/} ${PITCURE_ADDRESS}$page-$number.jpg
done
时间: 2024-10-10 17:28:04

python shell 爬虫 妹子图片的相关文章

爬虫学习 08.Python网络爬虫之图片懒加载技术、selenium和PhantomJS

爬虫学习 08.Python网络爬虫之图片懒加载技术.selenium和PhantomJS 引入 今日概要 图片懒加载 selenium phantomJs 谷歌无头浏览器 知识点回顾 验证码处理流程 今日详情 动态数据加载处理 一.图片懒加载 什么是图片懒加载? 案例分析:抓取站长素材http://sc.chinaz.com/中的图片数据 #!/usr/bin/env python # -*- coding:utf-8 -*- import requests from lxml import

Python 网络爬虫(图片采集脚本)

===============爬虫原理================== 通过Python访问网站,获取网站的HTML代码,通过正则表达式获取特定的img标签中src的图片地址. 之后再访问图片地址,并通过IO操作将图片保存到本地. ===============脚本代码================== import urllib.request # 网络访问模块 import random # 随机数生成模块 import re # 正则表达式模块 import os # 目录结构处理模

Python网络爬虫之图片懒加载技术、selenium和PhantomJS

一.什么是图片懒加载? - 案例分析:抓取站长素材http://sc.chinaz.com/中的图片数据 #!/usr/bin/env python # -*- coding:utf-8 -*- import requests from lxml import etree if __name__ == "__main__": url = 'http://sc.chinaz.com/tupian/gudianmeinvtupian.html' headers = { 'User-Agen

利用Python多线程爬虫——爬图片

程序功能大概就是爬取每个网页中的图片,并根据标题,分文件保存至指定目录,使用threading实现多线程. 主要流程为每访问一个网页,将此网页中的图片链接依次放入队列,根据图片数量依次开启下载线程,传入队列和编号,然后启动线程开始下载,主线程查询当前正在活动的线程数量,当数量为1的时候,即只剩主线程的时候,表示所有图片下载完毕,开始下一个网页. class threadDownload(threading.Thread): def __init__(self,que,no): threading

Python网络爬虫 - 下载图片

下载博客园的logo from urllib.request import urlretrieve from urllib.request import urlopen from bs4 import BeautifulSoup html = urlopen("http://www.cnblogs.com") bsObj = BeautifulSoup(html, "html.parser") imageLocation = bsObj.find("div

python之爬虫技术

概述 近年来,随着网络应用的逐渐扩展和深入,如何高效的获取网上数据成为了无数公司和个人的追求,在大数据时代,谁掌握了更多的数据,谁就可以获得更高的利益,而网络爬虫是其中最为常用的一种从网上爬取数据的手段.网络爬虫,即Web Spider,是一个很形象的名字.如果把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛.网络蜘蛛是通过网页的链接地址来寻找网页的.从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环

python实现爬虫下载美女图片

python实现爬虫下载美女图片 本次爬取的贴吧是百度的美女吧,给广大男同胞们一些激励 在爬取之前需要在浏览器先登录百度贴吧的帐号,各位也可以在代码中使用post提交或者加入cookie 爬行地址:http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn=0 #-*- coding:utf-8 -*- import urllib2 import re import requests from lxml import etree 这

Python练习册 第 0013 题: 用 Python 写一个爬图片的程序,爬 这个链接里的日本妹子图片 :-),(http://tieba.baidu.com/p/2166231880)

这道题是一道爬虫练习题,需要爬链接http://tieba.baidu.com/p/2166231880里的所有妹子图片,点进链接看一下,这位妹子是日本著名性感女演员--杉本由美,^_^好漂亮啊,赶紧开始爬吧. 以下就是我的爬虫步骤: 一.获取页面 虽然request和beautifulsoup模块方便又好用,但是我还是决定使用传统的urllib和urllib模块,毕竟对这两个模块熟悉之后,就能基本明白爬虫的原理和实现啦. 首先是导入模块,除了前面提到的两个模块,我们还要导入re模块,使用正则表

Python Show-Me-the-Code 第 0013 题 抓取妹子图片 使用scrapy

第 0013 题: 用 Python 写一个爬图片的程序,爬 这个链接里的日本妹子图片 :-) 参考代码 完整代码 思路: 其实这个可以不用scrapy,就用正则匹配+request应该就可以完成任务了.我想练习下scrapy,于是就用scrapy做这个了. 这个只要求爬一个网页上的图片,所以也不用写什么follow规则,算是比较简单的.通过分析链接里的妹子图片的标签,发现百度贴吧里发的图片是带BDE_Image这个类的,所以就好办了,直接用xpath把所有img标签中带BDE_Image类的全