用python自动下载官网最新发布的新卡

学习+兴趣结合联系爬取图片(感觉还行,就是有点慢,135张图片花了37秒,改天用多线程试试):

#encoding=utf-8import requests,re,os,timefrom bs4 import BeautifulSoup

class Stone():    #获取照片url    def get_url(self):        #创建图片链接列表        pictures = []        url = ‘http://hs.blizzard.cn/article/16/11477‘        urls = requests.get(url)        t = urls.content        soup =BeautifulSoup(t,"html.parser")        #获取所有链接的元素        pic_div = soup.find_all(‘img‘,style="border: none; box-shadow: none;")        #循环将图片链接加到pictures列表中        for i in pic_div:            png_rl = i["src"]            pictures.append(png_rl)        return pictures

#下载图片    def download(self,pictures):        t = 1 #用数字给文件命名        for i in pictures:            #获取当前文件路径,事先创建好存储图片的文件夹stone            with open(os.getcwd() + "\\stone\\" +"%d.png" %t,‘wb‘) as f:                f.write(requests.get(i).content)                t+=1  #每过一张文件名就加1

t = Stone()pictures = t.get_url()print u"开始时间:"+time.strftime("%Y-%m-%d %H:%M:%S",time.localtime(time.time()))t.download(pictures)print u"下载完成"print u"结束时间:"+time.strftime("%Y-%m-%d %H:%M:%S",time.localtime(time.time()))

原文地址:https://www.cnblogs.com/xinyibaba/p/8111731.html

时间: 2024-11-02 20:55:02

用python自动下载官网最新发布的新卡的相关文章

Thinkphp官网最新视频教程

Thinkphp官网最新视频教程 点此下载地址 第七讲.SQLIT论坛 第三十讲.浅析session,cookie机制 第十六讲.查询范围 第三十二讲.cookie的使用 第二讲安装与入门--上 第二十九讲.扩展 第三十三讲.验证码 第十二讲.模型和关联-上 第十一讲.查询语言-下 第八讲.数据库-基本操作 第二十一讲.关联-三 第十四讲.读取器与修改器 第十九讲.关联-一 第三十四讲.文件上传 第十五讲.转换与自动完成 第二十二讲.关联-四 第十讲.查询语言-上 第二十四讲.模型输出 第二十五

如何运行Struts2官网最新Demo?

本篇将讲述下如何运行官网当前最新Struts2.5.10.1 版本的Demo. Struts2 官网:http://struts.apache.org/ 0x00 Demo下载 Struts2 官网2.5.10.1 版Demo: https://github.com/apache/struts-examples 0x01 修改pom.xml配置 由于官网Demo采用Maven管理方式,刚开始尝试没有修改走了点坑,现在把坑填一下. Downloads\struts-examples-master\

ecos3.0源码下载--官网下载方法

1.在ecos官网的源码页面左侧栏有下载和安装,点击后找到安装指导信息 我们建议将eCos安装到/ opt / ecos,所有用户都可以访问它.这可能需要用户具有适当特权的安装.首先,在bash提示符下使用以下命令下载eCos安装工具: wget --passive-ftp ftp://ecos.sourceware.org/pub/ecos/ecos-install.tcl 然后可以如下调用安装工具: sh ecos-install.tcl 2.通过在Linux下把wget --passive

python 自动下载网站相关附件

论坛里有人问如何写个简单的爬虫. 要求如下: 每天的最新文章里面的附件 如何做到 定时下载 #看了一下这个网站, 还好. 好久没折腾过 urllib什么的, 然后写了一个, 测试可以. 在正则匹配时, 建议把数据的编码方式转为脚本编码方式一致. 脚本如下: #!/usr/bin/env python #-*- coding:utf-8 -*- import urllib import re url = "http://www.bjjy.gov.cn" def get_html_data

RabbitMQ官网教程---发布/订阅

(使用python客户端pika 0.9.8) 在前面的教程中我们创建了一个工作队列.假设在一个工作队列后面是每一个被传递给正确的工作者的任务.在这部分中我们将做一些完全不同的事情--我们将给多个消费者传递一个消息.这种模式被称为"发布/订阅". 为了阐明这个模式,我们将构建一个简单的日志系统.它将由两个程序构成--第一个将发出日志消息并且第二个将接收并且打印它们. 在我们的日志系统中每个运行的接收程序副本将获得这个消息.用这种方式我们将可以运行一个接收器并且直接日志到磁盘:而且同时我

大发官网最新邀请码07073000

[〓专业导师:Q176822787〓]邀请码[07073000]xm88.app那么多玩彩导师中,我是一个实事求是的.不夸大其词给你们画饼的导师!专业与否不是我说了算,是实力说话,我能带你回血稳赚,甚至捞第一桶金.这边我想跟彩友说的,计划方案是一方面,自己玩谁都不可能一直中,自认为会看走势盲目下注的都会死的很惨.计划不一定百分百中,谁都不是神人,我们讲究实事求是.以诚相待,不带忽悠的,怎么玩中奖率高,这是一个值得长期摸索探讨的话题,我有技巧你有需求.你们要清楚,有规律技巧的计划方案绝对比盲目下注

Python爬取王者荣耀官网,实现一对一下载软件!

效果: 我没有弄文件夹保存,因为皮肤与英雄都是一一对应,这样子更加方便操作. 点击下载皮肤后,会自动从官网下载一个json文件,所以出了新英雄.新皮肤软件会自动更新.高清图: 但是有个别新皮肤官网也没有提供数据,找不到新皮肤下载的选择项时,点击影藏皮肤获取按钮输入英雄名字,再点击隐藏皮肤下载即可. 环境: 系统:Windows 模块:requests. json.os.time.tkinter 编辑器:sublime(获取视频教程) tkinter部分代码 界面还算比较简单的,就那么几个组件.

Justinmind_Prototyper官网下载、破解、汉化

下载官网:http://www.justinmind.com/ 破解和汉化:http://download.csdn.net/detail/pcaxb/9013957 1.下载安装 2.找到安装目录(例如:D:\Justinmind Prototyper) 3.下载汉化和破解的程序 破解和汉化:http://download.csdn.net/detail/pcaxb/9013957 解压之后吧exe文件复制到安装目录下,如图所示 4.执行prototypepro5.5汉化破解程序.exe文件

MindManager2018离线安装包官网下载

软件官网:https://www.mindjet.com/ 目前来说,官网正常下载的话它会要求你填写一些信息,然后官方通过邮件的形式向你发送下载链接,而且坑爹的是这个下载链接并不是软件的下载链接,而是软件的一个下载器,通过本文,让大家学会一种更加简便的下载方式,当然,必须官网下载才能安心. 通过官网首页,我们找到底部的支持信息[Support],点击它来到支持信息页,在此页面上我们可以看到资源项[Resources],在这个项目下,我们可以看到[To reinstall software you