自动下载图片的脚本

很多年前,自己写的,自己的文件丢失了,神奇的网络让我又找到了

#!/bin/bash

#Description:

# download national geographic photo of the day and set it as background

# wait for network connection to be established

[[ -n $1 ]] && sleep $1

resolution=$(xrandr |grep -o ‘current [^,]*‘|tr -d " "|sed ‘s:current::‘)

rss=`wget -q -O - http://feeds.nationalgeographic.com/ng/photography/photo-of-the-day/`

img_url=$(echo $rss|grep -o "http://[^\"]*exposure[^\"]*"|head -1)

img_url=$(echo $img_url|sed "s:360x270:$resolution:")

img=/tmp/pod.jpg

wget -q -O $img $img_url

cp /tmp/pod.jpg ~/BackGround/`date +%Y%m%d`.jpg

cp /tmp/pod.jpg ~/BackGround/today.jpg

时间: 2024-10-09 21:20:21

自动下载图片的脚本的相关文章

我的第一个python爬虫程序(从百度贴吧自动下载图片)

这个学期开设了编译原理和形式语言与自动机,里面都有介绍过正则表达式,今天自己学了学用python正则表达式写爬虫 一.网络爬虫的定义 网络爬虫,即Web Spider,是一个很形象的名字. 把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛. 网络蜘蛛是通过网页的链接地址来寻找网页的. 从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址, 然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止. 如果把整个互联网当成

一个带自动询问和保存功能的python下载图片的脚本

http://placekitten.com 这个网站是爱猫人士做的网站,话说老外做网站就是简单,在网址上输入分辨率,就可以对应输出一个分辨率大小的猫图片,于是就做了这么一个小脚本,可以自己输出想要的尺寸,然后并且保存在自己的文件夹下. #注意!这个网站有些是打不开的,比如500X500对应的网页就是空的,所以如果尝试了500X500抓下来的图片是失效的,并不是脚本的问题.# #400X600,400X650,600X800这些都是好使的,可以拿来实验# import urllib.reques

python爬虫入门---第三篇:自动下载图片

适用的图片网站:美桌 import requests import re import urllib from bs4 import BeautifulSoup def get_html_text(url): ''' 获取网址url的HTML代码,以字符串形式返回html代码 ''' try: res = requests.get(url, timeout = 6) res.raise_for_status() res.encoding = res.apparent_encoding retur

打造一款Python实现自动下载电影的“脚本”!那种电影也可以哦!

都很有规律不是吗?而在Scrapy里面,就可以设定我们想要的规律,Scrapy就可以对这些符合规律的网址及页面信息进行处理.先来看看成果吧,这一部分中,我们想要的结果就是输出排行榜里面的电影名称: 而且我们其实可以做的更好. Pycharm用这个文件夹创建Project,douban/db处创建一个方便IDE运行的文件run.py 输入 from scrapy.cmdline import execute execute(['scrapy', 'crawl', 'douban']) 打开doub

scrapy 自动下载图片

Item 字段名必须是 image_urls 即:image_urls = Field() item['image_urls']的类型是一个list. item['image_urls'] = "http://some.jpg" 是不行的. 会有如下错误: Traceback (most recent call last): File "D:\Python27\lib\site-packages\scrapy\middleware.py", line 62, in

windows bat脚本实现ftp自动下载 删除

现在有一个需求就是把远程某个文件下面的图片,下载到本地,并且删除下载成功的的文件,而且远程目录下的那个图片会随时增加.假设一下如果所有的脚本都写好了,那么就需要调用windows上的计划任务定时执行脚本就ok了,Linux上利用cronjob 同样可以做到.大体的实现思路如下,当然了不止这一种方式. 在远程服务器上搭建ftp server ,例如这里在远程服务上的 images 作为下载目录.搭建ftp server 最简单的方式就是用FileZilla Server 这个工具去搭建,很方便,零

python爬虫实战——5分钟做个图片自动下载器

python爬虫实战--图片自动下载器 制作爬虫的基本步骤 顺便通过这个小例子,可以掌握一些有关制作爬虫的基本的步骤. 一般来说,制作一个爬虫需要分以下几个步骤: 分析需求(对,需求分析非常重要,不要告诉我你老师没教你) 分析网页源代码,配合F12(没有F12那么乱的网页源代码,你想看死我?) 编写正则表达式或者XPath表达式(就是前面说的那个神器) 正式编写python爬虫代码 效果 运行: 恩,让我输入关键词,让我想想,输入什么好呢?好像有点暴露爱好了. 回车 好像开始下载了!好赞!,我看

【图文详解】python爬虫实战——5分钟做个图片自动下载器

python爬虫实战--图片自动下载器 之前介绍了那么多基本知识[Python爬虫]入门知识,大家也估计手痒了.想要实际做个小东西来看看,毕竟: talk is cheap show me the code! 制作爬虫的基本步骤 顺便通过这个小例子,可以掌握一些有关制作爬虫的基本的步骤. 一般来说,制作一个爬虫需要分以下几个步骤: 1. 分析需求(对,需求分析非常重要,不要告诉我你老师没教你) 2. 分析网页源代码,配合F12(没有F12那么乱的网页源代码,你想看死我?) 3. 编写正则表达式或

Shell 脚本笔记01-tftp服务器自动下载调试

由于工作上要反复从PC上交叉编译好应用程序,并通过tftp下载到ZYNQ板子上进行运行调试.重复敲命令过于麻烦,所以编写一个脚本实现自动下载,改权限和运行功能. 一.准备工作 将ZYNQ7000开发板和主机端(PC或虚拟机)连接到同一网段. 主机端安装好tftpd-hpa服务器和xinet.d,启动运行 [email protected]:~$ sudo service xinetd restart #开启xinetd服务 [sudo] password for z: xinetd stop/w