python 自动下载网站相关附件

论坛里有人问如何写个简单的爬虫. 要求如下:

每天的最新文章里面的附件

如何做到

定时下载

#看了一下这个网站, 还好. 好久没折腾过 urllib什么的, 然后写了一个, 测试可以.

在正则匹配时, 建议把数据的编码方式转为脚本编码方式一致.

脚本如下:

#!/usr/bin/env python
#-*- coding:utf-8 -*-

import urllib
import re

url = "http://www.bjjy.gov.cn"

def get_html_data(u):
    h = urllib.urlopen(u).read()
    t = ""
    for i in h.split("\n"):
        try:
            t += "\n" + i.decode(‘gbk‘).encode(‘utf-8‘)
        except:
            pass
    return t
    
def get_link(data):
    d, link = re.findall(r‘最新文章标题开始(.*)最新文章标题结束‘, data, re.S), []
    if len(d):
        s = re.findall(r‘<A HREF="([^"].*)" TARGET="_blank"‘, d[0], re.I)
        if len(s):
            for i in s:
                link.append(i)
    return link

if __name__ == "__main__":
    html = get_html_data(url)
    f_link = get_link(html)
    for i in f_link:
        tmp_data = get_html_data(url + i)
        tmp_link = re.findall(r‘<a href="([^"].*)"><span style‘,tmp_data, re.I)
        if len(tmp_link):
            for j in tmp_link:
                urllib.urlretrieve(url+j, (url+j).split("/")[-1])

上面要匹配 最新文章 那个地方, 之前没有把数据转码,就是不行.

以上脚本加个定时任务OK.

时间: 2024-10-29 19:09:06

python 自动下载网站相关附件的相关文章

使用Python批量下载网站图片

  在网上冲浪的时候,总有些"小浪花"令人喜悦.没错,小浪花就是美图啦.边浏览边下载,自然是不错的:不过,好花不常开,好景不常在,想要便捷地保存下来,一个个地另存为还是很麻烦的.能不能批量下载呢? 只要获得图片地址,还是不难的. 目标  太平洋摄影网, 一个不错的摄影网站. 如果你喜欢自然风光的话,不妨在上面好好饱览一顿吧.饱览一顿,或许你还想打包带走呢.这并不是难事,让我们顺藤摸瓜地来尝试一番吧(懒得截图,自己打开网站观赏吧). 首先,我们打开网址 http://dp.pconlin

用python自动下载官网最新发布的新卡

学习+兴趣结合联系爬取图片(感觉还行,就是有点慢,135张图片花了37秒,改天用多线程试试): #encoding=utf-8import requests,re,os,timefrom bs4 import BeautifulSoup class Stone(): #获取照片url def get_url(self): #创建图片链接列表 pictures = [] url = 'http://hs.blizzard.cn/article/16/11477' urls = requests.g

【代码备忘】火狐浏览器插件xpi自动从网站下载安装的代码

欢迎加入我们的QQ群,无论你是否工作,学生,只要有c / vc / c++ 编程经验,就来吧!158427611 <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"> <html xmlns="http://www.w3.org/1999/xhtml&

python爬虫实战——5分钟做个图片自动下载器

python爬虫实战--图片自动下载器 制作爬虫的基本步骤 顺便通过这个小例子,可以掌握一些有关制作爬虫的基本的步骤. 一般来说,制作一个爬虫需要分以下几个步骤: 分析需求(对,需求分析非常重要,不要告诉我你老师没教你) 分析网页源代码,配合F12(没有F12那么乱的网页源代码,你想看死我?) 编写正则表达式或者XPath表达式(就是前面说的那个神器) 正式编写python爬虫代码 效果 运行: 恩,让我输入关键词,让我想想,输入什么好呢?好像有点暴露爱好了. 回车 好像开始下载了!好赞!,我看

【图文详解】python爬虫实战——5分钟做个图片自动下载器

python爬虫实战--图片自动下载器 之前介绍了那么多基本知识[Python爬虫]入门知识,大家也估计手痒了.想要实际做个小东西来看看,毕竟: talk is cheap show me the code! 制作爬虫的基本步骤 顺便通过这个小例子,可以掌握一些有关制作爬虫的基本的步骤. 一般来说,制作一个爬虫需要分以下几个步骤: 1. 分析需求(对,需求分析非常重要,不要告诉我你老师没教你) 2. 分析网页源代码,配合F12(没有F12那么乱的网页源代码,你想看死我?) 3. 编写正则表达式或

Python小爬虫-自动下载三亿文库文档

新手学python,写了一个抓取网页后自动下载文档的脚本,和大家分享. 首先我们打开三亿文库下载栏目的网址,比如专业资料(IT/计算机/互联网)http://3y.uu456.com/bl-197?od=1&pn=0,可以观察到,链接中pn=后面的数字就是对应的页码,所以一会我们会用iurl = 'http://3y.uu456.com/bl-197?od=1&pn=',后面加上页码来抓取网页. 一般网页会用1,2,3...不过机智的三亿文库用0,25,50...来表示,所以我们在拼接ur

[python] 1、python鼠标点击、移动事件应用——写一个自动下载百度音乐的程序

1.问题描述: 最近百度总爱做一些破坏用户信任度的事——文库金币变券.网盘限速,吓得我赶紧想办法把存在百度云音乐中的歌曲下载到本地. http://yinyueyun.baidu.com/ 可问题是云音乐中并没有批量下载,而上面我总共存了700多首音乐! 因此:有必要写一个脚本自动下载这些音乐了!!! 2.解决问题 自动下载歌曲有两种方法: JS法 模拟鼠标点击法 由于考虑到JS法需要分析网页结构.寻找下载链接,工作量有点大,于是选择用模拟鼠标点击法! 在linux上我首先想到用python来做

如何用Python爬虫实现百度图片自动下载?

Github:https://github.com/nnngu/LearningNotes 制作爬虫的步骤 制作一个爬虫一般分以下几个步骤: 分析需求 分析网页源代码,配合开发者工具 编写正则表达式或者XPath表达式 正式编写 python 爬虫代码 效果预览 运行效果如下: 存放图片的文件夹: 需求分析 我们的爬虫至少要实现两个功能:一是搜索图片,二是自动下载. 搜索图片:最容易想到的是爬百度图片的结果,我们就上百度图片看看: 随便搜索几个关键字,可以看到已经搜索出来很多张图片: 分析网页

python - 将数据转换成 excl 表格, json 等文件 (dajngo - 打开网页后自动下载)

本篇只讲述怎么用. 具体 tablib  更多详细用法可参考博客 : https://blog.csdn.net/liangyuannao/article/details/41476277 # 不得不说  tablib  模块是真的好使. 一. 运行脚本将文件存入本地 import tablib headers = ('商品名称', '数量', '单价', '合计') data = [ ['orange', '1', '5', '5'], ['apple', '2', '6', '12'] ]