python 邻居的耳朵下载

__author__ = ‘apple‘
import requests
import urllib
import re
import base64
def decode_base64(data):
            """Decode base64, padding being optional.

            :param data: Base64 data as an ASCII byte string
            :returns: The decoded byte string.

            """
            missing_padding = 4 - len(data) % 4
            if missing_padding:
                data += ‘=‘* missing_padding
            return base64.b64decode(data)
def GetAudioDownUri(url):
    r=re.compile(r‘titles:"(.+?)".+?soundFile:"(.+?)"‘,re.I)
    page=requests.session().get(url)
    content=page.content

    content=content.decode("utf-8")
    imgList=re.findall(r,content)
    print(url)
    for imgurl in imgList:
            soundName=urllib.request.unquote( imgurl[0])
            soundUrl=decode_base64(imgurl[1])
    r=requests.get(soundUrl,headers={"Referer":url},stream=True)
    AudioDown(r,"/Users/apple/Audio/",soundName)
def AudioDown(r,path,soundName):

    with open(path+soundName+".mp3", ‘wb‘) as fd:
           for chunk in r.iter_content():
                    fd.write(chunk)
if __name__=="__main__":
    AudioUri=input(‘请输入你需要下载的网页‘)
    GetAudioDownUri(AudioUri)

时间: 2024-11-06 17:55:41

python 邻居的耳朵下载的相关文章

Python实现多线程HTTP下载器

本文将介绍使用Python编写多线程HTTP下载器,并生成.exe可执行文件. 环境:windows/Linux + Python2.7.x 单线程 在介绍多线程之前首先介绍单线程.编写单线程的思路为: 解析url: 连接web服务器: 构造http请求包: 下载文件. 接下来通过代码进行说明. 解析url 通过用户输入url进行解析.如果解析的路径为空,则赋值为'/':如果端口号为空,则赋值为"80":下载文件的文件名可根据用户的意愿进行更改(输入'y'表示更改,输入其它表示不需要更

python之花瓣美女下载

python之花瓣美女下载 作者:vpoet 日期:大约在夏季 注:代码随意copy 不用告诉我 主要功能: 1.搜索花瓣http://huaban.com/下的图片 2.选定下载图片数目 3.显示下载进度 4.创建目录并下载到桌面 注释少,凑合看. #coding: utf-8 import urllib, urllib2, re, sys, os import random reload(sys) def Schedule(a,b,c): """a:已经下载的数据块 b:

karloop介绍--hello world大家好,今天为大家介绍一款非常轻量级的的web开发框架,karloop框架。使用python开发 首先我们下载karloop源码进行安装。 源码地址 下载成

大家好,今天为大家介绍一款非常轻量级的的web开发框架,karloop框架.使用python开发 首先我们下载karloop源码进行安装. 源码地址 下载成功后解压,进入解压后的路径,进入终端,运行命令:sudo python setup.py install 如果是window系统,则打开cmd,运行:python setup.py install 下载安装成功后,我们写一个hello.py 内容如下: # coding=utf-8 from karloop.KarlBaseApplicati

Python小爬虫-自动下载三亿文库文档

新手学python,写了一个抓取网页后自动下载文档的脚本,和大家分享. 首先我们打开三亿文库下载栏目的网址,比如专业资料(IT/计算机/互联网)http://3y.uu456.com/bl-197?od=1&pn=0,可以观察到,链接中pn=后面的数字就是对应的页码,所以一会我们会用iurl = 'http://3y.uu456.com/bl-197?od=1&pn=',后面加上页码来抓取网页. 一般网页会用1,2,3...不过机智的三亿文库用0,25,50...来表示,所以我们在拼接ur

windows使用python调用wget批处理下载数据

wget是linux/unix下通常使用的下载http/ftp的数据,使用非常方便,其实wget目前经过编译,也可在windows下使用.最近需要下载大量的遥感数据,使用了python写了批处理下载程序,使用的是urllib的urlretrieve进行下载,数据下载还可以,但是界面交互性不好看.就根据自己在linux下载数据进行了改进. 1. wget在windows下的安装: 从网站下载wget for windows工具(http://gnuwin32.sourceforge.net/pac

python之poplib模块下载并解析邮件

# -*- coding: utf-8 -*- #python 27 #xiaodeng #python之poplib模块下载并解析邮件 #https://github.com/michaelliao/learn-python/blob/master/email/fetchmail_pop3.py import poplib,email from email.parser import Parser from email.header import decode_header from emai

Python 实现 CNKI批量下载 和FireFox Extension 入门学习笔记

?                                 Python 实现 CNKI批量下载 和FireFox Extension 入门学习笔记? 由于需要也是为了督促自己学习新的东西,我原本想要尝试着写一个爬虫程序,能够在cnki上自动得将论文进行批量下载,学习过程中遇到了诸多情况,cnki也真是专业,不得不佩服cnki的强大. 下面进入正题: 学习.实验环境:ubuntu 14.04 工具:Eclipse ,  FireFox, FireBug,HttpFox 编程语言:pyth

用Python写一个ftp下载脚本

用Python写一个ftp下载脚本 ----基于Red Hat Enterprise Linux Server release 6.4 (Santiago):python 2.6.6 Ps:少侠我接触Python半个月以来接到的第一个需求,虽然如此简单的一个脚本,少侠我磕磕绊绊却用了将近一天半的时间才写出来,但还是很开心,毕竟也粗来了,废话不多说,切入正题.因为一开始没有用过ftplib模块,所以各种谷歌度娘一堆资料杂乱不堪,话不清,理不乱的,本文实现的功能简单,下面介绍一下,以免误导读者. 需

使用python来刷csdn下载积分(二)

使用python来刷csdn下载积分(一)中我们实现了csdn下载的自动评价,但是这样只是评价自己下载过的资源,还不能实现刷分的目的.本次,我们将学习批量下载csdn的免费资源. csdn自己是带了资源的搜素工具的,网址: http://download.csdn.net/advanced_search, 里面是可以搜索指定资源积分的下载资源的.但是用起来非常不好用,总是搜索不到想要的资源. 于是我们就弃之不用,使用百度来搜索,搜索的关键字是 "资源积分:0分"  联通下载 pdf