【331】python 下载文件:wget / urllib

参考:python下载文件的三种方法(去掉-)



方法一:wget

import wget, os
# 设置下载路径
os.chdir(r"D:/tmp")
url="https://files.cnblogs.com/files/alex-bn-lee/ESRI_01.zip"
# 获取下载文件名称
filename = wget.detect_filename(url)
# 文件下载
wget.download(url)

方法二:urllib

import urllib
url = ‘https://files.cnblogs.com/files/alex-bn-lee/ESRI_01.zip‘
# 需要自定义文件名称
urllib.urlretrieve(url, "demo.zip")

原文地址:https://www.cnblogs.com/alex-bn-lee/p/9284625.html

时间: 2024-10-12 07:11:38

【331】python 下载文件:wget / urllib的相关文章

python下载文件的三种方法

Python开发中时长遇到要下载文件的情况,最常用的方法就是通过Http利用urllib或者urllib2模块. 当然你也可以利用ftplib从ftp站点下载文件.此外Python还提供了另外一种方法requests. 下面来看看三种方法是如何来下载zip文件的:方法一: import urllib import urllib2 import requests print "downloading with urllib" url = 'http://***/test/demo.zip

linux终端下载文件wget

wget是linux下最常用的下载工具: 一般使用的方式有两种: 直接下来到当前目录下 wget url; 下载到直接的目录文件 wget -O fileName url 相关参数如下: [[email protected] ~]# wget --help GNU Wget 1.12,非交互式的网络文件下载工具.用法: wget [选项]... [URL]... 长选项所必须的参数在使用短选项时也是必须的. 开始:  -V,  --version           显示 Wget 的版本信息并

python 下载文件 & 防盗链

偶然下载一种类型的资源,发现好多翻页,右键另存什么的,不胜其烦. 决定用python写几句代码搞定.核心代码如下: from urllib import urlretrieve from urllib import urlretrieve urlretrieve(url,save_to_path,show_download_progress) 至于url,简单的用爬虫的思路得到的.非本文的重点,不再啰嗦. 问题来了,不知道为什么,下载的所有文件都是42k! 百思不得其解,应该是某种限制,脑袋不灵

python下载文件的方法

前一段时间是爬文字,最近准备爬图片 找到了两种保存文件的方法 一种是用urllib.urlretrieve方法 #-*- coding: utf-8 -*- import urllib def callbackfunc(blocknum, blocksize, totalsize): '''回调函数 @blocknum: 已经下载的数据块 @blocksize: 数据块的大小 @totalsize: 远程文件的大小 ''' percent = 100.0 * blocknum * blocksi

python 下载图片(urllib)

下载图片利用urlib库中的urlretrieve函数 import urllib imgurl = "http://ww1.sinaimg.cn/bmiddle/9150e4e5ly1fgo6vvwz5bj20i50fltam.jpg" #把下载的图片保存在'/usr/lxusr/python-program/目录下,并且命名为1.jpg urllib.urlretrieve(imgurl,'/usr/lxusr/python-program/1.jpg')

Python抓取网页&批量下载文件方法初探(正则表达式+BeautifulSoup) (转)

Python抓取网页&批量下载文件方法初探(正则表达式+BeautifulSoup) 最近两周都在学习Python抓取网页方法,任务是批量下载网站上的文件.对于一个刚刚入门python的人来说,在很多细节上都有需要注意的地方,以下就分享一下我在初学python过程中遇到的问题及解决方法. 一.用Python抓取网页 基本方法: [python] view plaincopyprint? import urllib2,urllib url = 'http://www.baidu.com' req 

linux下用wget下载文件

>>>linux下可以用wget来下载文件,wget支持http.https和ftp协议, 而且还支持通过http代理从http从web服务器上下载文件. wget支持断点续传.可以下载url中里面多个链接,进行递归下载 例:wget https://imgsa.baidu.com/forum/w%3D580/sign=62b665f76c59252da3171d0c049a032c/495877d3572c11df12a338ce6f2762d0f603c26b.jpg wget -b

Python下载网络文本数据到本地内存的四种实现方法示例

reference: https://blog.csdn.net/john_bian/article/details/71025372?utm_source=itdadao&utm_medium=referral import urllib.request import requests from io import StringIO import numpy as np import pandas as pd ''' 下载网络文件,并导入CSV文件作为numpy的矩阵 ''' # 网络数据文件

【Python】Python的urllib模块、urllib2模块进行网页下载文件

由于需要从某个网页上下载一些PDF文件,但是需要下载的PDF文件有几百个,所以不可能用人工点击来下载.正好Python有相关的模块,所以写了个程序来进行PDF文件的下载,顺便熟悉了Python的urllib模块和ulrllib2模块. 1.问题描述 需要从http://www.cvpapers.com/cvpr2014.html上下载几百个论文的PDF文件,该网页如下图所示: 2.问题解决 通过结合Python的urllib模块和urllib2模块来实现自动下载.代码如下: test.py #!