wget 下载一个网站所有文件

p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 12.0px "Lucida Grande"; color: #333333 }
span.s1 { }
span.s2 { font: 14.0px Tahoma }

wget -r -np -nH -e robots=off --cut-dirs=3  http://hostname/aaa/bbb/ccc/ddd/

时间: 2024-10-03 19:25:37

wget 下载一个网站所有文件的相关文章

wget下载一个目录下的所有的包

例如:下载openstack H版的所有包 wget -c -r -np  http://repos.fedorapeople.org/repos/openstack/openstack-havana/epel-6/ -c 断点续传 -r 递归下载,下载指定网页某一目录下(包括子目录)的所有文件 -nd 递归下载时不创建一层一层的目录,把所有的文件下载到当前目录 -np 递归下载时不搜索上层目录,如wget -c -r http://repos.fedorapeople.org/repos/op

wget下载整个网站

wget下载整个网站wget下载整个网站可以使用下面的命令 wget -r -p -k -np http://hi.baidu.com/phps , -r 表示递归下载,会下载所有的链接,不过要注意的是,不要单独使用这个参数,因为如果你要下载的网站也有别的网站的链接,wget也会把别的网站的东西下载 下来,由于互联网的特性,很有可能你会把整个互联网给下载下来 --,所以要加上 -np这个参数,表示不下载别的站点的链接. -k表示将下载的网页里的链接修改为本地链接.-p获得所以显示网页所需的元素,

wget下载整个网站---比较实用--比如抓取Smarty的document

wget下载整个网站可以使用下面的命令 wget -r -p -k -np http://hi.baidu.com/phps, -r 表示递归下载,会下载所有的链接,不过要注意的是,不要单独使用这个参数,因为如果你要下载的网站也有别的网站的链接,wget也会把别的网站的东西下载 下来,由于互联网的特性,很有可能你会把整个互联网给下载下来 --,所以要加上 -np这个参数,表示不下载别的站点的链接. -k表示将下载的网页里的链接修改为本地链接.-p获得所以显示网页所需的元素,比如图片什么的. 另外

linux下使用wget下载整个网站

linux下可以用wget下载整个网站,而且网站链接中包含utf-8编码的中文也能正确处理. 简要方法记录如下: wget --restrict-file-name=ascii -m -c -nv -np -k -E -p -R=exe,zip http://www.xxx.com 参数释义如下: --restrict-file-name=ascii ,将文件名保存为ASCII格式.这样能避免utf-8文件名带来的麻烦(注:1.12版才支持ascii参数值) -m 整站下载,mirror的缩写,

Centos下wget下载整个网站,或者目录全部文件

需要下载某个目录下面的所有文件.命令如下 wget -c -r -np -k -L -p www.xxx.org/pub/path/ 在下载时.有用到外部域名的图片或连接.如果需要同时下载就要用-H参数. wget -np -nH -r –span-hosts www.xxx.org/pub/path/ -c 断点续传 -r 递归下载,下载指定网页某一目录下(包括子目录)的所有文件 -nd 递归下载时不创建一层一层的目录,把所有的文件下载到当前目录 -np 递归下载时不搜索上层目录,如wget

wget 下载整个网站,或者特定目录

需要下载某个目录下面的所有文件.命令如下 wget -c -r -np -k -L -p www.xxx.org/pub/path/ 在下载时.有用到外部域名的图片或连接.如果需要同时下载就要用-H参数. wget -np -nH -r --span-hosts www.xxx.org/pub/path/ -c 断点续传-r 递归下载,下载指定网页某一目录下(包括子目录)的所有文件-nd 递归下载时不创建一层一层的目录,把所有的文件下载到当前目录-np 递归下载时不搜索上层目录,如wget -c

wget下载整个网站的方法

转自: http://blog.itpub.net/29867/viewspace-716088/  (修改部分内容) wget --restrict-file-name=ascii -m -c -nv -np -k -E -p http://www.w3school.com.cn/ wget --restrict-file-name=ascii -m -c -nv -np -k -E -p http://scrapy-chs.readthedocs.org 参数释义如下: --restrict

wget下载ftp协议的文件,限制下载文件大小。

嵌入式设备中内存有限,因此下载的过程中需要限制下载的文件大小.使用wget的时候可以使用-Q参数来限制下载总文件大小,但是这个只能在递归下载中有效. 因此可以使用 sprintf(shellcmd,"wget --spider %s 2>&1 | grep SIZE | awk \'{print $5}\'",fromurl); 这样的命令进行提前取出size的大小. 如果是http格式则可以使用 sprintf(shellcmd,"wget --spider

使用wget批量下载网站目录文件

最近在下载一个网站的文件,目录太多,文件太多一个一个下载太麻烦了,随即想起曾经用过的一个wget的工具,今天正好给大家分享一下,我平常使用wget最常使用的命令是 wget –r  http://website/webdir 这样可以下载整个目录下的所有文件,并且里面的目录也自动排列创建好了 如果网页需要用户名密码登陆则需要加参数 wget –r –-http-user=username --http-passwd=userpassword http://website/webdir 详细的参数