HTTrack - 克隆任意网站

HTTrack可以克隆指定网站-把整个网站下载到本地。

可以用在离线浏览上,也可以用来收集信息(甚至有网站使用隐藏的密码文件)。

一些仿真度极高的伪网站(为了骗取用户密码),也是使用类似工具做的。
Linux默认安装了HTTrack. 如没有可以自行下载安装。
Liunx 安装:

yum provides httrack
yum install httrack

MacOS zsh:

brew install httrack

HTTrack帮助:

httrack --help

使用示例:

httrack http://topspeedsnail.com -O /tmp/topspeedsnail

上面命令克隆了本网站。

原文地址:https://blog.51cto.com/13767724/2379931

时间: 2024-10-11 04:01:02

HTTrack - 克隆任意网站的相关文章

用Feed43为任意网站定制RSS feed教程~

 用Feed43为任意网站定制RSS feed教程- Feed43--自定义RSS种子的免费工具中笔者的最爱,确切来讲Feed43不适合心脏衰弱者.通过它的服务,我可以非常好地控制种子的最终样式,当然为了使种子更丰富多彩,笔者必须理解其种子代码的工作原理.不过如果你无法了解最后一个声明的话,那么此款服务对你太过专业了.起码笔者为自己的教授文章页较好设置了种子.而有些人通过它为自己的Myspace评论生成种子. 在第二个Item (repeatable) Search Pattern 就是设置具体

jsoup_解析任意网站,做任意网站客户端

jsoup是一个解析网页源码的开源库,他能按照给定的规则提取出一个网页中的任意元素,和其他网页解析库不同的是,他提取网页内容的方式和css.jquery的选择器非常相似.因此如果你懂得前端的知识,只需根据以下的代码样例就可以在3分钟之内学会jsoup的用法: 1 2 3 4 5             Document doc = Jsoup.connect(href).timeout(10000).get();              Element masthead = doc.selec

5分钟把任意网站变成桌面软件(转载)

转自https://segmentfault.com/a/1190000012924855,仅供自己学习查阅 以前,开发一个桌面软件要花费大量的人力和时间.现在,随着web技术的快速发展,很多业务逻辑已经在网站上实现.既然如此,能不能把网站快速转变成软件呢?这方面的实践已经有很多,早期的Qt,后来的Electron,都可以实现跨平台桌面软件的开发.不就是内嵌一个浏览器么?能不能快一些?再快一些?今天,给大家介绍一个工具,让你5分钟之内就把一个网站变成一个可安装的桌面软件. 制作软件 让我们以ht

5分钟把任意网站变成桌面软件

原文 :https://segmentfault.com/a/1190000012924855 以前,开发一个桌面软件要花费大量的人力和时间.现在,随着web技术的快速发展,很多业务逻辑已经在网站上实现.既然如此,能不能把网站快速转变成软件呢?这方面的实践已经有很多,早期的Qt,后来的Electron,都可以实现跨平台桌面软件的开发.不就是内嵌一个浏览器么?能不能快一些?再快一些?今天,给大家介绍一个工具,让你5分钟之内就把一个网站变成一个可安装的桌面软件. 制作软件 让我们以https://s

wget命令行本地克隆一个网站

命令: wget -k -p -nH -N http://www.baidu.com -k 把已下载文件中的所有链接都转换为本地引用,不在依赖原始或在线内容 -p  下载所有必要文件,确保离线可用,包括图片和样式表 -nH 禁止把文件下载到以主机名为前缀的文件夹中. -N 启用文件的时间戳,以匹配来源的时间戳.

5分钟把任意网站变成桌面软件--windows版

本文源自于segmentfault的一篇专栏文章:https://segmentfault.com/a/1190000012924855  只不过这篇是MAC版本的,所以我试了下windows版的: 当然想看的,可以看官网的地址 https://github.com/jiahaog/nativefier/blob/master/docs/api.md 1.安装nativefier ; npm install nativefier –g 首先就会要求电脑里面是安装了Node的,高于4.x.x就行

一步步教你如何打造一个网站克隆工具仿站

前两天朋友叫我模仿一个网站,刚刚开始,我一个页面一个页面查看源码并复制和保存,花了我很多时间,一个字"累",为了减轻工作量,我写了个网站"克隆工具",一键克隆,比起人工操作, 效率提高了200%以上,精确度也大大提高,下面我将我写的"网站克隆工具"实现方法分享给大家. 一睹为快,先看看界面: 开发工具:vs2012(winform) 1.新建UrlModel模型 public class UrlModel { public string Rela

如何打造网站克隆、仿站工具(C#版)

前两天朋友叫我模仿一个网站,刚刚开始,我一个页面一个页面查看源码并复制和保存,花了我很多时间,一个字"累",为了减轻工作量,我写了个网站"克隆工具",一键克隆,比起人工操作, 效率提高了200%以上,精确度也大大提高,虽然网上也很多网站克隆工具,但我觉得作为一个程序员,要有点研究精神,哈哈哈,可以根据自己的需要随意编写自己需要的功能. 下面我将我写的"网站克隆工具"实现方法分享给大家,源码在文末有下载链接,有需要的朋友可以下载来玩,也可以根据自己

为何大量网站不能抓取?爬虫突破封禁的6种常见方法

在互联网上进行自动数据采集(抓取)这件事和互联网存在的时间差不多一样长.今天大众好像更倾向于用“网络数据采集”,有时会把网络数据采集程序称为网络机器人(bots).最常用的方法是写一个自动化程序向网络服务器请求数据(通常是用 HTML 表单或其他网页文件),然后对数据进行解析,提取需要的信息. 本文假定读者已经了解如何用代码来抓取一个远程的 URL,并具备表单如何提交及 JavaScript 在浏览器如何运行的机制.想更多了解网络数据采集基础知识,可以参考文后的资料. 在采集网站的时会遇到一些比