mac下载百度云盘大文件及断点续传的方法

问题

作为资源共享平台, 百度云做的还是很出色的, "xxx site:pan.baidu.com"就可以找到很丰富的资源. 然而, 下载百度云上的文件就略蛋疼了. 早在12年的时候, 百度云还是一个良心企业, 不仅免费送容量, 而且下载不限速不限时不用客户端, 看片不会被绿*坝, 在教育网内甚至可以达到10M/s的速度.

当然现在容量已经不是什么问题了, 13年的空间大战早已让我们步入T级时代, 但是下载的各种限制着实让人伤不起.

绿*坝的存在让我们丧失了大量的片源  但作为遵纪守法的公民, 这点还是应该拥护的

但是CDN的分发让我们只能默默忍受浏览器的单线程下载, 就算用了它的客户端也是换汤不换药, 走的还是同一条网路. 慢慢下也就慢慢下吧, 问题是他还给下载链接加上了时效, 对于稍大一点的文件, 就会遇到这个问题:

{
	"error_code":31064,
	"error_msg":"xcode expire time out error"
}

不确定Windows用户的云管家是不是解决了这个问题, 但作为mac版客户端, 已经半年没更新的项目组似乎早已解散, 根本不想解决这个问题了. 我只想下载区区14G的 GTA IV 呀, 几次都是下载到8G左右就挂了, 是可忍孰不可忍!

解决方案

mac下的断点续传工具还是有的, 迅雷, Folx, Speed Download, 资源就自己去找吧. 但是我们要面临的一个困难是: 我们要让断点续传工具能够在切换下载地址的情况下继续运转, 并保证下载文件不出错.

迅雷作为优秀的国产软件, 秉承了国内优秀的傻瓜传统, 除了一键下载, 似乎再没可配置空间, 配置文件比程序还难破解.

Speed Download和Folx下载机制类似, 在下载bundle里都是有三个文件: 配置文件, 进度文件, 缓存文件

这是 Folx的样例包:

data.plist记录了下载进度, 比如:

这也就是断点续传的原理, 因为http协议允许我们指定下载文件的字节范围

download.plist则记录了下载的配置, 核心内容是下载url

但是单纯修改这个文件里的url似乎并不能让Folx切换下载路径, 而且更重要的是, 我卸载了Folx后再重新安装, 它居然记录了我之前的下载记录. 其实, mac的软件也不是那么绿色. 那么Folx的配置文件究竟在哪里呢?

启动活动监视器, 找到folx的进程, 我们就可以看到它打开的文件列表

~/Library/Application Support/Eltima Software/Folx 就是我们要找的. 里面的FolxData.sql文件就是它的配置文件. 这是一个sqlite文件, 推荐用 Valentina Studio 打开.

ZFOLXTASK表就是下载任务了, Folx启动实际上是从这个数据库里加载内容的, 那个download.plist似乎可有可无. 关闭Folx, 修改表里的ZURL字段就可以切换下载的url了. 当百度云盘地址失效后, 在浏览器里重新获取一次就可以了, 是不是很简便呀.

时间: 2024-07-31 11:54:49

mac下载百度云盘大文件及断点续传的方法的相关文章

wcf综合运用之:大文件异步断点续传

在WCF下作大文件的上传,首先想到使用的就是Stream,这也是微软推荐的使用方式.处理流程是:首先把文件加载到内存中,加载完毕后传递数据.这种处理方式对小文件,值得推荐,比如几K,几十k的图片文件,文本文件对大文件就不适用,比如10G的电影,把10G的数据加载到缓存中再传递,这是不可想象的.这个时候我们想到的就是断点续传.由于数据量很大.会导致当前程序阻塞,所以采用异步发送的方式,以进度条显示出来,这也是本篇文章所要实现的功能. 另外,目前BasicHttpBinding, NetTcpBin

ASP.NET 使用js插件出现上传较大文件失败的解决方法(ajaxfileupload.js第一弹)

在写这篇的时候本来想把标题直接写成报错的提示,如下: "SecurityError:Blocked a frame with origin "http://localhost:55080" from accessing a cross-origin frame." 但是有点长,会显示不全,就想还是换一下吧,想了一下 "ASP.NET 上传过大图片或文件报错解决办法", 然后当我写完这个题目之后,我觉得这篇文章好像根本没有写的必要,估计看完题目就会

ASP.NET 使用ajaxfileupload.js插件出现上传较大文件失败的解决方法(ajaxfileupload.js第一弹)

在写这篇的时候本来想把标题直接写成报错的提示,如下: “SecurityError:Blocked a frame with origin "http://localhost:55080" from accessing a cross-origin frame.” 但是有点长,会显示不全,就想还是换一下吧,想了一下 “ASP.NET 上传过大图片或文件报错解决办法”, 然后当我写完这个题目之后,我觉得这篇文章好像根本没有写的必要,估计看完题目就会想到关于web.config配置的方面了

IIS中的大文件上传问题解决方法

IIS出于安全考虑限制了大文件的上传,而网上百度到的大部分解决方法都是用一个管理员权限的记事本打开一个文件修改参数,但是我发现里面根本没有网上所说的那些参数,最后自己找到了修改发布文件的webconfig的方法解决的IIS对大文件上传的限制. 首先在system.web中加入以下代码 [csharp] view plain copy <httpRuntime maxRequestLength="2097151"//最大上传长度 useFullyQualifiedRedirectU

Linux大文件快速处理小方法

背景 工作中使用MapReduce任务导出一批含有路径的文件,共计行数300W+,需要检测文件是否在对应的服务器中存在,而文件所在的服务器并非hadoop集群的服务器,因此打算采用bash脚本进行.具体的方法如下(可直接看方法2,方法1效率较低): 2. 采用的方法 a. 方法1 原本打算使用如下脚本,进行简单验证: #!/bin/bash count=0 cat oriTest.txt | while read data do count=$(( $count+1 )) echo $count

大文件/数据网络传输方法总结(转载)

网络编程中不免会遇到需要传输大数据.大文件的情况,而由于socket本身缓冲区的限制,大概一次只能发送4K左右的数据,所以在传输大数据时客户端就需要进行分包,在目的地重新组包.而实际上已有一些消息/通讯中间件对此进行了封装,提供了直接发送大数据/文件的接口:除此之外,利用共享目录,ftp,ssh等系统命令来实现大文件/数据也不失为一种好的方法. 1.基础的基于socket进行传输 基础的基于socket进行传输关键在于控制,需要自己行分包和组包. ////////////////////////

[获取行数]php读取大文件提供性能的方法,PHP的stream_get_line函数读取大文件获取文件的行数的方...

背景: 下面是获取文件的行数的方法: 一个文件如果知道有几行的话,就可以控制获取一定的行数的数据,然后放入数据库.这样不管的读取大文件的性能,还是写入数据库的性能,都能得到很大的提高了. 下面是获取文件的行数的方法 $temp_file = 'error.log'; $fp = fopen($temp_file ,'r') or die("open file failure!"); $total_line = 0; if($fp){     /* 获取文件的一行内容,注意:需要php5

【iOS开发-网络】大文件的断点续传(断点下载)

要想实现断点续传,暂停的时候要取消connection连接, 开始下载的时候要给服务器发送头信息,告诉他要请求多长的数据,从哪里开始 //暂停 if(sender.selected) { [self.conn cancel];//取消连接 self.conn = nil; //开始 } else { //创建url NSURL *url = [NSURL URLWithString:@"http://localhost:8080/TFServer/resources/videos/minion_

jsp大文件传输断点续传源码

这里只写后端的代码,基本的思想就是,前端将文件分片,然后每次访问上传接口的时候,向后端传入参数:当前为第几块文件,和分片总数 下面直接贴代码吧,一些难懂的我大部分都加上注释了: 上传文件实体类: 看得出来,实体类中已经有很多我们需要的功能了,还有实用的属性.如MD5秒传的信息. publicclassFileInf { public FileInf(){} publicStringid=""; publicStringpid=""; publicStringpidR