面试官:请你实现一个大文件上传和断点续传

前言
这段时间面试官都挺忙的,频频出现在博客文章标题,虽然我不是特别想蹭热度,但是实在想不到好的标题了-。-,蹭蹭就蹭蹭 :)

事实上我在面试的时候确实被问到了这个问题,而且是一道在线 coding 的编程题,当时虽然思路正确,可惜最终也并不算完全答对

结束后花了一段时间整理了下思路,那么究竟该如何实现一个大文件上传,以及在上传中如何实现断点续传的功能呢?

本文将从零搭建前端和服务端,实现一个大文件上传和断点续传的 demo

文章有误解的地方,欢迎指出,将在第一时间改正,有更好的实现方式希望留下你的评论

大文件上传
整体思路
前端
前端大文件上传网上的大部分文章已经给出了解决方案,核心是利用 Blob.prototype.slice 方法,和数组的 slice 方法相似,调用的 slice 方法可以返回原文件的某个切片

这样我们就可以根据预先设置好的切片最大数量将文件切分为一个个切片,然后借助 http 的可并发性,同时上传多个切片,这样从原本传一个大文件,变成了同时传多个小的文件切片,可以大大减少上传时间

另外由于是并发,传输到服务端的顺序可能会发生变化,所以我们还需要给每个切片记录顺序

服务端
服务端需要负责接受这些切片,并在接收到所有切片后合并切片

这里又引伸出两个问题

何时合并切片,即切片什么时候传输完成
如何合并切片
第一个问题需要前端进行配合,前端在每个切片中都携带切片最大数量的信息,当服务端接受到这个数量的切片时自动合并,也可以额外发一个请求主动通知服务端进行切片的合并

第二个问题,具体如何合并切片呢?这里可以使用 nodejs 的 api fs.appendFileSync,它可以同步地将数据追加到指定文件,也就是说,当服务端接受到所有切片后,先创建一个最终的文件,然后将所有切片逐步合并到这个文件中

talk is cheap,show me the code,接着我们用代码实现上面的思路

前端部分
前端使用 Vue 作为开发框架,对界面没有太大要求,原生也可以,考虑到美观使用 element-ui 作为 UI 框架

上传控件
首先创建选择文件的控件,监听 change 事件以及上传按钮

<template>   <div>    <input type="file" @change="handleFileChange" />    <el-button @click="handleUpload">上传</el-button>  </div></template><script>export default {  data: () => ({    container: {      file: null    }  }),  methods: {    async handleFileChange(e) {      const [file] = e.target.files;      if (!file) return;      Object.assign(this.$data, this.$options.data());      this.container.file = file;    },    async handleUpload() {}  }};</script>

请求逻辑
考虑到通用性,这里没有用第三方的请求库,而是用原生 XMLHttpRequest 做一层简单的封装来发请求

request({      url,      method = "post",      data,      headers = {},      requestList    }) {      return new Promise(resolve => {        const xhr = new XMLHttpRequest();        xhr.open(method, url);        Object.keys(headers).forEach(key =>          xhr.setRequestHeader(key, headers[key])        );        xhr.send(data);        xhr.onload = e => {          resolve({            data: e.target.response          });        };      });    }

上传切片
接着实现比较重要的上传功能,上传需要做两件事

对文件进行切片
将切片传输给服务端

<template>  <div>    <input type="file" @change="handleFileChange" />    <el-button @click="handleUpload">上传</el-button>  </div></template><script>+ const LENGTH = 10; // 切片数量export default {  data: () => ({    container: {      file: null,+     data: []    }  }),  methods: {    request() {},    async handleFileChange() {},+    // 生成文件切片+    createFileChunk(file, length = LENGTH) {+      const fileChunkList = [];+      const chunkSize = Math.ceil(file.size / length);+      let cur = 0;+      while (cur < file.size) {+        fileChunkList.push({ file: file.slice(cur, cur + chunkSize) });+        cur += chunkSize;+      }+      return fileChunkList;+    },+   // 上传切片+    async uploadChunks() {+      const requestList = this.data+        .map(({ chunk }) => {+          const formData = new FormData();+          formData.append("chunk", chunk);+ formData.append("hash", hash);+          formData.append("filename", this.container.file.name);+          return { formData };+        })+        .map(async ({ formData }) =>+          this.request({+            url: "http://localhost:3000",+            data: formData+          })+        );+      await Promise.all(requestList); // 并发切片+    },+    async handleUpload() {+      if (!this.container.file) return;+      const fileChunkList = this.createFileChunk(this.container.file);+      this.data = fileChunkList.map(({ file },index) => ({+        chunk: file,+        hash: this.container.file.name + "-" + index // 文件名 + 数组下标+      }));+      await this.uploadChunks();+    }  }};</script>

当点击上传按钮时,调用 createFileChunk 将文件切片,切片数量通过一个常量 Length 控制,这里设置为 10,即将文件分成 10 个切片上传

createFileChunk 内使用 while 循环和 slice 方法将切片放入 fileChunkList 数组中返回

在生成文件切片时,需要给每个切片一个标识作为 hash,这里暂时使用文件名 + 下标,这样后端可以知道当前切片是第几个切片,用于之后的合并切片

随后调用 uploadChunks 上传所有的文件切片,将文件切片,切片 hash,以及文件名放入 FormData 中,再调用上一步的 request 函数返回一个 proimise,最后调用 Promise.all 并发上传所有的切片

发送合并请求
这里使用整体思路中提到的第二种合并切片的方式,即前端主动通知服务端进行合并,所以前端还需要额外发请求,服务端接受到这个请求时主动合并切片

<template>  <div>    <input type="file" @change="handleFileChange" />    <el-button @click="handleUpload">上传</el-button>  </div></template><script>export default {  data: () => ({    container: {      file: null    },    data: []  }),  methods: {    request() {},    async handleFileChange() {},    createFileChunk() {},    // 上传切片,同时过滤已上传的切片    async uploadChunks() {      const requestList = this.data        .map(({ chunk }) => {          const formData = new FormData();          formData.append("chunk", chunk);          formData.append("hash", hash);          formData.append("filename", this.container.file.name);          return { formData };        })        .map(async ({ formData }) =>          this.request({            url: "http://localhost:3000",            data: formData          })        );      await Promise.all(requestList);+      // 合并切片+     await this.mergeRequest();    },+    async mergeRequest() {+      await this.request({+        url: "http://localhost:3000/merge",+        headers: {+          "content-type": "application/json"+        },+        data: JSON.stringify({+          filename: this.container.file.name+        })+      });+    },        async handleUpload() {}  }};</script>

服务端部分
简单使用 http 模块搭建服务端

const http = require("http");const server = http.createServer();server.on("request", async (req, res) => {  res.setHeader("Access-Control-Allow-Origin", "*");  res.setHeader("Access-Control-Allow-Headers", "*");  if (req.method === "OPTIONS") {    res.status = 200;    res.end();    return;  }});server.listen(3000, () => console.log("正在监听 3000 端口"));

接受切片
使用 multiparty 包处理前端传来的 FormData

在 multiparty.parse 的回调中,files 参数保存了 FormData 中文件,fields 参数保存了 FormData 中非文件的字段

const http = require("http");const path = require("path");const fse = require("fs-extra");const multiparty = require("multiparty");const server = http.createServer();+ const UPLOAD_DIR = path.resolve(__dirname, "..", "target"); // 大文件存储目录server.on("request", async (req, res) => {  res.setHeader("Access-Control-Allow-Origin", "*");  res.setHeader("Access-Control-Allow-Headers", "*");  if (req.method === "OPTIONS") {    res.status = 200;    res.end();    return;  }+  const multipart = new multiparty.Form();+  multipart.parse(req, async (err, fields, files) => {+    if (err) {+      return;+    }+    const [chunk] = files.chunk;+    const [hash] = fields.hash;+    const [filename] = fields.filename;+    const chunkDir = `${UPLOAD_DIR}/${filename}`;+   // 切片目录不存在,创建切片目录+    if (!fse.existsSync(chunkDir)) {+      await fse.mkdirs(chunkDir);+    }+    // 重命名文件+    await fse.rename(chunk.path, `${chunkDir}/${hash}`);+    res.end("received file chunk");+  });});server.listen(3000, () => console.log("正在监听 3000 端口"));

查看 multiparty 处理后的 chunk 对象,path 是存储临时文件的路径,size 是临时文件大小,在 multiparty 文档中提到可以使用 fs.rename 重命名的方式移动临时文件,也就是文件切片

在接受文件切片时,需要先创建存储切片的文件夹,由于前端在发送每个切片时额外携带了唯一值 hash,所以以 hash 作为文件名,将切片从临时路径移动切片文件夹中,最后的结果如下

合并切片
在接收到前端发送的合并请求后,服务端将文件夹下的所有切片进行合并

const http = require("http");const path = require("path");const fse = require("fs-extra");const server = http.createServer();const UPLOAD_DIR = path.resolve(__dirname, "..", "target"); // 大文件存储目录+ const resolvePost = req =>+   new Promise(resolve => {+     let chunk = "";+     req.on("data", data => {+       chunk += data;+     });+     req.on("end", () => {+       resolve(JSON.parse(chunk));+     });+   });+ // 合并切片+ const mergeFileChunk = async (filePath, filename) => {+   const chunkDir = `${UPLOAD_DIR}/${filename}`;+   const chunkPaths = await fse.readdir(chunkDir);+   await fse.writeFile(filePath, "");+   chunkPaths.forEach(chunkPath => {+     fse.appendFileSync(filePath, fse.readFileSync(`${chunkDir}/${chunkPath}`));+     fse.unlinkSync(`${chunkDir}/${chunkPath}`);+   });+   fse.rmdirSync(chunkDir); // 合并后删除保存切片的目录+ };server.on("request", async (req, res) => {  res.setHeader("Access-Control-Allow-Origin", "*");  res.setHeader("Access-Control-Allow-Headers", "*");  if (req.method === "OPTIONS") {    res.status = 200;    res.end();    return;  }+   if (req.url === "/merge") {+     const data = await resolvePost(req);+     const { filename } = data;+     const filePath = `${UPLOAD_DIR}/${filename}`;+     await mergeFileChunk(filePath, filename);+     res.end(+       JSON.stringify({+         code: 0,+         message: "file merged success"+       })+     );+   }});server.listen(3000, () => console.log("正在监听 3000 端口"));

由于前端在发送合并请求时会携带文件名,服务端根据文件名可以找到上一步创建的切片文件夹

接着使用 fs.writeFileSync 先创建一个空文件,这个空文件的文件名就是切片文件夹名 + 后缀名组合而成,随后通过 fs.appendFileSync 从切片文件夹中不断将切片合并到空文件中,每次合并完成后删除这个切片,等所有切片都合并完毕后最后删除切片文件夹

至此一个简单的大文件上传就完成了,接下来我们再此基础上扩展一些额外的功能

显示上传进度条
上传进度分两种,一个是每个切片的上传进度,另一个是整个文件的上传进度,而整个文件的上传进度是基于每个切片上传进度计算而来,所以我们先实现切片的上传进度

切片进度条
XMLHttpRequest 原生支持上传进度的监听,只需要监听 upload.onprogress 即可,我们在原来的 request 基础上传入 onProgress 参数,给 XMLHttpRequest 注册监听事件

 // xhr    request({      url,      method = "post",      data,      headers = {},+      onProgress = e => e,      requestList    }) {      return new Promise(resolve => {        const xhr = new XMLHttpRequest();+        xhr.upload.onprogress = onProgress;        xhr.open(method, url);        Object.keys(headers).forEach(key =>          xhr.setRequestHeader(key, headers[key])        );        xhr.send(data);        xhr.onload = e => {          resolve({            data: e.target.response          });        };      });    }

由于每个切片都需要触发独立的监听事件,所以还需要一个工厂函数,根据传入的切片返回不同的监听函数

在原先的前端上传逻辑中新增监听函数部分

    // 上传切片,同时过滤已上传的切片    async uploadChunks(uploadedList = []) {      const requestList = this.data        .map(({ chunk }) => {          const formData = new FormData();          formData.append("chunk", chunk);          formData.append("filename", this.container.file.name);          return { formData };        })        .map(async ({ formData }) =>          this.request({            url: "http://localhost:3000",            data: formData,+           onProgress: this.createProgressHandler(this.data[index]),          })        );      await Promise.all(requestList);       // 合并切片      await this.mergeRequest();    },    async handleUpload() {      if (!this.container.file) return;      const fileChunkList = this.createFileChunk(this.container.file);      this.data = fileChunkList.map(({ file },index) => ({        chunk: file,+       index,        hash: this.container.file.name + "-" + index+       percentage:0      }));      await this.uploadChunks();    }    +   createProgressHandler(item) {+      return e => {+        item.percentage = parseInt(String((e.loaded / e.total) * 100));+      };+    }

每个切片在上传时都会通过监听函数更新 data 数组对应元素的 percentage 属性,之后把将 data 数组放到视图中展示即可

文件进度条
将每个切片已上传的部分累加,除以整个文件的大小,就能得出当前文件的上传进度,所以这里使用 Vue 计算属性

  computed: {       uploadPercentage() {          if (!this.container.file || !this.data.length) return 0;          const loaded = this.data            .map(item => item.size * item.percentage)            .reduce((acc, cur) => acc + cur);          return parseInt((loaded / this.container.file.size).toFixed(2));        } }

最终视图如下

断点续传
断点续传的原理在于前端/服务端需要记住已上传的切片,这样下次上传就可以跳过之前已上传的部分,有两种方案实现记忆的功能

前端使用 localStorage 记录已上传的切片 hash
服务端保存已上传的切片 hash,前端每次上传前向服务端获取已上传的切片
第一种是前端的解决方案,第二种是服务端,而前端方案有一个缺陷,如果换了个浏览器就失去了记忆的效果,所以这里选取后者

生成 hash
无论是前端还是服务端,都必须要生成文件和切片的 hash,之前我们使用文件名 + 切片下标作为切片 hash,这样做文件名一旦修改就失去了效果,而事实上只要文件内容不变,hash 就不应该变化,所以正确的做法是根据文件内容生成 hash,所以我们修改一下 hash 的生成规则

这里用到另一个库 spark-md5,它可以根据文件内容计算出文件的 hash 值,另外考虑到如果上传一个超大文件,读取文件内容计算 hash 是非常耗费时间的,并且会引起 UI 的阻塞,导致页面假死状态,所以我们使用 web-worker 在 worker 线程计算 hash,这样用户仍可以在主界面正常的交互

由于实例化 web-worker 时,参数是一个 js 文件路径且不能跨域,所以我们单独创建一个 hash.js 文件放在 public 目录下,另外在 worker 中也是不允许访问 dom 的,但它提供了importScripts 函数用于导入外部脚本,通过它导入 spark-md5

// /public/hash.jsself.importScripts("/spark-md5.min.js"); // 导入脚本// 生成文件 hashself.onmessage = e => {  const { fileChunkList } = e.data;  const spark = new self.SparkMD5.ArrayBuffer();  let percentage = 0;  let count = 0;  const loadNext = index => {    const reader = new FileReader();    reader.readAsArrayBuffer(fileChunkList[index].file);    reader.onload = e => {      count++;      spark.append(e.target.result);      if (count === fileChunkList.length) {        self.postMessage({          percentage: 100,          hash: spark.end()        });        self.close();      } else {        percentage += 100 / fileChunkList.length;        self.postMessage({          percentage        });        // 递归计算下一个切片        loadNext(count);      }    };  };  loadNext(0);};

在 worker 线程中,接受文件切片 fileChunkList,利用 FileReader 读取每个切片的 ArrayBuffer 并不断传入 spark-md5 中,每计算完一个切片通过 postMessage 向主线程发送一个进度事件,全部完成后将最终的 hash 发送给主线程

spark-md5 需要根据所有切片才能算出一个 hash 值,不能直接将整个文件放入计算,否则即使不同文件也会有相同的 hash,具体可以看官方文档

spark-md5

接着编写主线程与 worker 线程通讯的逻辑

+   // 生成文件 hash(web-worker)+    calculateHash(fileChunkList) {+      return new Promise(resolve => {+       // 添加 worker 属性+        this.container.worker = new Worker("/hash.js");+        this.container.worker.postMessage({ fileChunkList });+        this.container.worker.onmessage = e => {+          const { percentage, hash } = e.data;+          this.hashPercentage = percentage;+          if (hash) {+            resolve(hash);+          }+        };+      });    },    async handleUpload() {      if (!this.container.file) return;      const fileChunkList = this.createFileChunk(this.container.file);+     this.container.hash = await this.calculateHash(fileChunkList);      this.data = fileChunkList.map(({ file },index) => ({+       fileHash: this.container.hash,        chunk: file,        hash: this.container.file.name + "-" + index, // 文件名 + 数组下标        percentage:0      }));      await this.uploadChunks();    }   

主线程使用 postMessage 给 worker 线程传入所有切片 fileChunkList,并监听 worker 线程发出的 postMessage 事件拿到文件 hash

加上显示计算 hash 的进度条,看起来像这样

至此前端需要将之前用文件名作为 hash 的地方改写为 workder 返回的这个 hash

服务端则使用 hash 作为切片文件夹名,hash + 下标作为切片名,hash + 扩展名作为文件名,没有新增的逻辑

文件秒传
在实现断点续传前先简单介绍一下文件秒传

所谓的文件秒传,即在服务端已经存在了上传的资源,所以当用户再次上传时会直接提示上传成功

文件秒传需要依赖上一步生成的 hash,即在上传前,先计算出文件 hash,并把 hash 发送给服务端进行验证,由于 hash 的唯一性,所以一旦服务端能找到 hash 相同的文件,则直接返回上传成功的信息即可

  • async verifyUpload(filename, fileHash) {+ const { data } = await this.request({+ url: "http://localhost:3000/verify",+ headers: {+ "content-type": "application/json"+ },+ data: JSON.stringify({+ filename,+ fileHash+ })+ });+ return JSON.parse(data);+ }, async handleUpload() { if (!this.container.file) return; const fileChunkList = this.createFileChunk(this.container.file); this.container.hash = await this.calculateHash(fileChunkList);+ const { shouldUpload } = await this.verifyUpload(+ this.container.file.name,+ this.container.hash+ );+ if (!shouldUpload) {+ this.$message.success("秒传:上传成功");+ return;+ } this.data = fileChunkList.map(({ file }, index) => ({ fileHash: this.container.hash, index, hash: this.container.hash + "-" + index, chunk: file, percentage: 0 })); await this.uploadChunks(); }

秒传其实就是给用户看的障眼法,实质上根本没有上传

:)

服务端的逻辑非常简单,新增一个验证接口,验证文件是否存在即可

+ const extractExt = filename =>+  filename.slice(filename.lastIndexOf("."), filename.length); // 提取后缀名const UPLOAD_DIR = path.resolve(__dirname, "..", "target"); // 大文件存储目录const resolvePost = req =>  new Promise(resolve => {    let chunk = "";    req.on("data", data => {      chunk += data;    });    req.on("end", () => {      resolve(JSON.parse(chunk));    });  });server.on("request", async (req, res) => {  if (req.url === "/verify") {+    const data = await resolvePost(req);+    const { fileHash, filename } = data;+    const ext = extractExt(filename);+    const filePath = `${UPLOAD_DIR}/${fileHash}${ext}`;+    if (fse.existsSync(filePath)) {+      res.end(+        JSON.stringify({+          shouldUpload: false+        })+      );+    } else {+      res.end(+        JSON.stringify({+          shouldUpload: true+        })+      );+    }  }});server.listen(3000, () => console.log("正在监听 3000 端口"));

暂停上传
讲完了生成 hash 和文件秒传,回到断点续传

断点续传顾名思义即断点 + 续传,所以我们第一步先实现“断点”,也就是暂停上传

原理是使用 XMLHttpRequest 的 abort 方法,可以取消一个 xhr 请求的发送,为此我们需要将上传每个切片的 xhr 对象保存起来,我们再改造一下 request 方法

   request({      url,      method = "post",      data,      headers = {},      onProgress = e => e,+     requestList    }) {      return new Promise(resolve => {        const xhr = new XMLHttpRequest();        xhr.upload.onprogress = onProgress;        xhr.open(method, url);        Object.keys(headers).forEach(key =>          xhr.setRequestHeader(key, headers[key])        );        xhr.send(data);        xhr.onload = e => {+          // 将请求成功的 xhr 从列表中删除+          if (requestList) {+            const xhrIndex = requestList.findIndex(item => item === xhr);+            requestList.splice(xhrIndex, 1);+          }          resolve({            data: e.target.response          });        };+        // 暴露当前 xhr 给外部+        requestList?.push(xhr);      });    },

这样在上传切片时传入 requestList 数组作为参数,request 方法就会将所有的 xhr 保存在数组中了

每当一个切片上传成功时,将对应的 xhr 从 requestList 中删除,所以 requestList 中只保存正在上传切片的 xhr

之后新建一个暂停按钮,当点击按钮时,调用保存在 requestList 中 xhr 的 abort 方法,即取消并清空所有正在上传的切片

 handlePause() {    this.requestList.forEach(xhr => xhr?.abort());    this.requestList = [];}

点击暂停按钮可以看到 xhr 都被取消了

恢复上传
之前在介绍断点续传的时提到使用第二种服务端存储的方式实现续传

由于当文件切片上传后,服务端会建立一个文件夹存储所有上传的切片,所以每次前端上传前可以调用一个接口,服务端将已上传的切片的切片名返回,前端再跳过这些已经上传切片,这样就实现了“续传”的效果

而这个接口可以和之前秒传的验证接口合并,前端每次上传前发送一个验证的请求,返回两种结果

服务端已存在该文件,不需要再次上传
服务端不存在该文件或者已上传部分文件切片,通知前端进行上传,并把已上传的文件切片返回给前端
所以我们改造一下之前文件秒传的服务端验证接口

const extractExt = filename =>  filename.slice(filename.lastIndexOf("."), filename.length); // 提取后缀名const UPLOAD_DIR = path.resolve(__dirname, "..", "target"); // 大文件存储目录const resolvePost = req =>  new Promise(resolve => {    let chunk = "";    req.on("data", data => {      chunk += data;    });    req.on("end", () => {      resolve(JSON.parse(chunk));    });  });  +  // 返回已经上传切片名列表+ const createUploadedList = async fileHash =>+   fse.existsSync(`${UPLOAD_DIR}/${fileHash}`)+    ? await fse.readdir(`${UPLOAD_DIR}/${fileHash}`)+    : [];server.on("request", async (req, res) => {  if (req.url === "/verify") {    const data = await resolvePost(req);    const { fileHash, filename } = data;    const ext = extractExt(filename);    const filePath = `${UPLOAD_DIR}/${fileHash}${ext}`;    if (fse.existsSync(filePath)) {      res.end(        JSON.stringify({          shouldUpload: false        })      );    } else {      res.end(        JSON.stringify({          shouldUpload: true,+         uploadedList: await createUploadedList(fileHash)        })      );    }  }});server.listen(3000, () => console.log("正在监听 3000 端口"));

接着回到前端,前端有两个地方需要调用验证的接口

点击上传时,检查是否需要上传和已上传的切片
点击暂停后的恢复上传,返回已上传的切片
新增恢复按钮并改造原来上传切片的逻辑

<template>  <div id="app">      <input        type="file"        @change="handleFileChange"      />       <el-button @click="handleUpload">上传</el-button>       <el-button @click="handlePause" v-if="isPaused">暂停</el-button>+      <el-button @click="handleResume" v-else>恢复</el-button>      //...    </div></template>+   async handleResume() {+      const { uploadedList } = await this.verifyUpload(+        this.container.file.name,+        this.container.hash+      );+      await this.uploadChunks(uploadedList);    },    async handleUpload() {      if (!this.container.file) return;      const fileChunkList = this.createFileChunk(this.container.file);      this.container.hash = await this.calculateHash(fileChunkList);+     const { shouldUpload, uploadedList } = await this.verifyUpload(        this.container.file.name,        this.container.hash      );      if (!shouldUpload) {        this.$message.success("秒传:上传成功");        return;      }      this.data = fileChunkList.map(({ file }, index) => ({        fileHash: this.container.hash,        index,        hash: this.container.hash + "-" + index,        chunk: file,        percentage: 0      }));+      await this.uploadChunks(uploadedList);    },   // 上传切片,同时过滤已上传的切片+   async uploadChunks(uploadedList = []) {      const requestList = this.data+        .filter(({ hash }) => !uploadedList.includes(hash))        .map(({ chunk, hash, index }) => {          const formData = new FormData();          formData.append("chunk", chunk);          formData.append("hash", hash);          formData.append("filename", this.container.file.name);          formData.append("fileHash", this.container.hash);          return { formData, index };        })        .map(async ({ formData, index }) =>          this.request({            url: "http://localhost:3000",            data: formData,            onProgress: this.createProgressHandler(this.data[index]),            requestList: this.requestList          })        );      await Promise.all(requestList);      // 之前上传的切片数量 + 本次上传的切片数量 = 所有切片数量时      // 合并切片+      if (uploadedList.length + requestList.length === this.data.length) {         await this.mergeRequest();+      }    }

这里给原来上传切片的函数新增 uploadedList 参数,即上图中服务端返回的切片名列表,通过 filter 过滤掉已上传的切片,并且由于新增了已上传的部分,所以之前合并接口的触发条件做了一些改动

到这里断点续传的功能基本完成了

进度条改进
虽然实现了断点续传,但还需要修改一下进度条的显示规则,否则在暂停上传/接收到已上传切片时的进度条会出现偏差

切片进度条
由于在点击上传/恢复上传时,会调用验证接口返回已上传的切片,所以需要将已上传切片的进度变成 100%

   async handleUpload() {      if (!this.container.file) return;      const fileChunkList = this.createFileChunk(this.container.file);      this.container.hash = await this.calculateHash(fileChunkList);      const { shouldUpload, uploadedList } = await this.verifyUpload(        this.container.file.name,        this.container.hash      );      if (!shouldUpload) {        this.$message.success("秒传:上传成功");        return;      }      this.data = fileChunkList.map(({ file }, index) => ({        fileHash: this.container.hash,        index,        hash: this.container.hash + "-" + index,        chunk: file,+       percentage: uploadedList.includes(index) ? 100 : 0      }));      await this.uploadChunks(uploadedList);    },

uploadedList 会返回已上传的切片,在遍历所有切片时判断当前切片是否在已上传列表里即可

文件进度条
之前说到文件进度条是一个计算属性,根据所有切片的上传进度计算而来,这就遇到了一个问题

点击暂停会取消并清空切片的 xhr 请求,此时如果已经上传了一部分,就会发现文件进度条有倒退的现象

当点击恢复时,由于重新创建了 xhr 导致切片进度清零,所以总进度条就会倒退

解决方案是创建一个“假”的进度条,这个假进度条基于文件进度条,但只会停止和增加,然后给用户展示这个假的进度条

这里我们使用 Vue 的监听属性

  data: () => ({+    fakeUploadPercentage: 0  }),  computed: {    uploadPercentage() {      if (!this.container.file || !this.data.length) return 0;      const loaded = this.data        .map(item => item.size * item.percentage)        .reduce((acc, cur) => acc + cur);      return parseInt((loaded / this.container.file.size).toFixed(2));    }  },    watch: {+    uploadPercentage(now) {+      if (now > this.fakeUploadPercentage) {+        this.fakeUploadPercentage = now;+      }    }  },

当 uploadPercentage 即真的文件进度条增加时,fakeUploadPercentage 也增加,一旦文件进度条后退,假的进度条只需停止即可

至此一个大文件上传 + 断点续传的解决方案就完成了

总结
大文件上传

前端上传大文件时使用 Blob.prototype.slice 将文件切片,并发上传多个切片,最后发送一个合并的请求通知服务端合并切片
服务端接收切片并存储,收到合并请求后使用 fs.appendFileSync 对多个切片进行合并
原生 XMLHttpRequest 的 upload.onprogress 对切片上传进度的监听
使用 Vue 计算属性根据每个切片的进度算出整个文件的上传进度
断点续传

使用 spart-md5 根据文件内容算出文件 hash
通过 hash 可以判断服务端是否已经上传该文件,从而直接提示用户上传成功(秒传)
通过 XMLHttpRequest 的 abort 方法暂停切片的上传
上传前服务端返回已经上传的切片名,前端跳过这些切片的上传

原文地址:https://blog.51cto.com/14528283/2466427

时间: 2024-10-10 05:36:30

面试官:请你实现一个大文件上传和断点续传的相关文章

基于Nodejs的大文件上传之断点续传

接着<扒一扒Nodejs formidable的onPart>和<也说文件上传之兼容IE789的进度条---丢掉flash>:前面已完成兼容IE789的大文件上传:无flash的低版本进度条,高版本的分段上传,并已为断点续传做好铺垫: 说什么做好铺垫,原本以为Nodejs端已没问题,只剩前端依靠HTML5接着监听abort事件,保存中断时上传到第几块了(断点续传只支持文件比较大,然后意外上传中断了,暂时定50M开启断点续传吧),通过文件内容hash和该文件唯一上传token来记录断

Electron中实现大文件上传和断点续传功能

Electron官网的描述:Electron是由Github开发,用HTML,CSS和JavaScript来构建跨平台桌面应用程序的一个开源库. Electron通过将Chromium和Node.js合并到同一个运行时环境中,并将其打包为Mac,Windows和Linux系统下的应用来实现这一目的. 从官网的描述我们可以简单的概括,Electron是开源的框架,可以使用h5来开发跨平台pc桌面应用,这样前端开发这可以开发桌面应用了.由于它是基于Chromium和Node.js开发的,所以在Ele

asp.net mvc大文件上传、断点续传功能。

文件夹数据库处理逻辑 publicclass DbFolder { JSONObject root; public DbFolder() { this.root = new JSONObject(); this.root.put("f_id", ""); this.root.put("f_nameLoc", "根目录"); this.root.put("f_pid", ""); this

java http大文件上传,断点续传项目研究,Github上传源代码

1,项目调研 因为需要研究下断点上传的问题.找了很久终于找到一个比较好的项目. 在GoogleCode上面,代码弄下来超级不方便,还是配置hosts才好,把代码重新上传到了github上面. https://github.com/freewebsys/java-large-file-uploader-demo 效果: 上传中,显示进度,时间,百分比. 点击[Pause]暂停,点击[Resume]继续. 2,代码分析 原始项目: https://code.google.com/p/java-lar

Nodejs+HTML5兼容IE789的大文件上传完整版

业余将大文件上传重新梳理了一遍,后端基于Nodejs:有几个要点感觉很好玩: 兼容性:IE789为代表: 跨域上传:document.domain||middlePage: 多文件上传:input['type=file'] multiple: 拖拽上传:drag drop: 大文件分段:files.slice(s,e): 断点续传:localStorage: 接收分段的文件:formidable.onPart: 陆续写入分段文件:fs.write(fd,bf,offset,length,posi

JS WEB怎么实现大文件上传

众所皆知,web上传大文件,一直是一个痛.上传文件大小限制,页面响应时间超时.这些都是web开发所必须直面的. 本文给出的解决方案是:前端实现数据流分片长传,后面接收完毕后合并文件的思路. 实现文件夹上传,要求:服务端保留层级结构,支持10w级别的文件夹上传. 大文件上传及断点续传,要求:支持50G级的单个文件上传和续传.续传要求:在刷新浏览器后能够续传上传,在重启浏览器后能够继续上传上(关闭浏览器后重新打开),在重启电脑后能够继续上传. 支持PC端全平台,Windows,Mac,Linux 浏

根据百度网盘的上传原理,自己写大文件上传

在之前大文件的上传我都是通过FilderReader获取文件的base64然后转为Blob在一段一段截取上传,但是这个方法有个弊端就是很大的文件的时候获取文件的base64会使整个浏览器崩溃卡死,后面我去看了一下百度网盘的上传原理 我们可以看到百度是通过类似表单提交的方式上传文件的,这样子似乎不需要把文件转化为base64减少了浏览器的开销.那个让我们来动手做一个大文件上传吧 这里用input标签来获取需要上传的文件 获取到file对象以后我们就可以得到 这样一个对象里面就是文件的大小名字等信息

B/S之大文件分段上传、断点续传

4GB以上超大文件上传和断点续传服务器的实现 随着视频网站和大数据应用的普及,特别是高清视频和4K视频应用的到来,超大文件上传已经成为了日常的基础应用需求. 但是在很多情况下,平台运营方并没有大文件上传和断点续传的开发经验,往往在网上找一些简单的PHP或者Java程序来实现基本的上传功能,然而在实际使用中会发现,这些基于脚本语言实现的上传功能模块性能很弱,一是不支持2GB以上的内容上传:二是无法支持断点续传:三是效率极低,单台服务器最多支持几十个并发上传连接. 当前我们要搭建一个运营级的视频服务

web实现大文件上传分片上传断点续传

需求:项目要支持大文件上传功能,经过讨论,初步将文件上传大小控制在500M内,因此自己需要在项目中进行文件上传部分的调整和配置,自己将大小都以501M来进行限制. 第一步: 前端修改 由于项目使用的是BJUI前端框架,并没有使用框架本身的文件上传控件,而使用的基于jQuery的Uploadify文件上传组件,在项目使用的jslib项目中找到了BJUI框架集成jQuery Uploadify的部分,这部分代码封装在bjui-all.js文件中, 在bjui-all.js文件中的全局变量定义中有以下