大文件如何快速上传?

article/2025/9/30 2:07:55

48b0cfe19d408e919491ac6c199bde8e.png

前言

大文件快速上传的方案,相信你也有过了解,其实无非就是将 文件变小,也就是通过 压缩文件资源或者 文件资源分块 后再上传。

本文只介绍资源分块上传的方式,并且会通过 前端(vue3 + vite) 和 服务端(nodejs + koa2)交互的方式,实现大文件分块上传的简单功能.

梳理思路

问题 1:谁负责资源分块?谁负责资源整合?

当然这个问题也很简单,肯定是前端负责分块,服务端负责整合.

问题 2:前端怎么对资源进行分块?

首先是选择上传的文件资源,接着就可以得到对应的文件对象 File,而 File.prototype.slice 方法可以实现资源的分块,当然也有人说是 Blob.prototype.slice 方法,因为 Blob.prototype.slice === File.prototype.slice.

问题 3:服务端怎么知道什么时候要整合资源?如何保证资源整合的有序性?

由于前端会将资源分块,然后单独发送请求,也就是说,原来 1 个文件对应 1 个上传请求,现在可能会变成 1 个文件对应 n 个上传请求,所以前端可以基于 Promise.all 将这多个接口整合,上传完成在发送一个合并的请求,通知服务端进行合并。

合并时可通过 nodejs 中的读写流(readStream/writeStream),将所有切片的流通过管道(pipe)输入最终文件的流中。

在发送请求资源时,前端会定好每个文件对应的序号,并将当前分块、序号以及文件 hash 等信息一起发送给服务端,服务端在进行合并时,通过序号进行依次合并即可。

问题 4:如果某个分块的上传请求失败了,怎么办?

一旦服务端某个上传请求失败,会返回当前分块失败的信息,其中会包含文件名称、文件 hash、分块大小以及分块序号等,前端拿到这些信息后可以进行重传,同时考虑此时是否需要将 Promise.all 替换为 Promise.allSettled 更方便.

前端部分

创建项目

通过 pnpm create vite 创建项目,对应文件目录如下.

c0ab8c2472fe8b6ef4b18dd2357b7634.png
image.png

请求模块

src/request.js

该文件就是针对 axios 进行简单的封装,如下:

import axios from "axios";const baseURL = 'http://localhost:3001';export const uploadFile = (url, formData, onUploadProgress = () => { }) => {return axios({method: 'post',url,baseURL,headers: {'Content-Type': 'multipart/form-data'},data: formData,onUploadProgress});
}export const mergeChunks = (url, data) => {return axios({method: 'post',url,baseURL,headers: {'Content-Type': 'application/json'},data});
}
复制代码

文件资源分块

根据 DefualtChunkSize = 5 * 1024 * 1024 ,即 5 MB ,来对文件进行资源分块进行计算,通过 spark-md5[1] 根据文件内容计算出文件的 hash 值,方便做其他优化,比如:当 hash 值不变时,服务端没有必要重复读写文件等.

// 获取文件分块
const getFileChunk = (file, chunkSize = DefualtChunkSize) => {return new Promise((resovle) => {let blobSlice = File.prototype.slice || File.prototype.mozSlice || File.prototype.webkitSlice,chunks = Math.ceil(file.size / chunkSize),currentChunk = 0,spark = new SparkMD5.ArrayBuffer(),fileReader = new FileReader();fileReader.onload = function (e) {console.log('read chunk nr', currentChunk + 1, 'of');const chunk = e.target.result;spark.append(chunk);currentChunk++;if (currentChunk < chunks) {loadNext();} else {let fileHash = spark.end();console.info('finished computed hash', fileHash);resovle({ fileHash });}};fileReader.onerror = function () {console.warn('oops, something went wrong.');};function loadNext() {let start = currentChunk * chunkSize,end = ((start + chunkSize) >= file.size) ? file.size : start + chunkSize;let chunk = blobSlice.call(file, start, end);fileChunkList.value.push({ chunk, size: chunk.size, name: currFile.value.name });fileReader.readAsArrayBuffer(chunk);}loadNext();});
}
复制代码

发送上传请求和合并请求

通过 Promise.all 方法整合所以分块的上传请求,在所有分块资源上传完毕后,在 then 中发送合并请求.

// 上传请求
const uploadChunks = (fileHash) => {const requests = fileChunkList.value.map((item, index) => {const formData = new FormData();formData.append(`${currFile.value.name}-${fileHash}-${index}`, item.chunk);formData.append("filename", currFile.value.name);formData.append("hash", `${fileHash}-${index}`);formData.append("fileHash", fileHash);return uploadFile('/upload', formData, onUploadProgress(item));});Promise.all(requests).then(() => {mergeChunks('/mergeChunks', { size: DefualtChunkSize, filename: currFile.value.name });});
}
复制代码

进度条数据

分块进度数据利用 axios 中的 onUploadProgress 配置项获取数据,通过使用computed 根据分块进度数据的变化自动自动计算当前文件的总进度.

// 总进度条
const totalPercentage = computed(() => {if (!fileChunkList.value.length) return 0;const loaded = fileChunkList.value.map(item => item.size * item.percentage).reduce((curr, next) => curr + next);return parseInt((loaded / currFile.value.size).toFixed(2));
})// 分块进度条
const onUploadProgress = (item) => (e) => {item.percentage = parseInt(String((e.loaded / e.total) * 100));
}
复制代码

服务端部分

搭建服务

  • 使用 koa2 搭建简单的服务,端口为 3001

  • 使用 koa-body 处理接收前端传递 'Content-Type': 'multipart/form-data' 类型的数据

  • 使用 koa-router 注册服务端路由

  • 使用 koa2-cors 处理跨域问题

目录/文件划分

server/server.js

该文件是服务端具体的代码实现,用于处理接收和整合分块资源.

server/resources

该目录是用于存放单文件的多个分块,以及最后分块整合后的资源:

  • 分块资源未合并时,会在该目录下以当前文件名创建一个目录,用于存放这个该文件相关的所有分块

  • 分块资源需合并时,会读取这个文件对应的目录下的所有分块资源,然后将它们整合成原文件

  • 分块资源合并完成,会删除这个对应的文件目录,只保留合并后的原文件,生成的文件名比真实文件名多一个 _ 前缀,如原文件名 "测试文件.txt" 对应合并后的文件名 "_测试文件.txt"

接收分块

使用 koa-body 中的 formidable 配置中的 onFileBegin 函数处理前端传来的 FormData 中的文件资源,在前端处理对应分块名时的格式为:filename-fileHash-index,所以这里直接将分块名拆分即可获得对应的信息。

// 上传请求
router.post('/upload',// 处理文件 form-data 数据koaBody({multipart: true,formidable: {uploadDir: outputPath,onFileBegin: (name, file) => {const [filename, fileHash, index] = name.split('-');const dir = path.join(outputPath, filename);// 保存当前 chunk 信息,发生错误时进行返回currChunk = {filename,fileHash,index};// 检查文件夹是否存在如果不存在则新建文件夹if (!fs.existsSync(dir)) {fs.mkdirSync(dir);}// 覆盖文件存放的完整路径file.path = `${dir}/${fileHash}-${index}`;},onError: (error) => {app.status = 400;app.body = { code: 400, msg: "上传失败", data: currChunk };return;},},}),// 处理响应async (ctx) => {ctx.set("Content-Type", "application/json");ctx.body = JSON.stringify({code: 2000,message: 'upload successfully!'});});
复制代码

整合分块

通过文件名找到对应文件分块目录,使用 fs.readdirSync(chunkDir) 方法获取对应目录下所以分块的命名,在通过 fs.createWriteStream/fs.createReadStream 创建可写/可读流,结合管道 pipe 将流整合在同一文件中,合并完成后通过 fs.rmdirSync(chunkDir) 删除对应分块目录.

// 合并请求
router.post('/mergeChunks', async (ctx) => {const { filename, size } = ctx.request.body;// 合并 chunksawait mergeFileChunk(path.join(outputPath, '_' + filename), filename, size);// 处理响应ctx.set("Content-Type", "application/json");ctx.body = JSON.stringify({data: {code: 2000,filename,size},message: 'merge chunks successful!'});
});// 通过管道处理流 
const pipeStream = (path, writeStream) => {return new Promise(resolve => {const readStream = fs.createReadStream(path);readStream.pipe(writeStream);readStream.on("end", () => {fs.unlinkSync(path);resolve();});});
}// 合并切片
const mergeFileChunk = async (filePath, filename, size) => {const chunkDir = path.join(outputPath, filename);const chunkPaths = fs.readdirSync(chunkDir);if (!chunkPaths.length) return;// 根据切片下标进行排序,否则直接读取目录的获得的顺序可能会错乱chunkPaths.sort((a, b) => a.split("-")[1] - b.split("-")[1]);console.log("chunkPaths = ", chunkPaths);await Promise.all(chunkPaths.map((chunkPath, index) =>pipeStream(path.resolve(chunkDir, chunkPath),// 指定位置创建可写流fs.createWriteStream(filePath, {start: index * size,end: (index + 1) * size}))));// 合并后删除保存切片的目录fs.rmdirSync(chunkDir);
};
复制代码

前端 & 服务端 交互

前端分块上传

测试文件信息:

51c5c4c1c1c7847a28fb5b08ce339338.png

选择文件类型为 19.8MB,而且上面设定默认分块大小为 5MB ,于是应该要分成 4 个分块,即 4 个请求.

6b55cf2fd42f2244a7beb4888da385be.png

服务端分块接收

d28835269a1a31d59f0d6f3ed7641359.png

前端发送合并请求

ee3243514bae2fde28cc5f7b68658cd7.png

服务端合并分块

e216818ebc38939298b77a13188392e6.png

扩展 —— 断点续传 & 秒传

有了上面的核心逻辑之后,要实现断点续传和秒传的功能,只需要在取扩展即可,这里不再给出具体实现,只列出一些思路.

断点续传

断点续传其实就是让请求可中断,然后在接着上次中断的位置继续发送,此时要保存每个请求的实例对象,以便后期取消对应请求,并将取消的请求保存或者记录原始分块列表取消位置信息等,以便后期重新发起请求.

取消请求的几种方式

  • 如果使用原生 XHR 可使用 (new XMLHttpRequest()).abort() 取消请求

  • 如果使用 axios 可使用 new CancelToken(function (cancel) {}) 取消请求

  • 如果使用 fetch 可使用 (new AbortController()).abort() 取消请求

秒传

不要被这个名字给误导了,其实所谓的秒传就是不用传,在正式发起上传请求时,先发起一个检查请求,这个请求会携带对应的文件 hash 给服务端,服务端负责查找是否存在一模一样的文件 hash,如果存在此时直接复用这个文件资源即可,不需要前端在发起额外的上传请求.

最后

前端分片上传的内容单纯从理论上来看其实还是容易理解的,但是实际自己去实现的时候还是会踩一些坑,比如服务端接收解析 formData 格式的数据时,没法获取文件的二进制数据等

源代码: https://github.com/hanwenma/simple-upload

关于本文

作者:熊的猫

https://juejin.cn/post/7074534222748188685

最后

欢迎关注「前端达人」


http://chatgpt.dhexx.cn/article/uSB6kyjY.shtml

相关文章

Java如何上传大文件

1 背景 用户本地有一份txt或者csv文件&#xff0c;无论是从业务数据库导出、还是其他途径获取&#xff0c;当需要使用蚂蚁的大数据分析工具进行数据加工、挖掘和共创应用的时候&#xff0c;首先要将本地文件上传至ODPS&#xff0c;普通的小文件通过浏览器上传至服务器&#xf…

Github上传大文件(>25MB)教程

Github上传大文件&#xff08;>25MB&#xff09;教程 Github上传大文件&#xff08;>25MB&#xff09;教程安装git安装Git Large File Storage实例踩坑点1&#xff1a;failed to push some refs to踩坑点2&#xff1a;main与master踩坑点3&#xff1a;Failed to connect …

如何高效的上传大文件?

业务场景&#xff1a;在很多业务中会涉及到文件上传&#xff0c;对于上传的文件大小要求也相对比较广&#xff0c;对于小文件而言我们使用MultipartFile上传就能解决&#xff0c;对于大文件来说可能也就将文件拆分成多份&#xff0c;一份一份的上传&#xff0c;大部分业务是足以…

请问:怎么实现大文件快速上传?

关注公众号 前端开发博客&#xff0c;领27本电子书 回复加群&#xff0c;自助秒进前端群 前言 大文件快速上传的方案&#xff0c;相信你也有过了解&#xff0c;其实无非就是将 文件变小&#xff0c;也就是通过 压缩文件资源 或者 文件资源分块 后再上传。 本文只介绍资源分块上…

超大文件上传解决方案

一、 功能性需求与非功能性需求 要求操作便利&#xff0c;一次选择多个文件和文件夹进行上传&#xff1b; 支持PC端全平台操作系统&#xff0c;Windows,Linux,Mac 支持文件和文件夹的批量下载&#xff0c;断点续传。刷新页面后继续传输。关闭浏览器后保留进度信息。 支持文件…

上传大文件(10G)的解决方案

需求&#xff1a; 项目要支持大文件上传功能&#xff0c;经过讨论&#xff0c;初步将文件上传大小控制在20G内&#xff0c;因此自己需要在项目中进行文件上传部分的调整和配置&#xff0c;自己将大小都以20G来进行限制。 PC端全平台支持&#xff0c;要求支持Windows,Mac,Linu…

linux操作系统实用教程课后答案,Linux操作系统案例教程课后习题答案

Linux操作系统案例教程课后习题答案 (3页) 本资源提供全文预览&#xff0c;点击全文预览即可全文预览,如果喜欢文档就下载吧&#xff0c;查找使用更方便哦&#xff01; 11.90 积分 &#xfeff;Linux操作系统案例教程课后习题答案第一章一 1.(D) 2.(B,C) 3.(A,B,D)4.(A,C,D ) …

第一章 Linux操作系统概述

接下来我将根据《Linux C编程完全解密》这本书&#xff0c;整理Linux系列相关笔记&#xff0c;并写成文章。本文将是该系列文章的第一篇。 第1章 Linux操作系统概述 1.1 认识Linux操作系统 1.1.1 Linux操作系统发展背景 Linux操作系统核心最早是由芬兰的Linus Torvalds于199…

SRE运维工程师笔记-安装linux系统(国产统信UOS操作系统)

SRE运维工程师笔记-安装linux系统&#xff08;国产统信UOS操作系统&#xff09; 1. 安装统信UOS系统1.1 针对统信UOS操作系统创建虚拟机环境1.2 安装国产统信UOS操作系统 1. 安装统信UOS系统 1.1 针对统信UOS操作系统创建虚拟机环境 简单介绍一下国产统信系统的安装&#xff…

Linux操作系统——定制自己的 Linux 系统

文章目录 22 定制自己的 Linux 系统22.1 基本介绍22.2 基本原理22.3 制作 min linux 思路分析22.4 操作步骤 22 定制自己的 Linux 系统 22.1 基本介绍 通过裁剪现有 Linux 系统(CentOS7.6)&#xff0c;创建属于自己的 min Linux 小系统&#xff0c;可以加深我们对 linux 的理…

linux系统下的基本操作

Linux 操作系统 1. Linux操作系统认知 1.1 操作系统&#xff08;Operation System简称OS&#xff09; 定义 操作系统是管理计算机硬件与软件资源的计算机程序&#xff0c;同时也是计算机系统的内核与基石。操作系统需要处理如管理与配置内存、决定系统资源供需的优先次序、控…

Linux 系统相关介绍

Linux 系统相关说明 Linux 内核版本 没有图形化页面 稳定版 : 面向普通用户 开发版 : 面向开发人员 Linux 发行版 在内核版本的基础上, 增加比如桌面/音乐播放器等应用软件的系统 (不同公司的发行版, 名称不同)

讲讲Linux系统工程师的职业规划

时至今日&#xff0c;Linux操作系统越来越成为主流的桌面操作系统&#xff0c;自从在一年前看到了编程大神王垠写的一篇文章——完全用Linux工作&#xff0c;我决定学习使用Linux操作系统。因Windows在服务器领域的份额越来越低&#xff0c;学习具有安全和高效等特点的Linux操作…

Linux系统编程之进程退出,父进程等待子进程退出

1.首先讲一下进程的退出 进程的退出分为正常退出和异常退出&#xff1a; 正常退出&#xff1a; (1)main函数调用return (2)进程调用exit()&#xff0c;标准C库 &#xff08;3&#xff09;进程调用_exit()或_Exit()&#xff0c;属于系统调用 &#xff08;4&#xff09;进程最后一…

linux开发工程师主要是干什么的?

转载自&#xff1a;http://emb.hqyj.com/linux/10328.html 作者&#xff1a;清华远见 在新手眼里&#xff0c;大多数都不知道linux开发工程师主要是干什么的。其实linux开发工程师的主要工作内容有很多&#xff0c;需要学习的知识点也挺多的。学习这些东西以后&#xff0c;就可…

Linux 下怎么查看服务器的cpu和内存的硬件信息

一、top命令 top # 实时显示进程状态用户 和 查看CPU利用率 二、查看总内存的方法&#xff1a; free命令主要用于显示内存数量&#xff0c;如下图中内容所表示 free -h 命令 free -m 命令

如何通过命令查看服务器的内存条使用情况

其实就一个命令就搞定了&#xff1a;dmidecode。 最常用的选项就是用 -t 或者 --type 来限定关键字&#xff1a; bios, system, baseboard, chassis, processor, memory, cache, connector, slot 关于这些关键字可以百度是什么意思&#xff0c; 或者去看man手册页&#xff0c;这…

Linux 查看服务器内存、CPU、网络等占用情况的命令--汇总

搭建测试环境过程中&#xff0c;需要对正在使用的aws服务器&#xff0c;查看它在运行脚本&#xff0c;启动脚本时的内存&#xff0c;CPU&#xff0c;网络等使用情况 1、查看物理CPU个数&#xff1a;cat cat /proc/cpuinfo | grep "physical id" | sort | uniq | w…

服务器显示内存不足怎么查看,怎么查看服务器总内存

怎么查看服务器总内存 内容精选 换一换 华为云帮助中心&#xff0c;为用户提供产品简介、价格说明、购买指南、用户指南、API参考、最佳实践、常见问题、视频帮助等技术文档&#xff0c;帮助您快速上手使用华为云服务。 当您购买的云服务器规格无法满足业务需要时&#xff0c;可…