大文件分卷压缩方法

文件,分卷压缩,方法 · 浏览次数 : 123

小编点评

**背景:** 为了节省个人计算机空间,我们将一些文件上传到网盘。但是,如果没有开通VIP,上传文件大小往往受限。 **分卷压缩:** 为了将大文件压缩为多个小文件,可以使用分卷压缩技术。该技术通过将文件分割成多个大小相似的压缩包来减少存储空间。 **分卷压缩步骤:** 1. 右键 7-zip,选择添加压缩包。 2. 设置分卷大小为 500KB。 3. 运行分卷压缩程序。 4. 生成多个压缩文件,以编号区分。 5. 将分卷压缩结果打包放在同一目录下。 6. 解压后,即可恢复原文件。 **解压:** 1. 开始菜单输入 7-zip,运行 7-zip 工具。 2. 地址栏定位到前面的分卷压缩结果存储目录,选中第一个压缩文件。 3. 选择右键 > 合并文件。 4. 选择合并文件存放路径后确定。 5. 路径下会生成合并后的压缩文件。 6. 解压后,即可恢复原文件,此处将恢复的文件命名为“Attention Is All You Need2.pdf”。 7. 利用 MD5 的方式可知原文件和新文件哈希值一致,表明两文件一样,证明这种方法是没问题的。

正文

一、背景

  为了节省个人计算机空间,我们经常将一些文件上传到网盘。但是如果没有开通VIP,上传文件大小往往受限。今天我就遇到了这个问题,在将Matlab安装包上传至百度网盘时,大小超出限制。如图

    

  文件有20G,但是上传单个文件大小限制为4G。此时就希望能够将上述文件拆分成多个压缩文件上传至网盘,也就是分卷压缩。

  由于我采用的是7-zip文件压缩工具,所以下面只介绍基于7-zip的分卷压缩和解压方法。

二、压缩

  以PDF格式的论文"Attention Is All You Need"为例进行分卷压缩,其大小为2151KB。采用分卷压缩方法,将其压缩为单卷最大500KB的多个压缩文件。步骤如下:

  1. 右键7-zip,选择添加到压缩包

    
  2. 设置分卷大小为500KB(指的是压缩后的文件最大为500KB而不是最大压缩500KB文件),确定运行

    

  3. 此时在原目录下会生成多个压缩文件,以编号区分

    

  4. 将分卷压缩结果打包放在同一目录下即完成压缩

二、解压

  1. 开始菜单输入7-zip,运行7-zip工具

  2. 地址栏定位到前面的分卷压缩结果存储目录,选中第一个压缩文件

    

  3. 选择右键->合并文件

    

  4. 选择合并文件存放路径后确定

    

  5. 路径下会生成合并后的压缩文件

    

  6. 解压后即可恢复原文件,此处将恢复的文件命名为"Attention Is All You Need2.pdf"。

  7. 利用MD5的方式可知原文件和新文件哈希值一致,表明两文件一样,证明这种方法是没问题的。

    


本文至此结束,如有疑惑欢迎留言交流。

 

与大文件分卷压缩方法相似的内容:

大文件分卷压缩方法

大文件的传输一般都会受到尺寸限制,针对这一问题,本文介绍如何利用7-zip压缩工具,将大文件拆分成若干小文件进行分卷压缩传输,以及如何将压缩后的若干小文件合并解压,恢复原始文件。

每日一题:吃透大文件上传问题(附可运行的前后端源码)

大文件上传 前言 在日常开发中,文件上传是常见的操作之一。文件上传技术使得用户可以方便地将本地文件上传到Web服务器上,这在许多场景下都是必需的,比如网盘上传、头像上传等。 但是当我们需要上传比较大的文件的时候,容易碰到以下问题: 上传时间比较久 中间一旦出错就需要重新上传 一般服务端会对文件的大小

[转帖]Linux中split大文件分割和cat合并文件详解

https://www.yingsoo.com/news/servers/70195.html 当需要将较大的数据上传到服务器,或从服务器下载较大的日志文件时,往往会因为网络或其它原因而导致传输中断而不得不重新传输。这种情况下,可以先将大文件分割成小文件后分批传输,传完后再合并文件。 1. 分割文件

[转帖]Linux中查找大文件两种姿势

https://rumenz.com/rumenbiji/linux-find-du-max-file.html 使用find命令查找大文件 find命令是Linux系统管理员工具库中最强大的工具之一。它允许你根据不同的标准(包括文件大小)搜索文件和目录。 例如,如果在当前工作目录中要搜索大小超过1

XTTS系列之五:警惕大文件表空间

在上篇《[XTTS系列之四:迷迷糊糊的并行度](https://www.cnblogs.com/jyzhao/p/17525723.html)》验证之后,就让测试组在RMAN配置中设置好正确的并行。然后重新将备份任务执行,平均速度直接由之前的150MB/s提升为1200MB/s。优化效果非常明显,速

Serverless Streaming:毫秒级流式大文件处理探秘

摘要:本文将以图片处理的场景作为例子详细描述当前的问题以及华为云FunctionGraph函数工作流在面对该问题时采取的一系列实践。 文章作者|旧浪:华为云Serverless研发专家、平山:华为云中间件Serverless负责人 一、背景 企业应用从微服务架构向 Serverless(无服务器)架

[转帖]linux磁盘空间占用满,但是找不到大文件的解决办法

https://blog.csdn.net/ChenLuLiang/article/details/128033237 1.查看磁盘空间使用情况(它会统计碎片占用的磁盘空间): df -Th 2.然后进入到根目录下 cd /3.查看磁盘每个目录的大小 du -h --max-depth=1 发现每个

[转帖]linux下df查看空间已经占用%100,但是找不到大文件的解决方法

https://www.cnblogs.com/leffss/p/8571685.html 有时候在linux下会遇到这种情况:df查看空间已经占用%100,但是找不到大文件,怎么回事呢,经过网上查找资料,得到解决方法: 1.使用lsof查看已删除但未释放的文件 lsof -n | grep del

【Azure 存储服务】.NET7.0 示例代码之上传大文件到Azure Storage Blob (一)

问题描述 在使用Azure的存储服务时候,如果上传的文件大于了100MB, 1GB的情况下,如何上传呢? 问题解答 使用Azure存储服务时,如果要上传文件到Azure Blob,有很多种工具可以实现。如:Azure 门户, Azure Storage Explorer, 命令行工具 az copy

【Azure 存储服务】.NET7.0 示例代码之上传大文件到Azure Storage Blob (二)

问题描述 在上一篇博文(【Azure 存储服务】.NET7.0 示例代码之上传大文件到Azure Storage Blob (一):https://www.cnblogs.com/lulight/p/17061631.html)中,介绍了第一种分片的方式上传文件。 本文章接着介绍第二种方式,使用 M