备份 – 对于大文件先压缩然后传输或rsync -z?哪个会最快?
|
我有大量的相对论小数据文件,但它们占用大约50 GB,我需要将它们转移到另一台机器上.我试图想出最有效的方法来做到这一点. 我的想法是gzip整个事情然后rsync和解压缩,依赖rsync -z进行压缩,gzip然后使用rsync -z.我不确定哪个最有效,因为我不确定rsync -z是如何实现的.关于哪个选项最快的任何想法? 解决方法你不能“gzip整个事情”,因为gzip只压缩一个文件,你可以创建一个tar文件并将其gzip为“gzip整个东西”但你会松开复制仅修改文件的rsync功能.所以问题是:存储文件需要rsync gziped还是依赖rsync的-z选项更好. 可能是您不需要复制仅修改文件的rsync功能?在这种情况下,为什么使用rsync而不是做包含你的东西的tar.gz文件的scp? 无论如何回答这个问题,rsync gzip的效率会比使用gzip的gziping文件低一点.为什么?因为rsync会按块来gzip数据块,所以一小部分数据将用于创建gzip用来进行压缩的表,一组更大的数据(gzip会立即使用整个文件)给出更好的压缩表.但在大多数情况下,差异将非常小,但在非常罕见的情况下差异可能更重要(如果你有一个非常大的文件,非常长的partern在文件上重复很多时间但彼此相距很远)(这是一个非常简单的例子) (编辑:安卓应用网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
- Linux环境下实现生产者消费者问题
- python – 在pkg-config搜索路径REDHAT6.5中找不到包libffi
- linux – 我可以将一些文本发送到在屏幕会话中运行的活动进
- linux – 从Shell Script调用makefile
- 在没有提示的情况下在Linux/CentOS上安装和升级Java
- 即使有足够的内存,Linux进程也会被杀死
- macos – 由于“未知消息摘要算法”,Curl无法访问github.co
- linux – 找出高CPU占用率的apache进程实际上在做什么?
- 编辑/保存linux iptables后是否需要重启?
- linux – nginx uLimit’worker_connections超出打开文件资
