在我的项目中,我处理了 800 GB 的数据(包括数据和代码)。我的部分数据由相当大的文件组成,约 1GB,但我的一些文件夹中也包含数千个小文件。
我已经使用 将所有数据备份到外部服务器上sftp
,并且我已经使用lftp
,使用mirror -R <folder>
。我发现这种备份数据的方式可能并不理想,因为它sftp
更适用于大文件,而备份小文件则需要很长时间。
现在我已经将所有数据复制到外部服务器上,我想每天逐步保存更改,因为我不断地处理我的项目并且一次更新几个不同的文件夹。
我曾经使用 进行备份rsync
,但我相信这不是我当前正在使用的外部服务器上的选项。
我想知道是否有某种方法可以加快这个过程sftp
,无论是使用内部lftp
还是其他文件管理器。