我们网站的服务器上有 18 GB 的文件。我尝试使用 cpanel 备份向导进行备份。由于文件越来越大,cpanel 备份向导现在正在创建损坏的 zip 文件。因此,我从 Google 上发现 Filezilla 最适合传输大文件。但是,下载完成后,我找不到某些目录。我记得我从根目录(CTRL+A)将所有文件排队并开始处理。一个大 zip 失败了,我再次将其重新排队。
对我们来说可能存在什么问题?我们可以采用哪些其他解决方案?Cpanel 备份正在创建损坏的备份。我们的下载速度(500Kb 到 1.5Mb)。知道为什么我们的备份损坏、为什么我们失败以及其他好的解决方案会很好。我甚至不确定我是否应该联系托管。
我们正在使用共享 Linux 主机。
答案1
因此这里确实有两个问题需要考虑:
1)考虑到我的网站有多大,我如何才能生成有效的备份。
2)鉴于这些大型备份,我如何将其从我的服务器上移除,以便它作为备份工作。
第一个问题可以通过先备份主目录,然后再备份主目录来解决。主目录可能占据了大部分磁盘空间,而且更改频率要低得多。cpanel-backup 将包含重要的数据库和电子邮件,需要保持最新状态。
第二个问题是如何将其从服务器上删除。我会远离 FTP,而使用 Rsync。Rsync 可以恢复半完成的下载,如果您有 SSH 登录访问权限,它应该可用。
答案2
你应该
确保您从可以承载大文件的服务器/机器进行复制(即没有某些文件系统常见的 4gb(或有时更低)的限制)
确保双方使用的命令都可以处理这些大文件(某些 tar、gzip 或 zip 等在文件大小上有限制)
如果你想对大型文件进行某种“远程复制”,和这些大文件不会发生太多变化(或者它们只是在末尾“附加”新信息时才增长,例如:日志文件):您真正应该使用
rsync
进行复制。同样,根据双方的操作系统,请确保使用尽可能最新的版本,并确保了解其(有时是棘手和“危险”的参数……--delete
如果使用不当,一个简单的误用选项可能会抹去两端的整个目录!)。rsync
它具有先查看您尝试复制的文件中发生了哪些变化,然后仅发送更改的部分的优势!如果按照你的方法rsync
,它在原始文件上的效果最好,而不是在压缩的存档上:rsync 能够比在压缩存档上看到更多原始文件上的差异和相似之处。而且 rsync 还可以使用压缩,如果文件是文本或易于压缩,则压缩效果很好,如果文件已经是高度压缩的文件(例如 .gz 文件),则压缩效果不好。
答案3
感谢所有回答问题的人。这是一个迟来的回复,经过很长一段时间,我才意识到我应该分享我是如何解决我们的问题的。
后来我们决定使用 rsync,它对我们来说效果很好。对于损坏的备份,我能够遇到另一种情况,即在 Linux 操作系统上解压备份工作正常。它们只是在 Windows 计算机上损坏了。然后根据解压软件上弹出的错误和基于操作系统的经验,我终于弄清楚了脚本在 Linux 上生成区分大小写的文件和文件夹,这些文件和文件夹在 Windows 系统上被视为重复,解压软件不断警告重复项。
Olivier Dulac 问我文件从哪个操作系统复制/复制到哪个操作系统。他对操作系统差异的回答非常正确,而这正是我的问题所在。(由于某些原因,我无法回复他的评论)