备份包含 30GB 数据的网络服务器的最佳方法是什么?

备份包含 30GB 数据的网络服务器的最佳方法是什么?

我目前有一台 Linux 服务器,每天有大约 10,000 名用户在使用。托管服务提供商提供备份,我也在使用。虽然我信任我的托管商,但我希望有一个异地备份,以防主机长时间停机或破产(你永远不知道)。我的想法是tar拆分数据并将存档复制到我的 Amazon S3 帐户,但我不知道这是否是最好的主意。

答案1

最好的办法是异地备份 30GB 的数据?

我可能会说使用 Amazon S3 进行 rsync,但请记住它有 30gb,因此带宽成本会很高(如果您支付 95%),而且需要很长时间才能将初始推送到那里。一旦您的数据上传到那里,只需每晚/每周/根据您的偏好保持文件 rsync。

然而,那只是备份方面,别忘了恢复。我会在第二个数据中心购买第二台服务器,使用类似的版本,并每晚 rsync 更改。

答案2

对于这种规模的数据集,S3 帐户并非不切实际——在 10Mbps 的速率下,传输所有数据大约需要 9 个小时。但是,无论你做什么,都要考虑恢复问题——你是否能接受停机 9 个小时(加上新机器所需的配置时间)来将 30GB 的数据下载回服务器?还要密切关注数据集的增长情况,并不断重新评估这一选择。在某个时候,找到愿意为你寄送物理媒体(一堆 DVD 或 USB 硬盘)的人可能会很有意义,但目前,纯网络可访问的系统应该很适合你。

答案3

听上去像塔斯纳普也许正是你需要的。而且很便宜。

答案4

您可能还想了解丛林磁盘也一样。该服务基本上为 S3 添加了不错的加密和界面/应用程序,从而实现了实时数据备份。

相关内容