Rackspace 云服务器备份选项

Rackspace 云服务器备份选项

我最近与 Rackspace 签约托管一些数据库服务器。我设置了两个 MySQL 服务器,并且有创建备份的方法(使用 Percona Xtrabackup 和 innobackupex 工具)。我一直在尝试使用 duplicity 将这些备份复制到 S3 和 CloudFiles 存储,但需要永远!我原以为 S3 备份不会很快,但 CloudFiles 备份花了 15 个小时才备份 9GB。这太慢了,我无法接受。

我查看了 duplicity 源代码,默认情况下它才不是利用 Rackspace Servicenet 传输到 cloudfiles。然后我查看了 duplicity 用于 CF 后端的库的 cloudfiles 源代码,发现有一个环境选项可以使用 Servicenet ( RACKSPACE_SERVICENET)。只要将其设置为某物cloudfiles lib 应该通过 Rackspace Servicenet 连接到 cloudfiles,它应该可以实现快速传输。但不能。

我不确定速度限制是否是因为 CloudFiles 的某些限制,或者 cloudfiles python 库实际上并没有通过 RackSpace 服务网进行连接。

你们对我应该/可以如何将这些备份从服务器转移到第三方或远程备份服务还有其他建议吗?

答案1

我们使用 Rackspace Server Backup(又名 JungleDisk Server Backup),它像 Duplicity 一样进行本地重复数据删除和压缩,然后通过 HTTP 将“块”上传到云提供商。我们发现了一些性能问题,根本原因是我们的云文件和云服务器的配置点不同。我们的云服务器是在 DFW 数据中心创建的,但 JungleDisk 的所有云文件存储桶都在 ORD 数据中心。

Rackspace 目前不允许用户选择要使用的数据中心,因为 DFW 设施已接近满负荷。因此,“较新”帐户的所有内容都在 ORD 中进行配置。因此,您必须打开支持凭单才能更改您的配置点。

此外,您还不能在 Rackspace 数据中心之间使用 ServiceNet。

话虽如此,我们在使用 Rackspace Cloud Backup 进行跨 Rackspace 数据中心的备份时确实看到了 40+ Mbps,所以我怀疑您在 duplicity 方面存在某种配置问题,或者您在备份期间受到磁盘或 CPU 的限制。您是否尝试过从外部云文件运行备份到同一目标?大型文件的简单 HTTP PUT 性能如何(即排除 duplicity 进行测试)?

答案2

也许不是一个完整的答案,更多的是一个建议。您不能设置一个 Amazon EC2 实例来持续镜像(或延迟几分钟)主数据库服务器吗?然后您可以将该 EC2 实例的备份直接运行到 S3 并获得更快的传输速度,并减少主数据库机器上的负载。

虽然如果我的心算没错的话(可能不正确),9GB 的 15 小时传输速度低于 2MB/s,这听起来确实是一个问题。也许有必要联系 Rackspace 支持人员,询问他们传输速度为何如此缓慢。

相关内容