什么时候服务器之间的同步文件会变得难以处理?

什么时候服务器之间的同步文件会变得难以处理?

假设我正在创建一个像 wordpress 这样的托管应用程序,人们可以在其中管理他们的博客。

我关注的重点是同步所有服务器之间的模板页面。

因此每个客户将有 5-10 个模板,并且假设我正在运行 10 台服务器。

任何时候客户修改模板,都必须同步到 10 台服务器。

10000 名客户 * 10 个模板 = 100K 个文件。

假设我保留模板的备份,以便它们可以恢复到以前的版本,现在是 200K 个文件。

我想避免将模板文件放在 NAS 或类似的东西上,因为我想为此使用 ec2。

无论如何,我真正的问题是,在服务器之间保持 200K 个文件同步是否可行,或者这是否是文件分配量?

我没有管理文件的经验,因为我通常将这类东西放在数据库中。

我最初的想法是这样做:

  1. 将模板保存在数据库中
  2. 在每个服务器上保留模板的本地副本,这样我就不必从数据库中获取模板,因为这会导致我想要的 kb 太多。

实际上模板不会经常更改,但我真的不知道它们会多久更改一次,但我可以想象人们会在早期更改它们,直到他们获得他们想要的布局设置。

有什么想法吗?

答案1

您是否考虑过对模板使用版本控制?用户将更新其模板并提交更改。然后,模板将定期或通过触发过程进行更新。

考虑到您的基础设施规模,提供一个可供用户编辑和测试其模板的开发服务器可能是合适的。

这将使跟踪所做的更改变得更简单,并提供比单个备份文件更好的恢复功能。它还可用于扫描生产服务器上的一些代码注入问题。

由于只传输更改部分,因此这应该比复制文件具有更好的可扩展性。

相关内容