我必须处理许多(1,000 - 30,000)大文件,大小从 200MB 到 2GB 不等。这些文件的需求是可变的(0 - 300 次下载/文件)。这就是为什么单个文件必须保存在 2 个或更多服务器上的原因。
我的服务器位于不同的数据中心(法国),具有不同大小的硬盘(750GB 到 4TB)。
目前我使用 PHP 和 ncftpget/ncftpput 共享文件,但是速度非常慢。
我需要一个解决方案来平衡 7 台以上服务器之间的这些文件。
示例:文件 A:每天下载 300 次 文件 B:每天下载 100 次 文件 C:每天下载 1 次
每个文件都保存在不同的服务器上。文件 A 有“高需求”,必须复制到另一台服务器。
“高需求” = 许多用户想要这个文件...
答案1
如果您需要实时复制,我会使用 DRBD 之类的东西;如果您不需要实时镜像,我会从主服务器的 cron 中使用 rsync。