每天自动备份多个网站

每天自动备份多个网站

这是我的情况,
我有一台运行 freebsd 的 Web 服务器电脑,里面有许多网站(使用 vhost)。为了防止我的服务器出现问题,我想在每个午夜备份其中的每个网站。

我的问题是:
1. 是否可以使用单个命令备份多个具有不同文件名的网站?
2. 我可以通过 ftp 自动将备份文件存储到我的其他服务器吗?
3. 或者最好创建一个克隆服务器?如何同步其内容?

任何线索都将不胜感激

答案1

  1. 是否可以使用单个命令备份具有不同文件名的多个网站?

是的。您只需要编写一个 bash 脚本来执行备份。

  1. 我可以通过 ftp 自动将备份文件存储到我的其他服务器吗?

是的。同样,您需要在备份脚本中执行此操作。

  1. 或者最好创建一个克隆服务器?

嗯,这取决于你决定。

我如何同步它的内容?

这是一个非常大的话题,需要有自己的问题和答案。

有很多针对 *nix 的预制备份系统。我建议你查看 rsnapshot 或 rdiff-backup。这些只会考虑到你的文件。 为您数据库,您需要研究备份它们的最佳方法并单独实施。

相关内容