我已经购买了一台 Ubuntu 服务器并且打算在上面安装几个网站。
我想知道如何备份存储在 /var/www 文件夹中的不同文件夹中的网站。
例如,我可以使用 ftp 客户端复制/粘贴文件夹,但我想知道备份数据的专业方法是什么。我应该从 unix 而不是 ftp 执行此操作吗?
我应该运行脚本吗?备份应该自动进行吗?
谢谢
答案1
这实际上取决于您想做什么以及您的机器可以做什么。
我拥有一台运行 Debian Lenny 的虚拟服务器。我使用备份2l它使用差异备份、增量备份和少量完整备份的良好组合来节省空间。由于不允许我安装外部文件系统来存储备份,因此我让 backup2l 将其文件存储在 vserver 的驱动器上。后备份挂钩告诉 backup2l 使用 rsync(很棒的工具!)将我的本地备份存档与家中服务器上的远程存档同步。
好的替代方案是:
- 使用 rsync 的自定义脚本(这样您将只有一个快照)
- 快照(使用硬链接创建您已备份的每个状态的快照,并可立即使用。这有点像 Apple 的时间机器 - 但据我所知,rsnapshot 是第一个出现的 ;))
- 使用 tar 的自定义脚本(创建每个完整快照的档案)
- 其中一个“企业级”备份工具巴库拉,阿曼达, ETC。
- 在 Google 上搜索其他众多解决方案之一(参见这里,这里或者这里)
[编辑] 如果您将备份存储在另一台服务器上(我推荐这样做!),则应始终通过 SSH 隧道发送数据。
答案2
虽然它可能比较老套,但 tar 和 scp 的简单组合可能就是您所需要的。无论是脚本化还是计划化都取决于您。这也不难做到。一个命令就可以预先授权 scp 工作,而无需您每次都输入密码。
如果您担心安全问题,则不应使用简单的 FTP。