编写用于网站备份的 bshel​​l 脚本

编写用于网站备份的 bshel​​l 脚本

我即将编写我的第一个 shell 脚本来备份我的服务器。

这些是我目前确定的步骤。

  1. 将需要备份的文件复制到/srv/backup/
  2. 运行 mysqldump 并将文件复制到 srv/backup/databases
  3. 运行 duplicity 将 /srv/backup/* 备份到我的机器上的另一个文件夹

我正在编写一个每天运行的 bash shell 脚本,它将执行上面提到的三个任务。

笔记:第 3 点(备份到本地文件夹)只是一种临时措施 - 让我了解自己在做什么,因为我使用的所有工具对我来说都是新的。一旦我可以正确备份和恢复,我将使用 duplicity 压缩和加密文件并将它们上传到异地。

如果我对二重性的理解是正确的(根据文档在这里),第一次运行脚本时,将进行完整备份。之后每次备份都将是增量备份。然后,我将在周末强制进行完整备份。

首先,我有几个问题:

  1. 我想对上面描述的“方案”使用备份轮换——我希望得到一些关于使用何种类型轮换的建议。

  2. 一旦我实现了备份轮换,我怎样才能从某一天恢复过去(当然假设备份存在)。?

我正在运行 Ubuntu 10.0.4

答案1

一个简单的解决方案是使用'柏油' 进行每日备份。我建议您每天进行完整备份,因为网站备份通常不是一项大工程(完整备份只需几分钟)。无论如何,对于您的数据库(.sql 文件),您没有选择对其进行完整备份。

tar cvf /srv/backup/backup.tar /website/directory

相关内容