我在德国有一台具有 120GB 数据的专用服务器,由于我在美国购买了一台新的专用服务器,我想通过 FTP 连接将所有文件传输到新服务器,为了实现这一点,我可以在我的新服务器中使用以下 wget 命令:
nohup wget -m --user=myusername --password=mypassowrd ftp://ftp.mysite.xyz > wget_backup_transfer_log.log 2>&1 &
我想知道有没有更好的方法来做到这一点,并且上述命令对于这些巨大的文件数据是否稳定?
提前致谢...
PS 两台服务器都运行 CentOS 6.5
答案1
大多数更好的方法包括不使用 FTP. 相反,首选方法是同步:
rsync -avPh mysite.xyz:/home /oldhome
源或目标都可以是远程的(host:/path
)。传输通过 SSH 进行,因此您只需要rsync
在两台服务器上都使用该工具,并且传输是加密的(这是明智的)。
rsync 会自动检测哪些文件被修改/添加/丢失,因此如果需要,可以安全地中断并重新启动。基本选项是-a -v
,但您还应该添加-P -h
以允许在传输过程中恢复大文件。
(也可能是-h -H -A -X
为了保存各种额外的元数据,如 ACL 或 xattrs。)