Google MySQL Cloud 第二代导入 >50GB

Google MySQL Cloud 第二代导入 >50GB

我正在尝试将 50GB 的 MySQL Innodb 数据库迁移到 Google Cloud。我当前数据库中的 Binlog 处于活动状态。因此,我将数据库设置为只读,创建快照并记下 binlog 位置。然后我关闭了只读模式,原始 mysql 数据库可以照常使用。

然后我的系统花了大约 2 周的时间将该快照导入 Google Cloud (mysql -hhost -u.... < my_tables.sql)。花了很长时间,但效果很好。

由于现在已经完成,我想将 NOW 和 BINLOG POSITION X 之间的差异导入 Google Cloud,以便 Google 能够跟上(同时将原始数据库再次设置为只读)。但是,我得到了大约 5000 x 100MB 的 binlog 文件。

问题:每 100MB 文件导入 Google 需要花一天时间。

那么,将 50GB 以上内存放入 Google Cloud 第二代的最佳做法是什么?我需要在生产中一直使用我的数据库。因此,关闭它不是一个选择。此外,使用 Google SQL 第二代,我无法将 Google 设置为 MySQL 从属。因此,这也不是一种选择……

谢谢,Florian

相关内容