我需要导出一个包含数千个表和数百万行的大型数据库。我使用的是共享主机,因此无法使用命令行导出,而且除了通过 phpMyAdmin 或 php,我真的没有其他简单的方法来获取这些数据。cPanel 的默认“导出数据库”工具不起作用,它会导出一个空白数据库。phpMyAdmin 以 gzip 或 zip 格式导出也会导出一个空白数据库。
我已经下载这个 SQL 文件几个小时了,它只有 114 mb,实际数据大约有 2 gb。
对我来说,(安全地)导出所有数据的最佳方法是什么?这确实非常麻烦,不会丢失任何数据,但必须导出。有什么脚本或程序可以使用吗?
答案1
您可以直接访问数据库吗?MySqlDump.exe 可以在紧急情况下远程工作。
答案2
看一眼 :
http://www.siteground.com/tutorials/php-mysql/mysql_export.htm
您将找到一个教程,教您如何使用phpmyadmin,默认安装在控制面板。
此外,cpanel 具有备份功能,允许您仅备份数据库
https://yourdomain.com:2083/frontend/x3/backup/wizard-backup-type.html?type=mysql
或者,您可以尝试使用下面的函数(从http://davidwalsh.name/backup-mysql-database-php):
backup_tables('localhost','username','password','blog');
/* backup the db OR just a table */
function backup_tables($host,$user,$pass,$name,$tables = '*')
{
$link = mysql_connect($host,$user,$pass);
mysql_select_db($name,$link);
//get all of the tables
if($tables == '*')
{
$tables = array();
$result = mysql_query('SHOW TABLES');
while($row = mysql_fetch_row($result))
{
$tables[] = $row[0];
}
}
else
{
$tables = is_array($tables) ? $tables : explode(',',$tables);
}
//cycle through
foreach($tables as $table)
{
$result = mysql_query('SELECT * FROM '.$table);
$num_fields = mysql_num_fields($result);
$return.= 'DROP TABLE '.$table.';';
$row2 = mysql_fetch_row(mysql_query('SHOW CREATE TABLE '.$table));
$return.= "\n\n".$row2[1].";\n\n";
for ($i = 0; $i < $num_fields; $i++)
{
while($row = mysql_fetch_row($result))
{
$return.= 'INSERT INTO '.$table.' VALUES(';
for($j=0; $j<$num_fields; $j++)
{
$row[$j] = addslashes($row[$j]);
$row[$j] = ereg_replace("\n","\\n",$row[$j]);
if (isset($row[$j])) { $return.= '"'.$row[$j].'"' ; } else { $return.= '""'; }
if ($j<($num_fields-1)) { $return.= ','; }
}
$return.= ");\n";
}
}
$return.="\n\n\n";
}
//save file
$handle = fopen('db-backup-'.time().'-'.(md5(implode(',',$tables))).'.sql','w+');
fwrite($handle,$return);
fclose($handle);
}
当然,您需要向该函数提供数据库凭据,以及您想要备份的表数组。如果您提供“*”或不提供任何表,则将运行完整的数据库备份。脚本会完成剩下的工作!
不要忘记添加到set_time_limit(0);
包含该函数的 php 文件backup_tables()
。
恭喜!
答案3
您可以尝试使用 mysqldumper。这是一个脚本,它会下载数据库的一部分,记住它停止的位置,再次调用自身并继续下载。