使用 db_dump185 时出现“文件大小超出限制”错误,有没有解决方法

使用 db_dump185 时出现“文件大小超出限制”错误,有没有解决方法

是否有人尝试过升级必须通过 db_dump185 转储的旧 Berkeley 数据库?

当我尝试转储包含网站评论的数据库时,如下所示:

$ bash-3.2$ db_dump185 -f comment.dump comment.db 

我收到此错误:

File size limit exceeded (core dumped)

有办法避免这种情况吗?


以下是输出ulimit -a

$ulimit -a

core file size          (blocks, -c) 200000
data seg size           (kbytes, -d) 200000
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 32743
max locked memory       (kbytes, -l) 32
max memory size         (kbytes, -m) 200000
open files                      (-n) 100
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 20
virtual memory          (kbytes, -v) 200000
file locks                      (-x) unlimited

这是数据库:

$ ls -l comment.db 
-rwxr-xr-x 1 daiello staff 184393728 Jan 12 2012 comment.db

我想确保这个问题得到答案。@Alan 的建议db_dump185 comment.db | cat > comment.dump确实很有帮助。继续转储最终消耗了所有可用的实际内存和大部分交换空间。

因此我们将数据库文件移至更大的服务器,随后遇到了可怕的db_dump185: seq: invalid argument错误。我不相信 db_dump185 具有修复功能,但我还没有完成我想要做的所有研究。

相关内容