将大文件复制到 Samba 共享时网络断开连接

将大文件复制到 Samba 共享时网络断开连接

在将较大的文件从一个位置复制到 Linux 测试服务器时,我在 1.7-1.9GB 左右的区域不断断开连接。使用的协议没有区别(SFTP/SCP/SMB)。

我的猜测是目标服务器无法足够快地分配磁盘上的块,从而导致存储或 CPU 出现瓶颈,从而导致断开连接。当目标系统赶上时,源系统已经抛出了异常。我似乎可以通过将最大传输速度限制为大约 15k kb/s(它目前正在运行)来确认这一点。

我想知道是否有人能提供一些关于如何防止此问题发生的提示。我正在考虑在主机或目标系统上使用缓冲区或更长的超时。也许是第三方复制客户端?(我真的很怀念 Windows 上没有原生 rsync 的日子)

有人对此有什么建议吗?最方便的复制方法是使用 Windows 系统到 samba 服务器,这就是我想要实现的。

编辑:不要过度扩展下面的评论,另一个观察结果可以支持我对资源瓶颈的想法。如果我每隔几百兆左右专门暂停我的复制客户端(并且大概允许目标赶上),复制就会完成。我想我必须弄清楚如何进行数据包捕获(2GiB 副本?!)。也许使用 nice/ionice 可以解决问题,降低 smbd 的优先级。

答案1

当为真时;执行睡眠 10;回显 1 > /proc/sys/vm/drop_caches;完成

我对此有很多问题,但这有很大帮助。

相关内容