并行 R 进程中的最佳 Swappiness

并行 R 进程中的最佳 Swappiness

我理解最佳 swappiness 取决于应用程序。数据库服务器的 swappiness 通常接近于零,而在许多其他情况下,似乎建议保留默认值 60。但是,我不确定哪种设置适合我的场景。

该服务器运行 Ubuntu 20.04,有 8 个 CPU、大约 30 GB 的 RAM 和一个 SSD 驱动器。我使用它来执行通常涉及地理空间数据的并行(SOCK 集群)R 脚本。在运行 R 脚本时,我不会在机器上执行任何其他应用程序。而且我直接从磁盘上的文件读取数据,而不是从任何 SQL 或其他数据库系统读取数据。在当前任务中,该进程每隔几分钟就会超过可用 RAM 几秒钟,否则将远低于该限制。我使用的包可能存在一些效率低下的问题。但是,我既不会调整包代码,也不会安装更多 RAM。我想要做的是设置最适合我的应用程序的 swappiness 值。

关于此类数据科学应用的经验法则会很好。

相关内容