共享 CUDA 作业服务器

共享 CUDA 作业服务器

我正在使用 16.04 来运行我的 CUDA 项目,一切运行良好。

我目前使用服务器的方式是将文件传输到服务器并通过 SSH 运行代码并查看输出,当只有我一个人时这还可以,但现在越来越多的人想要使用它,这变得越来越麻烦。

我想要一个解决方案,其中有一个系统,用户可以上传他们的工作,然后将输出通过管道返回给他们。

有人可以提供一些服务/脚本/示例供我查看吗?

任何帮助都值得赞赏,

汤姆

编辑:回复一条评论时,我想补充一点,我并不是在寻找 GPU 的并发使用,而是寻找一个按顺序运行的作业队列。很抱歉没有把这个写在原帖里!

相关内容