答案1
我知道你可能只想要一些简单的东西,但有很多方法可以做到这一点。但首先我们希望能够同时控制所有计算机。
这似乎是一个奇怪的方向,但当您以后可能想要向所有计算机发送关机、重启、升级时,它可以节省您的时间。
clusterssh
让我们安装clusterssh
并启动一个命令来同时连接到我们所有的服务器(这可能不适合同时连接 200 台服务器 - 我没有 200 台计算机来测试它!)
sudo apt-get install clusterssh
cssh user@first_computer:port user@second_computer:port ...
这将为每个连接生成小输出窗口(我说 200 个可能有点夸张)和一个全局输入对话框。从那里,您可以将相同的命令发送到所有服务器。
如果您想从命令行执行此操作,并且这可能支持 200 个连接,您可以查看-a
的标志cssh
。您可以向每个服务器发送一个命令(或命令字符串)。它将连接、执行并关闭连接。
cssh -a 'cd directory; ls' user@first_computer:port user@second_computer:port
您可以使用clusterssh
的强大配置来简化您的连接。打开man cssh
并转到FILES
部分。它解释了如何创建文件/etc/clusters
,以便您快速创建组(称为标签),如下所示:
clusters = <tag1> <tag2> <tag3>
<tag1> = host1 host2 host3
<tag2> = user@host4 user@host5 host6
<tag3> = <tag1> <tag2>
然后你可以这样做:
cssh -T 'tag2' -a 'cd directory; ls'
使用中央存储库
我指的不是 deb repo(但我想这也是可能的),而是类似git
或 之类的东西brz
。它可以是像 Web 服务器或网络共享这样简单的东西。如果网络带宽在某些地方出现瓶颈,那么像 torrent 服务器这样的东西甚至可能是最好的选择(这就是 Facebook 更新其所有节点的方式)
告诉你的网络下载文件
从这里开始,只需将各个点连接起来。使用时,cssh
你只需告诉所有计算机获取文件并对其进行任何需要的操作。
我建议你从小处着手。先共享文件,然后尝试使用几台计算机组成一个简单集群,看看效果如何。然后将其扩展。
我建议,即使您已经完成,在将内容推送到主组之前,仍要保留几台计算机的集群进行测试。
答案2
或者,您也可以将其保留为基于推送的。最简单的方法是编写一个脚本:
- 遍历服务器列表
连接到服务器并复制文件(这里有两个选项):
- 用于
sshfs
在本地挂载远程文件系统、cp
/rsync
文件、fusermount -u
挂载它的目录(用于卸载远程系统)。继续。 只需使用的
rsync
网络功能即可复制文件。rsync /localdir/ user@remote:/remotedir
- 用于
答案3
[当我打字的时候,Oli 的回答出现了]
clusterss 的替代方案是 parallel-scp。它是pssh 包
您需要在文本文件(例如 hosts.txt)中提供主机列表,然后发出:
parallel-scp -h hosts.txt file2copy.dat /target/directory
查阅手册页以满足您的特定需求。这不应该达到太多连接的限制,因为它不需要像 cssh 那样打开所有实时连接,它会按顺序尝试。
附言:设置基于密钥的授权当然会使这一切变得容易得多,但我怀疑一开始就将你的密钥分发到 200 个系统可能是你问这个问题的原因……