我们有以下磁盘lsblk
,所有磁盘都不是lvm
sdc 8:32 0 80G 0 disk /var/hadoop1
sdd 8:48 0 80G 0 disk /var/hadoop2
sde 8:64 0 80G 0 disk
sdf 8:80 0 80G 0 disk
sdc
并且sdd
磁盘已满(100%已使用)
状态是sdc
磁盘sdd
已满,我们可以使用它们
但我们有一个新磁盘 sde 和 sdf ,每个磁盘的大小为20G
所以
是否可以添加磁盘sde
以便sdc
为 sdc 提供另外 20G 空间?
答案1
您可以直接在 hadoop 中执行此操作,而不是在操作系统级别添加磁盘。您可以将它们添加到dfs.datanode.data.dir
属性中。格式为
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///disk/c0t2,/disk/c0t3,/dev/sde,/dev/sdf</value>
</property>
我不能 100% 确定 hadoop 可以处理 RAW 磁盘。在这种情况下,您可以在每个新磁盘上创建一个大分区,格式化它,挂载它/var/hadoop3
,/var/hadoop4
然后使用格式:
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///disk/c0t2,/disk/c0t3,/var/hadoop3,/var/hadoop4</value>
</property>