我最近在旧的 16.04 安装基础上全新安装了 Ubuntu Server 18.04。我的旧设置中有一个 Raid1 配置,我通过 mdadm 对其进行管理。似乎我的 Raid1 配置仍然存在于 18.04 安装中(见下文)。
NAME FSTYPE SIZE MOUNTPOINT LABEL
loop0 squashfs 86.9M /snap/core/4917
loop1 squashfs 87M /snap/core/5145
sda 57.6G
├─sda1 1M
└─sda2 ext4 57.6G /
sdb 1.8T
└─sdb1 linux_raid_member 1.8T homeserver:0
└─md0 ext4 1.8T /media/raiddrives
sdc 1.8T
└─sdc1 linux_raid_member 1.8T homeserver:0
└─md0 ext4 1.8T /media/raiddrives
sdd 931.5G
└─sdd1 ext4 931.5G
sr0 1024M
我的问题是:我需要做什么才能让这个 Raid1 像以前一样工作?我需要更新 mdadm.conf 吗?还是只要像以前一样安装 md0 驱动器就足够了?我现在已将其临时安装在 /media/raiddrives 上。
趁此机会,我想发布一个不同但又有些相关的问题。如果我只使用 Ubuntu Core 设置 Raspberry Pi Owncloud 服务器,我可以使用当前的 Raid1 配置吗?使用现有 Raid 的 NAS 的最佳设置是什么?
谢谢!
答案1
迁移现有管理基于 RAID 阵列的安装到新机器上后,mdadm
应该只会检测并激活您的 RAID 阵列。
在这种情况下,您的 RAID 已被检测为/dev/md0
并且您能够将其安装于 下/media/raiddrives
。
我只能建议看一下输出sudo mdadm --detail /dev/md0
,并验证状态是干净的如下例所示:
sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sat Aug 6 14:29:19 2016
Raid Level : raid10
Array Size : 104841216 (99.98 GiB 107.36 GB)
Used Dev Size : 104841216 (99.98 GiB 107.36 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Tue Aug 14 13:49:15 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Name : EDITED_HOSTNAME:0 (local to host EDITED_HOSTNAME)
UUID : 772e6cc4:5af56198:1f0a2ec5:141b3e7e
Events : 4832
Number Major Minor RaidDevice State
3 8 2 0 active sync set-A /dev/sda2
2 8 18 1 active sync set-B /dev/sdb2