问题 当尝试删除 RAID1 设置的残余内容时,我收到以下错误:
WARNING: Not using lvmetad because duplicate PVs were found.
WARNING: Use multipath or vgimportclone to resolve duplicate PVs
背景: 我是非常我是 Linux 新手,目前正在设置一台 Ubuntu 服务器,该服务器具有 1TB 主磁盘,由 RAID1 阵列中的 2 个 2TB 数据磁盘支持。 RAID1 阵列是通过主板配置的,并且按预期工作,但是我在尝试将 Ubuntu 安装到 RAID1 阵列时犯了一个错误。
当我意识到这是多么愚蠢时,我断开了 RAID 驱动器并连接了 1TB 主磁盘,并在其中安装了 Ubuntu。一切顺利(nVidia 驱动程序是一个需要克服的障碍。)
安装完毕后,我重新连接了 RAID1 阵列,结果发现我之前安装的 Ubuntu 尝试仍然存在,现在系统在我启动时安装它们,而不是在我的主磁盘上安装我的新安装。
我此时的想法是:
- 重置机器
- 启动时删除硬件 RAID1 设置
- 从 CD 启动 GParted
- 删除 RAID1 分区剩余的数据
- 重新启动机器
- 重新创建 RAID1 硬件设置
- 从 CD 启动 GParted
- 将RAID1分区格式化为ext4
- 重新启动机器回到 Ubuntu
- 挂载新的RAID1分区
我进入了第 4 步 - 此时 GParted 告诉我系统上存在“重复的 PV”。我尝试用 Google 搜索这个问题并搜索堆栈交换,但我认为我对 Linux 的天真阻止了我看到答案。
我的假设是 PV 是某种驱动控制器,并且我已经完全搞砸了驱动器的状态,这意味着当 GParted 运行此命令时,它会变得混乱:
lvm pvremove /dev/sdb5
如果有人能帮我解决这个问题,我会感激他们的,特别是如果我能找到我遇到的所有这些新缩写词的资源(例如PV是什么)。
谢谢!
答案1
有人在另一个论坛上发帖 - 事实证明该wipefs
命令正是我所需要的。我从 GParted 运行了以下命令,现在我又开始工作了:
sudo wipefs -a /dev/sda
sudo wipefs -a /dev/sdb
这会将两个驱动器恢复到完全未分配的状态,现在我已经重置了 RAID1 阵列,创建了一个新分区,并使用 ext4 对其进行了格式化。