我在安装额外的 nvme 棒时遇到了问题,而且我的新棒似乎接管了启动驱动器的名称,例如 /dev/dba
我曾经有
- /dev/nvme0n1:我的存储1
- /dev/nvme1n1:我的存储2
- /dev/nvme2n1:我的启动棒
- /dev/sda:另一个存储
现在在 4x PCIe 板上安装另外 4 个 nvme 棒,同时移除“我的存储 2”,我有以下自动生成的映射。
- /dev/nvme0n1:我的启动棒
- /dev/nvme1n1 ~ nvme4n1:4 个 PCIe 板条
- /dev/nvme5n1:我的存储1
- /dev/sda:另一个存储
到目前为止,存储 1、2 和 sda 已在 /etc/fstab 中通过 UUID 挂载,并且我认为启动驱动器也是默认通过 UUID 挂载的。
但在安装 4x PCIe 板后,启动顺序进入维护模式,并且出现以下错误,覆盖屏幕,我根本看不到菜单。无论我在终端上做什么,每隔几秒钟就会生成一条消息。
nvme0000:xx:00.0 : AER: aer_status_0x00000001, aer_mask: 0x00000000
nvme0000:xx:00.0 : AER: aer_layer=Physical Layer, aer_agent=Receiver ID
'xx' 是数字,例如我的情况中的 42、43 和 44。并且,在维护模式(每次重新启动时都会自动转到此模式)下,在 journalctl -xb 中,我可以看到 nvme2 正在产生某种问题。所以,我认为这是因为 nvme 映射与分配给 /dev/nvme2n1 的新存储棒之一以及我的启动驱动器的原始地址(即 /dev/nvme2n1)重叠
我想
(sudo) fdisk -y /dev/nvme0n1p1
(sudo) fdisk -y /dev/nvme2n1p1
可以解决每次重启都会进入维护模式的问题,因为现在 nvme0n1 是新的启动驱动器。但事实并非如此。
经过一番麻烦,我取出了 4x PCIe 适配器,我的当前设置是
- /dev/nvme0n1:我的启动棒
- /dev/nvme1n1:我的存储1
- /dev/sda:另一个存储
问题解决了,但当我添加 4x PCIe 适配器时,我又遇到了同样的错误。我猜从头开始安装所有东西可以解决问题,但之后我必须进行各种迁移。假设这是最后的手段。
我认为针对每个用途“重新映射”所有 nvme 内存条就足够了。我想要的结果是
- /dev/nvme0n1:我的启动棒
- /dev/nvme1n1:我的存储1
- /dev/nvme2n1 ~ nvme5n1:4 个 PCIe 板条
- /dev/sda:另一个存储
系统是 Thinkstation P620(bios 更新到最新的,不到一个月),Ubuntu 22.04.3 服务器,新的 4 个 nvme 棒是 Hynix Platinum P41 2TB。