我有一个剩余的磁盘1,来自一个双磁盘 RAID-1 阵列,该阵列通过某个“硬件”伪 RAID 控制器以 DDF 格式创建,并通过 USB 适配器插入我的笔记本电脑。情况如下:
> sudo fdisk -l /dev/sdb
Disk /dev/sdb: 465,78 GiB, 500107862016 bytes, 976773168 sectors
Disk model: 2115
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
> sudo dmraid -r
/dev/sdb: ddf1, ".ddf1_disks", GROUP, ok, 976642096 sectors, data@ 0
> sudo dmraid -s -v
ERROR: ddf1: wrong # of devices in RAID set "ddf1_RAID" [1/2] on /dev/sdb
*** Group superset .ddf1_disks
--> *Inconsistent* Subset
name : ddf1_RAID
size : 976609280
stride : 64
type : mirror
status : inconsistent
subsets: 0
devs : 1
spares : 0
因此没有mdadm
可以组装的分区。
理想情况下,我希望像普通外部驱动器一样安装该磁盘上的分区以访问数据。无需恢复 RAID 阵列。
现在,我已经在几个地方读到使用dmraid -rE /dev/sdb
RAID 元数据擦除,甚至dd
将前几千个字节清零。我的问题是:这是否会使底层分区保持完整?如果不是,我该如何安全地恢复它们?
我已经通过以下方式找到了底层分区本教程在testdisk
:
Disk /dev/sdb - 500 GB / 465 GiB - CHS 60801 255 63
Partition Start End Size in sectors
>D Linux 2 42 41 19124 123 7 307200000 [HOME]
D HPFS - NTFS 19124 123 8 38246 203 37 307200000
D HPFS - NTFS 38246 203 38 59006 223 33 333510656 [DATA]
D Linux Swap 59006 223 34 60703 234 11 27262976
如果我用它testdisk
来更新分区表,这是一个好主意吗?
1事实上,我仍然有这两个问题,因为是主板出了问题,而不是磁盘出了问题,但这不应该改变问题。至少它给了我每次错误第二次机会。
答案1
我敢于尝试使用分区恢复testdisk
,它毫不费力地工作。使用“快速搜索”功能可以快速找到我在问题中写到的四个分区,但显示为已删除。我使用左/右箭头键将它们标记为主分区,然后继续编写分区结构。这根本不需要时间。
然后程序说你必须先重新启动才能使任何更改生效,但这不是必需的,因为无论如何都不涉及可启动或根分区 - 几秒钟后,所有分区都会自动且完好无损地安装。