为什么在我的 Suse Linux 安装中创建了许多映射器卷

为什么在我的 Suse Linux 安装中创建了许多映射器卷

最近我安装了 Suse Linux 和 Sled。安装后,我发现为映射器分配了更多的内存;我不知道这些东西有什么用。一旦主物理卷填满,它们会被使用吗?

我想我最好把我的 fdisk 和 df 结果放在这里,它们是:

Disk /dev/sda: 596.2 GiB, 640135028736 bytes, 1250263728 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 8503B13D-9FCF-4B8B-A05D-3D3C9E423393

Device      Start        End    Sectors  Size Type
/dev/sda1    2048     321535     319488  156M EFI System
/dev/sda2  321536 1250263039 1249941504  596G Linux LVM




Disk /dev/mapper/system-root: 40 GiB, 42949672960 bytes, 83886080 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/mapper/system-swap: 2 GiB, 2147483648 bytes, 4194304 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/mapper/system-home: 100 GiB, 107374182400 bytes, 209715200 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdb: 931.5 GiB, 1000204883968 bytes, 1953525164 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xdbbfb035

Device     Boot Start        End    Sectors   Size Id Type
/dev/sdb1          63 1953520064 1953520002 931.5G  b W95 FAT32


linux-c3of:~ # df -h
Filesystem               Size  Used Avail Use% Mounted on
devtmpfs                 1.9G  8.0K  1.9G   1% /dev
tmpfs                    1.9G  184K  1.9G   1% /dev/shm
tmpfs                    1.9G   11M  1.9G   1% /run
tmpfs                    1.9G     0  1.9G   0% /sys/fs/cgroup
/dev/mapper/system-root   40G   11G   29G  27% /
/dev/mapper/system-root   40G   11G   29G  27% /.snapshots
/dev/mapper/system-root   40G   11G   29G  27% /srv
/dev/mapper/system-root   40G   11G   29G  27% /var/cache
/dev/mapper/system-root   40G   11G   29G  27% /tmp
/dev/mapper/system-root   40G   11G   29G  27% /var/tmp
/dev/mapper/system-root   40G   11G   29G  27% /boot/grub2/x86_64-efi
/dev/mapper/system-root   40G   11G   29G  27% /usr/local
/dev/mapper/system-root   40G   11G   29G  27% /opt
/dev/mapper/system-root   40G   11G   29G  27% /boot/grub2/i386-pc
/dev/mapper/system-root   40G   11G   29G  27% /var/lib/mysql
/dev/mapper/system-root   40G   11G   29G  27% /var/lib/named
/dev/mapper/system-root   40G   11G   29G  27% /var/lib/machines
/dev/mapper/system-root   40G   11G   29G  27% /var/opt
/dev/mapper/system-root   40G   11G   29G  27% /var/spool
/dev/mapper/system-root   40G   11G   29G  27% /var/log
/dev/mapper/system-root   40G   11G   29G  27% /var/crash
/dev/mapper/system-root   40G   11G   29G  27% /var/lib/pgsql
/dev/mapper/system-root   40G   11G   29G  27% /var/lib/mailman
/dev/mapper/system-root   40G   11G   29G  27% /var/lib/mariadb
/dev/mapper/system-root   40G   11G   29G  27% /var/lib/libvirt/images
/dev/sda1                156M  4.6M  152M   3% /boot/efi
/dev/mapper/system-home  100G   29G   72G  29% /home
tmpfs                    385M   60K  385M   1% /run/user/1000
/dev/sdb1                932G  189G  743G  21% /run/media/ari/New Volume

而那932G的容量是外置硬盘的。

我想了解这些分配背后的逻辑。

答案1

我想通过研究你的问题你会找到答案BTRFS文件系统。您的 SUSE 安装似乎保留使用默认设置,并且它使用 BTRFS 对硬盘进行了自动分区。

1-2 年前,我曾在我的 SLES 12 系统上评估过 BTRFS,但并没有留下深刻的印象。我也不明白众多映射背后的逻辑。在评估使用 BTRFS 文件系统可能带来的性能提升时,我发现没有任何提升只是增加了复杂性。

我的偏好是将操作系统硬盘驱动器或 /dev/sda 卷(其中 /dev/sda1)格式化为 FAT32,以便使用 ELILO 进行引导。那么 /dev/sda2 是磁盘上唯一的其他分区,格式为 EXT3。我不使用 SWAP,因为我的系统有超过 100GB 的 RAM,这种方法多年来一直对我有用。在我看来,对于根分区来说,唯一好的、可靠的、简单的文件系统是 EXT3、EXT4 和 XFS。

答案2

尽管有火焰邮件回应。

由于 btrfs 提供 COW 和系统/文件回滚,因此 /var 等需要分开,以免备份垃圾。你可以用 sudo btrfs subvolume list / the mapper/* 看到的东西可能是因为你使用 LVM?这对于 btrfs 来说是多余的。 btrfs 最近经历了很大的发展,我使用它没有任何问题(只需留意鲷鱼填充您的磁盘)

相关内容