对于 ZFS 数据集,mountpoint=legacy 和 mountpoint=none 之间有何区别?
我注意到一些教程(例如:ZFS 上的 Arch Linux Root) 使用mountpoint=legacy,而其他 (例如:在 ZFS 上安装 Arch Linux) 用途mountpoint=none数据集用作分离系统数据和用户数据的容器(/home)。 它们是可以互换的,并且在运行其中任何一个的系统上都没有注意到任何差异。 这两个选项之间有什么区别(如果有的话)? ...
我注意到一些教程(例如:ZFS 上的 Arch Linux Root) 使用mountpoint=legacy,而其他 (例如:在 ZFS 上安装 Arch Linux) 用途mountpoint=none数据集用作分离系统数据和用户数据的容器(/home)。 它们是可以互换的,并且在运行其中任何一个的系统上都没有注意到任何差异。 这两个选项之间有什么区别(如果有的话)? ...
我有一个 ZFS 池连接到一个崩溃的系统。我正在寻找将该池带到新系统的方法,但是看起来我需要zfs export先使用它,因为我不再有权访问原始系统,所以我无法执行zfs export等等。 最主要的问题是,我有 4 个外部驱动器连接到该系统,但其中只有两个是 ZFS 池的一部分。我实际上不记得我是如何设置它们的,也不记得这 4 个 USB 驱动器中哪个是 ZFS 池的一部分,但我记得这 4 个驱动器中只有两个是 ZFS 池的一部分。 如果我不再具备初始条件,如何在新系统上安装池? 我在用6.1.0-9-amd64 #1 SMP PREEMPT_DYNAMI...
我配置了一些 ZFS ZPOOL: NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT backup 1.81T 1.41M 1.81T - - 0% 0% 1.00x ONLINE - storage 21.8T 7.47T 14.3T - - 0% 34% 1.00x ONLINE - tank 87....
我有一个池,其中有 3.41 TB 的数据,根据输出判断,卷上启用了重复数据删除 zpool status -D <pool_name> ... dedup: DDT entries 73665285, size 696B on disk, 154B in core ... 我看到 RAM 中只存储了 10 GB 的 DDT,如果我加载更多数据,块数将增加,字节数将减少。据我所知,DDT 存储在 ARC 的元数据中,输出时arc_meta_used,我只看到大约 8GB,这是元数据数量的限制(zfs_arc_meta_limit_percent...
我有一个 macOS 客户端(12.6.7),它带有 APFS 文件系统,支持大型扩展属性(测试中一个属性值超过 68 MB)。 我有一台 NAS 服务器,其中安装了 Ubuntu Server 22.04.2 LTS、ZFS 文件系统和 Samba 版本 4.15.13-Ubuntu。 ZFS 已设置 xattr=sa。因此 NAS 上已启用扩展属性。 我配置 Samba 运行vfs fruit如下: ea support = yes vfs objects = catia fruit streams_xattr fruit:resource = stre...
我正在运行带有 4 个数据 2TB SSD 的 raidz1-0(RAID5)设置。 午夜时分,我的 2 个数据盘不知为何出现了一些 I/O 错误(来自 /var/log/messages)。 当我早上调查时,zpool 状态显示以下内容: state: SUSPENDED status: One or more devices are faulted in response to IO failures. action: Make sure the affected devices are connected, then run 'zpool clear...
我有一个“家庭实验室”系统(i3-9300 上的 Ubuntu 22.04,配备 32G ecc-ram,其中 10G 专用于大页面),目前拥有 2 个 zfs raidz1 池,一个池配备 3x2TB WD-RED 和 nvme 作为日志和缓存设备,第二个池配备 3x1TB HDD(计划将其扩展到 3x12TB),目前仅用作备份 bartoszek@home-lab:~$ zpool list -v NAME SIZE ALLOC FREE CKPOINT EXP...
对于三重镜像的 vdev,我真的不知道为什么无论如何都无法重新导入。还有一个读取缓存 vdev,但它不再连接,尽管这似乎不是问题所在。我几乎放弃了,但也许其他人可以给我指明新的方向。 以下是我所看到的: # zpool import -o ro -f -m pool: tank id: 15181238712954073451 state: UNAVAIL status: One or more devices were being resilvered. action: The pool cannot be imported due...
我希望能够在 WSL2 Ubuntu 发行版中挂载 zfs 池,以便本机 Windows 程序可以透明地使用它。我在本指南的帮助下创建了一个启用了 zfs 的自定义内核:https://wsl.dev/wsl2-kernel-zfs/。 一切正常,我可以导入 zpool 并访问 Windows 中的数据。不幸的是,Windows 不会保留 wsl2 挂载,因此每次都需要这样做,因此我创建了 Windows 计划任务,该任务执行挂载物理驱动器并在 ubuntu 中导入 zpool: @echo off wsl --mount \\.\PHYSICALDRIVE...
我想创建一个方便的解决方案,用于完整系统(root-on-ZFS)备份。这个想法是在启动时(在写入 FS 之前)或作为关机过程的最后一步创建整个系统的快照。这样,我想保证 FS逻辑上zfs send一致,即快照代表冷 FS 的状态(没有任何未完成的进程)。稍后,如果需要,可以将此快照备份到另一个位置。 再次强调,我们的想法是,不仅要保证所有 I/O 操作都已完成且一致,还要保证所有进程都已完成,因此 FS 状态在全局和逻辑上是一致的。例如,不可能出现某个程序已写入文件并a进入快照,但b一微秒后才完成写入文件,因此b快照中不存在文件,而对于程序操作,文件必须同...
ZFS 和 BtrFS 是否能够处理大于一个物理磁盘的文件,以便如此大的文件跨越多个物理磁盘? 我考虑将我的文件服务器升级到虚拟机。目前,文件存档存储在简单的 ext4 分区上,可以将其移动到 ISO 文件中以获得更大的灵活性。在某些时候,ISO 文件可能会变得比单个物理磁盘还大。 ...
我最近检测到我的 ZFS raid-5 阵列中的硬盘出现故障。所以我买了一个硬盘,关闭并更换了故障硬盘。恐怕我应该先从池中移除故障的驱动器。它现在正在造成大麻烦…… pool: maxtorage state: DEGRADED status: One or more devices could not be used because the label is missing or invalid. Sufficient replicas exist for the pool to continue funct...
这是我的 zpool 的当前状态 NAME STATE READ WRITE CKSUM store ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-WDC_WD20EARX-00PASB0_WD-WCAZAE876073 ...
我正在将 Windows/NTFS 备份迁移到 Ubuntu 和本机加密的 ZFS。作为一名没有 Linux 经验的 Windows 老手,大多数指南对我来说都像是天书。目前进展顺利: 通过安装 OpenZFSsudo apt-get install zfsutils-linux 创建了一个 raidz 池:sudo zpool create -f Backup raidz3 /dev/sda /dev/sdb等等…… 安装海豚定位泳池/Backup 在池内创建了一个数据集:sudo zfs create -o encryption=on -o keyfo...
免责声明:这篇文章已发布于Reddit但没有成功,而且由于我非常渴望重新启动并运行我的所有服务,所以我现在求助于您...... 我在我的服务器(运行 Openmediavault)上安装了 docker,它位于一个名为的单独 zpool/dataset 上docker-apps/docker,但我真的不喜欢它为十几个图像创建了数百个遗留数据集。因此,我将其重新安装到一个名为的新创建的 ext4 zvol 中,并挂载到同一位置,即/docker-apps/docker/,但出于某种原因,Docker 仍然使用 zfs 存储驱动程序。 重新安装后,docker ...