我有一台带 zfs 池的 FreeNas 服务器。配置:RAIDZ2 中的 6 x 2TB 磁盘。15.5 TB 原始磁盘空间。
# zpool list -v
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
freenas-boot 14.5G 4.94G 9.56G - - 34% 1.00x ONLINE -
gptid/60734409-71b8-11e5-89c7-003048dcbffe 14.5G 4.94G 9.56G - - 34%
macierz 10.9T 7.39T 3.48T - 40% 67% 1.00x ONLINE /mnt
raidz2 10.9T 7.39T 3.48T - 40% 67%
gptid/39505ab0-71c0-11e5-bb5b-003048dcbffe - - - - - -
gptid/3a58ef4b-71c0-11e5-bb5b-003048dcbffe - - - - - -
gptid/3b6a3687-71c0-11e5-bb5b-003048dcbffe - - - - - -
gptid/3c6f5dd7-71c0-11e5-bb5b-003048dcbffe - - - - - -
gptid/3d7255dd-71c0-11e5-bb5b-003048dcbffe - - - - - -
gptid/3e77035a-71c0-11e5-bb5b-003048dcbffe - - - - - -
“macierz”池显示总空间为 10.9 TB。问题是“macierz”上的 samba 共享仅显示总空间为 4,15 TB。为什么?
zfs list
NAME USED AVAIL REFER MOUNTPOINT
freenas-boot 4.94G 9.11G 31K none
freenas-boot/ROOT 4.84G 9.11G 25K none
freenas-boot/ROOT/9.10-STABLE-201606270534 12.7M 9.11G 607M /
freenas-boot/ROOT/9.10.1-U4 13.6M 9.11G 636M /
freenas-boot/ROOT/9.10.2-U1 13.8M 9.11G 649M /
freenas-boot/ROOT/9.10.2-U2 14.4M 9.11G 651M /
freenas-boot/ROOT/9.10.2-U3 13.1M 9.11G 651M /
freenas-boot/ROOT/9.10.2-U5 14.4M 9.11G 653M /
freenas-boot/ROOT/9.10.2-U6 4.75G 9.11G 657M /
freenas-boot/ROOT/FreeNAS-8863f903d550e9d8a1e9f8c73ae9b4f0 10.6M 9.11G 504M /
freenas-boot/ROOT/Initial-Install 1K 9.11G 510M legacy
freenas-boot/ROOT/default 45K 9.11G 511M legacy
freenas-boot/grub 84.5M 9.11G 6.34M legacy
macierz 4.92T 2.09T 208K /mnt/macierz
macierz/.system 233M 2.09T 208K legacy
macierz/.system/configs-5ece5c906a8f4df886779fae5cade8a5 217M 2.09T 217M legacy
macierz/.system/cores 4.44M 2.09T 4.44M legacy
macierz/.system/rrd-5ece5c906a8f4df886779fae5cade8a5 192K 2.09T 192K legacy
macierz/.system/samba4 1.54M 2.09T 1.54M legacy
macierz/.system/syslog-5ece5c906a8f4df886779fae5cade8a5 9.79M 2.09T 9.79M legacy
macierz/Veem 866G 2.09T 866G /mnt/macierz/Veem
macierz/backups 2.06T 2.09T 2.06T /mnt/macierz/backups
macierz/jails 4.28G 2.09T 240K /mnt/macierz/jails
macierz/jails/.warden-template-pluginjail 610M 2.09T 606M /mnt/macierz/jails/.warden-template-pluginjail
macierz/jails/nextcloud_1 3.68G 2.09T 4.24G /mnt/macierz/jails/nextcloud_1
macierz/mailarchive_backup 130G 2.09T 130G /mnt/macierz/mailarchive_backup
macierz/samba 598G 2.09T 598G /mnt/macierz/samba
macierz/vmware 1.07T 2.09T 1.07T /mnt/macierz/vmware
macierz/vsphere 5.31G 2.09T 5.31G /mnt/macierz/vsphere
macierz/zimbra_backup 230G 2.09T 230G /mnt/macierz/zimbra_backup
答案1
这是 ZFS 解释空间的奇怪方式,以便将许多 ZFS 功能考虑在内。在许多情况下,这会让您感到惊讶。您不仅必须阅读教程,还必须多次阅读文档(手册页和 Oracle 文档)才能理解并记住它。
所以你问的是几乎所有使用 ZFS 的人一开始都会问的问题。就像我说的,这有点复杂,所以我没有时间分析它并提醒自己并在这里回答(也许其他人有一天会在这里发布答案),但我只是想发布这个简短的信息,让来到这里的人知道发生了什么。所以谷歌是你的朋友 :)
答案2
正如上文所述,原因有多种。
首先,通常没有“简单”的方法来了解 zfs 池中有多少可用空间。
使 Samba 共享报告(大约)可用空间的正常方法是使用在 /usr/local/etc/smb4.conf 中配置的特殊脚本(或您使用的任何脚本)
dfree 命令 = 你制作的东西
这些脚本通常返回 zfs get (!) 已使用和可用资源的总和,以 1024 为标准