删除所有内容后驱动器上没有剩余空间。/dev/sda6 已使用 100%

删除所有内容后驱动器上没有剩余空间。/dev/sda6 已使用 100%

我最近在我的计算机上运行了我们大学考试的一个脚本,该脚本专门用于 32 位(i386),但我的 ubuntu 是 amd64,所以脚本无法运行,但随后我尝试访问主文件夹中的文件夹,但出现权限拒绝的情况。因此我执行了 sudo chmod 777 -R /home/username ,这使我获得了完成测试的权限,即使我被作为例外参加测试而无需使用脚本成功运行。经过这一切以及又过了两天,我开始面临驱动器空间不足的问题,但我可能应该有足够的空间。然后它说系统上剩余 1.4 kb 的空间。我在网上搜索我的问题,在 askubuntu 上找到了一个答案,但我再也找不到了。它说,实际发生的情况是主目录应该具有 644 权限而不是 777,因此我删除的文件的 INODES 仍然存在,还有我添加到目录中的新文件,因此没有剩余空间。我已经从主目录中删除了所有内容,但当我尝试添加小于 1kb 的文件时,它仍然显示没有剩余空间。任何帮助或建议都将不胜感激。

 running df  gives
    Filesystem     1K-blocks      Used Available Use% Mounted on
    /dev/sda6       16229452  15634864         0 100% /
    udev             1941220         4   1941216   1% /dev
    tmpfs             780000       972    779028   1% /run
    none                5120         0      5120   0% /run/lock
    none             1949996      9732   1940264   1% /run/shm
    overflow            1024       668       356  66% /tmp
    /dev/sda3      449082364 281834708 167247656  63% /media/Acer
    /dev/sdb1      976762524 250648068 726114456  26% /media/HD-PCTU2

df -h

Filesystem      Size  Used Avail Use% Mounted on
/dev/sda6        16G   15G     0 100% /
udev            1.9G  4.0K  1.9G   1% /dev
tmpfs           762M  972K  761M   1% /run
none            5.0M     0  5.0M   0% /run/lock
none            1.9G   14M  1.9G   1% /run/shm
overflow        1.0M  668K  356K  66% /tmp
/dev/sda3       429G  269G  160G  63% /media/Acer
/dev/sdb1       932G  240G  693G  26% /media/HD-PCTU2

gparted Image

i.imgur.com/NK0U349.png

答案1

/dev/sda6要增加根分区的大小,

  • 启动 Ubuntu 活动磁盘并在启动时单击尝试 Ubuntu 选项。现在从 dash 打开 gparted 分区编辑器。并确保所有分区都已卸载。

  • /dev/sda3通过右键单击来缩小它并选择调整大小/移动选项。

  • 缩小后,未分配的空间将被创建在/dev/sda3分区的正下方。

  • 现在右键单击扩展分区并选择调整大小选项,通过扩展拖动器来添加未分配的空间。

  • 未分配的空间将位于扩展分区下(就在/dev/sda5分区下方)。

  • 右键单击/dev/sda5分区并选择调整大小/移动选项。将拖动器移动到最右侧,然后单击应用,以便未分配的空间位于分区的正下方/dev/sda5

  • 现在您可以扩展您的/dev/sda6根分区了。

也可以看看如何使用 gparted 扩展 ext4?扩展我的根分区

答案2

问题是由于日志文件占用了太多磁盘空间而引起的。该文件位于 HADOOP_LOG_DIR 中。我们可以在 /etc/hadoop/conf/hadoop-env.sh 中找到它。在配置时,我们设置了 HADOOP_LOG_DIR。

我使用以下命令找到了它们:
find / -size +100M -ls。

只需执行 rm -rf /var/log/hadoop/ 。如果您的 HADOOP_LOG_DIR 指向 /var/log/hadoop/ ,则 rm -rf 该特定位置。

相关内容