如何释放Inode使用?

我有一个磁盘驱动器,其中inode使用率为100%(使用df -i命令)。 但是在大量删除文件后,使用率仍然是100%

那么正确的做法是什么呢?

一个磁盘驱动器使用较少的磁盘空间怎么可能有 更高的Inode使用率比更高的磁盘驱动器磁盘空间使用率?< / p >

它是可能的,如果我压缩很多文件,这将减少使用inode计数?

617001 次浏览

即使磁盘不是很满,也很容易在磁盘上使用大量的inode。

inode被分配给一个文件,因此,如果您有无数个文件,每个文件都是1个字节,那么在耗尽磁盘之前,您就会耗尽inode。

如果文件有多个硬链接,删除文件也可能不会减少inode计数。正如我所说,inode属于文件,属于目录条目。如果一个文件有两个目录条目链接到它,删除一个不会释放inode。

此外,您可以删除目录条目,但如果正在运行的进程仍然打开该文件,则不会释放inode。

我最初的建议是尽可能删除所有文件,然后重新启动计算机,以确保没有进程保留这些文件。

如果你这样做,你仍然有问题,让我们知道。

顺便说一下,如果你正在寻找包含大量文件的目录,这个脚本可能会有帮助:

#!/bin/bash


# count_em - count files in all subdirectories under current directory.
echo 'echo $(ls -a "$1" | wc -l) $1' >/tmp/count_em_$$
chmod 700 /tmp/count_em_$$
find . -mount -type d -print0 | xargs -0 -n1 /tmp/count_em_$$ | sort -n
rm -f /tmp/count_em_$$

如果你非常不幸,你已经使用了大约100%的inode,不能创建scipt。 你可以用df -ih来检查

那么这个bash命令可以帮助您:

sudo find . -xdev -type f | cut -d "/" -f 2 | sort | uniq -c | sort -n

是的,这将花费时间,但您可以找到拥有最多文件的目录。

eaccelerator可能会导致这个问题,因为它将PHP编译成块…我在一个负载很重的网站上使用亚马逊AWS服务器时遇到过这个问题。如果您仍然有问题,可以通过删除/var/cache/eaccelerator中的eaccelerator缓存来释放Inodes。

rm -rf /var/cache/eaccelerator/*

(或者你的缓存目录)

在一次垃圾邮件攻击后,我们在一个HostGator帐户(他对所有主机都设置了inode限制)上遇到过这种情况。它在/root/.cpanel/comet中留下了大量队列记录。如果发生这种情况,你发现你没有空闲的inode,你可以通过shell运行这个cpanel实用程序:

/usr/local/cpanel/bin/purge_dead_comet_files

我的解决方案:

尝试查找这是否是一个inodes问题:

df -ih

尝试查找索引节点数较大的根文件夹:

for i in /*; do echo $i; find $i |wc -l; done

试着找到特定的文件夹:

for i in /src/*; do echo $i; find $i |wc -l; done

如果这是linux头文件,尝试删除最老的文件:

sudo apt-get autoremove linux-headers-3.13.0-24

就我个人而言,我把它们移动到一个挂载文件夹(因为对我来说,上一个命令失败了),并安装了最新的:

sudo apt-get autoremove -f

这解决了我的问题。

我的情况是我没有inodes了,我已经删除了所有我能删除的东西。

$ df -i
Filesystem     Inodes  IUsed  IFree IUse% Mounted on
/dev/sda1      942080 507361     11  100% /

我使用的是ubuntu 12.04LTS,无法删除旧的linux内核,它占用了大约400,000个inodes,因为apt因为缺少一个包而损坏了。我无法安装新包,因为我没有inodes了,所以我被卡住了。

我最终手动删除了一些旧的linux内核,以释放大约10,000个inode

$ sudo rm -rf /usr/src/linux-headers-3.2.0-2*

这足以让我安装丢失的包并修复我的apt

$ sudo apt-get install linux-headers-3.2.0-76-generic-pae

然后使用apt删除剩余的旧Linux内核

$ sudo apt-get autoremove

现在情况好多了

$ df -i
Filesystem     Inodes  IUsed  IFree IUse% Mounted on
/dev/sda1      942080 507361 434719   54% /

我有同样的问题,通过删除php的目录会话来修复它

rm -rf /var/lib/php/sessions/

如果你使用的是较旧的php版本,它可能在/var/lib/php5下。

使用以下权限重新创建它

mkdir /var/lib/php/sessions/ && chmod 1733 /var/lib/php/sessions/

Debian上默认目录的权限显示drwx-wx-wt (1733)

我们最近遇到了类似的问题,如果一个进程指向一个被删除的文件,Inode不会被释放,所以你需要检查lsof /, kill/ restart进程会释放Inode。

如果我说错了,请指正。

对于大量的文件,可以使用RSYNC删除

rsync -a --delete blanktest/ test/

创建空白测试文件夹,其中包含0个文件,命令将与大量文件同步测试文件夹(我已经使用这种方法删除了近500万个文件)。

感谢http://www.slashroot.in/which-is-the-fastest-method-to-delete-files-in-linux

如前所述,如果有很多小文件,文件系统可能会耗尽inode。我提供了一些方法来查找包含大多数在这里文件的目录。

到目前为止,这个问题有很多答案,上面所有的答案似乎都是具体的。我认为你使用stat是安全的,但根据操作系统的不同,你可能会遇到一些inode错误。因此,使用64bit实现自己的stat调用功能来避免任何溢出问题似乎是相当兼容的。

如果你使用docker,删除所有图像。他们使用了很多空间....

停止所有容器

docker stop $(docker ps -a -q)

删除所有容器

docker rm $(docker ps -a -q)

删除所有图片

docker rmi $(docker images -q)

对我有用

< p >晚回答: 在我的例子中,它是

下的会话文件
/var/lib/php/sessions

使用Inodes 我甚至无法打开crontab或创建新目录,更不用说触发删除操作了。 因为我使用PHP,所以我们有这个指南,其中我复制了示例1中的代码,并设置了cronjob来执行这部分代码

<?php
// Note: This script should be executed by the same user of web server
process.


// Need active session to initialize session data storage access.
session_start();


// Executes GC immediately
session_gc();


// Clean up session ID created by session_gc()
session_destroy();
?>

如果您想知道我是如何打开crontab的,那么好吧,我通过CLI手动删除了一些会话。

希望这能有所帮助!

你可以看到这个信息

for i in /var/run/*;do echo -n "$i "; find $i| wc -l;done | column -t
在上面的一个回答中,有人建议会话是inode耗尽的原因,在我们的例子中正是如此。为了补充这个答案,我建议检查php.ini文件,并确保session.gc_probability = 1session.gc_divisor = 1000session.gc_maxlifetime = 1440。在我们的案例会议上。Gc_probability = 0,导致了这个问题

这篇文章拯救了我: https://bewilderedoctothorpe.net/2018/12/21/out-of-inodes/ < / p >

find . -maxdepth 1 -type d | grep -v '^\.$' | xargs -n 1 -i{} find {} -xdev -type f | cut -d "/" -f 2 | uniq -c | sort -n

在树莓派上,我有一个问题,/var/cache/fontconfig目录有大量的文件。取出它花了一个多小时。当然,rm -rf *.cache*引发了Argument list too long错误。我用的是下面的

find . -name '*.cache*' | xargs rm -f

首先,获取inode存储使用情况:

df -i

下一步就是找到那些文件。为此,我们可以使用一个小脚本列出目录和其中的文件数量。

for i in /*; do echo $i; find $i |wc -l; done

从输出中,您可以看到使用大量文件的目录,然后对该目录重复此脚本,如下所示。重复该操作,直到看到可疑目录。

for i in /home/*; do echo $i; find $i |wc -l; done

当您发现有大量不需要的文件的可疑目录时。只需删除该目录上不需要的文件,并通过以下命令释放一些inode空间。

rm -rf /home/bad_user/directory_with_lots_of_empty_files

你已经成功地解决了这个问题。现在再次使用df -i命令检查inode的使用情况,您可以看到如下的差异。

df -i

执行sudo apt-get autoremove命令 在某些情况下,它是有效的。如果之前未使用的头数据存在,将被清除

对于那些使用Docker并最终来到这里的人,

df -i说100% Inode使用;

只需运行docker rmi $(docker images -q)

它会让你创建的容器(运行或退出),但会删除所有不再引用的图像,释放一大堆索引节点;我从100%回到了18%

值得一提的是,我在这台机器上使用了大量的CI/CD和docker运行程序。