一:Tomcat报错: org.apache.tomcat.util.net.NioEndpoint$Acceptor.run Socket accept failed java.io.IOException: Too many open files
前天下午所有调用到后台服务的功能,出现大面积的响应超时或连接拒绝。于是特意上Linux服务器上查看了相关的服务日志,日志里面一直打印:
1 | org.apache.tomcat.util.net.NioEndpoint$Acceptor.run Socket accept failed |
第一次时间想到的是项目中的Socket错误使用没有正常的关闭,然后查询了下项目发现项目中并没有使用到Socket技术栈。
然后上网搜索了,网上上解释为:
打开的文件过多,一般来说是由于应用程序对资源使用不当造成,比如没有及时关闭Socket或数据库连接等。但也可能应用确实需要打开比较多的文件句柄,而系统本身的设置限制了这一数量。
文件打开数过多最坏的情况可以使系统崩溃,到时候只能是重起服务器了。
1 | 操作系统的中打开文件的最大句柄数受限所致,常常发生在很多个并发用户访问服务器的时候.因为为了执行每个用户的应用服务器都要加载很多文件(new一个socket就需要一个文件句柄),这就会导致打开文件的句柄的缺乏. |
解决:
1.尽量把类打成jar包,因为一个jar包只消耗一个文件句柄,如果不打包,一个类就消耗一个文件句柄.
2.java的垃圾回收不能关闭网络连接打开的文件句柄,如果没有执行close()(例如:java.net.Socket.close())则文件句柄将一直存在,而不能被关闭.你也可以考虑设置socket的最大。
3.对操作系统做相关的设置,增加最大文件句柄数量。
服务器端修改:
查看系统允许打开的最大文件数
#cat /proc/sys/fs/file-max
查看每个用户允许打开的最大文件数ulimit -a
发现系统默认的是open files (-n) 1024,问题就出现在这里。
在系统文件/etc/security/limits.conf中修改这个数量限制,在文件中加入内容:
1 | * soft nofile 65536 |
另外方法:
1.使用ps -ef |grep java
(java代表你程序,查看你程序进程) 查看你的进程ID,记录ID号,假设进程ID为1305
2.使用:lsof -p 1305 | wc -l
查看当前进程id为1305的 文件操作状况
执行该命令出现文件使用情况为 1192
3.使用命令:ulimit -a
查看每个用户允许打开的最大文件数
发现系统默认的是open files (-n) 1024,问题就出现在这里。
4.然后执行:ulimit -n 4096
将open files (-n) 1024 设置成open files (-n) 4096
这样就增大了用户允许打开的最大文件数。