linux文件句柄

在linux中执行ulimit -a 即可查询linux相关的参数,默认情况下,linux最大文件句柄数为1024个。当你的服务器在大并发达到极限时,就会报出“too many open files”。

[[email protected] ~]# ulimit -a
core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 256324
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 1024
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 10240
cpu time               (seconds, -t) unlimited
max user processes              (-u) 256324
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited

ulimit -n 2048这命令就可以修改linux最大文件句柄数,修改以后使用ulimit -a 查看修改的状态,但是,这种方法只针对当前进程有效。重新打开一个shell或者开启一个进程,你就会发现参数还是ulimit -n xx修改之前的数字。那么有没有一劳永逸的方法呢?

修改linux系统参数。vi /etc/security/limits.conf 添加

*  soft  nofile  65536

*  hard  nofile  65536

修改以后保存,注销当前用户,重新登录,执行ulimit -a ,ok ,参数生效了。

时间: 2025-01-01 07:23:47

linux文件句柄的相关文章

Linux文件句柄占用数量查看与设置

安装lsof yum install lsof 查看线程占句柄数ulimit -a 查看系统打开句柄最大数量more /proc/sys/fs/file-max1查看打开句柄总数lsof|awk '{print $2}'|wc -l1根据打开文件句柄的数量降序排列,其中第二列为进程ID:lsof|awk '{print $2}'|sort|uniq -c|sort -nr|more1根据获取的进程ID查看进程的详情ps -ef |grep 1修改linux单进程最大文件连接数修改linux系统参

Linux文件句柄数配置

1.单程序句柄数限制 查看配置的句柄数:ulimit -n cat /etc/security/limits.conf 参考配置: * soft nofile 655360* hard nofile 655360 2.全局句柄数限制 cat /proc/sys/fs/file-max 参考配置: 6815744 3.分析句柄数常用命令 (1)统计各进程打开句柄数:lsof -n|awk '{print $2}'|sort|uniq -c|sort -nr (2)统计各用户打开句柄数:lsof -

linux下安装Elasticsearch

一.简单介绍:Elasticsearch提供了近乎实时的数据操作和搜索功能,es集群中所有节点可以一起提供索引和搜索功能,能够相互发现彼此和自动地加入到集群中二.基础概念:1.索引:表征的文档的集合,索引由一个名字来标识(必须全部是小写字母的)2.类型(type):为数据定义类型3.文档(document):文档是一个可被索引的基础信息单元,文档以JSON(Javascript Object Notation)格式来表示elasticsearch中几个概念关系 ,格式如下:索引---->类型--

Linux进程数,句柄数,文件描述符是什么

linux文件句柄数 linux文件句柄数 1.问题阐述: too many open files:顾名思义即打开过多文件数. 不过这里的files不单是文件的意思,也包括打开的通讯链接(比如socket),正在监听的端口等等,所以有时候也可以叫做句柄(handle),这个错误通常也可以叫做句柄数超出系统限制. 2.产生的原因: 经常在使用linux的时候出现,大多数情况是由于程序没有正常关闭一些资源引起的,所以出现这种情况,请检查io读写,socket通讯等是否正常关闭. 3.经典案例: 很多

Tomcat 长连接与短连接性能测试

环境: 操作系统:centos 6.5 x64 cpu:32 core 内存:  32G web服务器:tomcat 6.x jdk :1.6x 测试环境: 操作系统:centos 6.5 x64 cpu:32 core 内存:  32G ab 作为性能测试工具 在做性能测试之前,对客户端和服务端均进行服务端优化(linux文件句柄数.socket 等网络参数).在服务端,针对tomcat connector 进行bio 短连接和bio长连接分别进行测试,具体参数在这里不详细介绍.请求页面4k大

Nginx并发访问优化

Nginx反向代理并发能力的强弱,直接影响到系统的稳定性.安装Nginx过程,默认配置并不涉及到过多的并发参数,作为产品运行,不得不考虑这些因素.Nginx作为产品运行,官方建议部署到Linux64位系统,基于该建议,本文中从系统线之上考虑Nginx的并发优化. 1.打开Linux系统epoll支持 epoll支持,能够大大提高系统网络IO的并发数. 2.Linux文件句柄数限制 Nginx代理过程,将业务服务器请求数据缓存到本地文件,再将文件数据转发给请求客户端.高并发的客户端请求,必然要求服

Nginx并发訪问优化

Nginx反向代理并发能力的强弱,直接影响到系统的稳定性.安装Nginx过程,默认配置并不涉及到过多的并发參数,作为产品执行,不得不考虑这些因素.Nginx作为产品执行,官方建议部署到Linux64位系统,基于该建议,本文中从系统线之上考虑Nginx的并发优化. 1.打开Linux系统epoll支持 epoll支持,可以大大提高系统网络IO的并发数. 2.Linux文件句柄数限制 Nginx代理过程,将业务server请求数据缓存到本地文件,再将文件数据转发给请求client.高并发的clien

用ossutil来同步Ecs数据到Oss的object

前言:公司的Ecs的数据盘即将爆之至.公司想省点钱.想把数据全部存储到oss.这样就不用在ecs本地存储同样的数据了,于是就开始着手想办法把ecs的数据同步到oss,开始想到的办法是通过外网地址遍历服务器上的每个文件,这样oss就会把访问过的文件同步到oss,由于文件量太大.文件总数:1,806,552,文件大小:425G- 全部遍历恐怕时间太久,再加上外网访问..也是耗费太多系统带宽.接着就开始找相关资料,联系过阿里客服,客服说只能把oss的数据挂在到本地不支持ecs同步到oss.-碎了.最后

系统配置命令

1. Linux文件句柄熟练设置方法 Linux系统默认的最大文件句柄数,系统默认是1024.用ulimit -n进行查看.当存在句柄泄露没有释放时,系统会报错:Too many open files.修改linux的最大文件句柄数限制的方法:1)ulimit -n 65535 在当前session有效,用户退出或者系统重新后恢复默认值 2)profile文件中添加:ulimit -n 65535 只对当个用户有效 3)/etc/sysctl.conf.在文件中添加:fs.file-max=65