"echo 0 /proc/sys/kernel/hung_task_timeout_secs" disable this message

问题现象:

问题原因:  

  默认情况下, Linux会最多使用40%的可用内存作为文件系统缓存。当超过这个阈值后,文件系统会把将缓存中的内存全部写入磁盘, 导致后续的IO请求都是同步的。

  将缓存写入磁盘时,有一个默认120秒的超时时间。 出现上面的问题的原因是IO子系统的处理速度不够快,不能在120秒将缓存中的数据全部写入磁盘。

  IO系统响应缓慢,导致越来越多的请求堆积,最终系统内存全部被占用,导致系统失去响应。

解决办法:  

  根据应用程序情况,对vm.dirty_ratio,vm.dirty_background_ratio两个参数进行调优设置。 例如,推荐如下设置:

  # sysctl -w vm.dirty_ratio=10

  # sysctl -w vm.dirty_background_ratio=5

  # sysctl -p

  

  如果系统永久生效,修改/etc/sysctl.conf文件。加入如下两行:

  #vi /etc/sysctl.conf

  vm.dirty_background_ratio = 5

  vm.dirty_ratio = 10

  重启系统生效

附录:  

  vm.dirty_background_ratio:这个参数指定了当文件系统缓存脏页数量达到系统内存百分之多少时(如5%)就会触发pdflush/flush/kdmflush等后台回写进程运行,将一定缓存的脏页异步地刷入外存;

  vm.dirty_ratio:而这个参数则指定了当文件系统缓存脏页数量达到系统内存百分之多少时(如10%),系统不得不开始处理缓存脏页(因为此时脏页数量已经比较多,为了避免数据丢失需要将一定脏页刷入外存);在此过程中很多应用进程可能会因为系统转而处理文件IO而阻塞。

  先达到vm.dirty_background_ratio的条件然后触发flush进程进行异步的回写操作,但是这一过程中应用进程仍然可以进行写操作,如果多个应用进程写入的量大于flush进程刷出的量那自然会达到vm.dirty_ratio这个参数所设定的坎,此时操作系统会转入同步地处理脏页的过程,阻塞应用进程。

原文地址:https://www.cnblogs.com/qianyuliang/p/11888114.html

时间: 2025-01-07 19:23:04

"echo 0 /proc/sys/kernel/hung_task_timeout_secs" disable this message的相关文章

linux主机hang住echo 0 > /proc/sys/kernel/hung_task_timeout_secs disables this message

问题原因: 默认情况下, Linux会最多使用40%的可用内存作为文件系统缓存.当超过这个阈值后,文件系统会把将缓存中的内存全部写入磁盘, 导致后续的IO请求都是同步的. 将缓存写入磁盘时,有一个默认120秒的超时时间. 出现上面的问题的原因是IO子系统的处理速度不够快,不能在120秒将缓存中的数据全部写入磁盘.IO系统响应缓慢,导致越来越多的请求堆积,最终系统内存全部被占用,导致系统失去响应. 解决方法: 根据应用程序情况,对vm.dirty_ratio,vm.dirty_background

[转载] Docker里莫名其妙的/proc/sys/kernel/shmmax

原文: http://www.weibo.com/p/1001603829422523342026 由docker ipc namespace引起的. Docker部署重型应用,比如数据库,是否有坑?今天还真发现了一个 在部署数据库的时候,可能需要调整一些内核参数,比如/proc/sys/kernel/shmmax这个参数,这个参数是用来限制内核共享内存大小.共享内存这个东西有什么用呢?比如Oracle的SGA实现就是使用的共享内存,多个Session可以共享一块公共的内存空间,从而降低整体内存

LINUX远程强制重启/proc/sys/kernel/sysrq /proc/sysrq-trigger

1.     # echo 1 > /proc/sys/kernel/sysrq 2.     # echo b > /proc/sysrq-trigger 1. /proc/sys/kernel/sysrq 向sysrq文件中写入1是为了开启SysRq功能.根据linux/Documentations/sysrq.txt中所说:SysRq代表的是Magic System Request Key.开启了这个功能以后,只要内核没有挂掉,它就会响应你要求的任何操作.但是这需要内核支持(CONFIG

Linux TCP/IP调优参数 /proc/sys/net/目录

所有的TCP/IP调优参数都位于/proc/sys/net/目录. 例如, 下面是最重要的一些调优参数,后面是它们的含义: /proc/sys/net/core/rmem_default "110592" 定义默认的接收窗口大小:对于更大的 BDP 来说,这个大小也应该更大. /proc/sys/net/core/rmem_max "110592" 定义接收窗口的最大大小:对于更大的 BDP 来说,这个大小也应该更大. /proc/sys/net/core/wmem

cat /proc/sys/net/ipv4/ip_forward 0 解决办法

cat /proc/sys/net/ipv4/ip_forward  0 出于安全考虑,Linux系统默认是禁止数据包转发的. 所谓转发即当主机拥有多于一块的网卡时,其中一块收到数据包,根据数据包的目的ip地址将包发往本机另一网卡,该网卡根据路由表继续发送数据包. 配置Linux系统的ip转发功能,首先保证硬件连通,然后打开系统的转发功能 cat /proc/sys/net/ipv4/ip_forward,该文件内容为0,表示禁止数据包转发,1表示允许. 有两种方式可以修改:利用命令一次性完成,

[转]手工释放linux内存——/proc/sys/vm/drop_caches

另一篇:http://www.linuxfly.org/post/320/ ? 1.清理前内存使用情况?free -m 2.开始清理??echo 1 > /proc/sys/vm/drop_caches 3.清理后内存使用情况?free -m 4.完成! 查看内存条数命令: dmidecode?|?grep?-A16?"Memory?Device$" ? ? ? ? ? +++++++++++++++++++++++++++++++++++++++++++++++++++++++

手工释放linux内存——/proc/sys/vm/drop_caches

--手工释放linux内存--/proc/sys/vm/drop_caches 总有很多朋友对于Linux的内存管理有疑问,之前一篇日志似乎也没能清除大家的疑虑.而在新版核心中,似乎对这个问题提供了新的解决方法,特转出来给大家参考一下.最后,还附上我对这方法的意见,欢迎各位一同讨论.    当在Linux下频繁存取文件后,物理内存会很快被用光,当程序结束后,内存不会被正常释放,而是一直作为caching.这个问题,貌似有不少人在问,不过都没有看到有什么很好解决的办法.那么我来谈谈这个问题. 一.

linux /proc/sys

所有的TCP/IP调优参数都位于/proc/sys/net/目录.例如, 下面是最重要的一些调优参数,后面是它们的含义: 1./proc/sys/net/core/rmem_max — 最大的TCP数据接收缓冲 2./proc/sys/net/core/wmem_max — 最大的TCP数据发送缓冲 3./proc/sys/net/ipv4/tcp_timestamps — 时间戳在(请参考RFC 1323)TCP的包头增加12个字节 4./proc/sys/net/ipv4/tcp_sack 

/proc/sys 子目录的作用

该子目录的作用是报告各种不同的内核参数,并让您能交互地更改其中的某些.与 /proc 中所有其他文件不同,该目录中的某些文件可以写入,不过这仅针对 root. 其中的目录以及文件的详细列表将占据过多的篇幅,而且该目录的内容是依赖于系统的,而 大部分的文件也仅仅对某些特殊的应用程序有用.然而,以下是该子目录的两个最常见的用 途: 允许路由:即便是 Mandrakelinux 默认的内核也是允许路由的,您必需显式允许它这么 做.为此,您只要以 root 身份键入以下命令: $ echo 1 >/pr