网卡可以绑定cpu提高吞吐量

请看大神帖子:https://blog.csdn.net/nawenqiang/article/details/82854929

需要做什么呢?

首先,确认你是否运行irqbalance,这个是nice守护进程它会自动在cpu间扩展中断。在繁忙的系统中很重要,尤其是两块网卡,因为默认cpu0 将处理所有中断,系统很容易过载。irqbalance扩散这些中断用以降低负载。为了性能最大化,你可以手动平衡这些中断将套接字和超线程共享内核分 散,但是通常没必要这么麻烦。

原文地址:https://www.cnblogs.com/workharder/p/11635042.html

时间: 2024-11-13 14:09:58

网卡可以绑定cpu提高吞吐量的相关文章

网卡中断绑定CPU脚本

#!/bin/bashset_affinity(){if [ $VEC -ge 32 ]thenMASK_FILL=""MASK_ZERO="00000000"let "IDX = $VEC / 32"for ((i=1; i<=$IDX;i++))doMASK_FILL="${MASK_FILL},${MASK_ZERO}"done let "VEC -= 32 * $IDX" MASK_TMP=$

NGINX源码剖析 之 CPU绑定(CPU亲和性)

作者:邹祁峰 邮箱:[email protected] 博客:http://blog.csdn.net/qifengzou 日期:2014.06.12 18:44 转载请注明来自"祁峰"的CSDN博客 1 引言   非统一内存访问(NUMA)是一种用于多处理器的电脑记忆体设计,内存访问时间取决于处理器的内存位置. 在NUMA下,处理器访问它自己的本地存储器的速度比非本地存储器(存储器的地方到另一个处理器之间共享的处理器或存储器)快一些. 针对NUMA架构系统的特点,可以通过将进程/线程

RHEL6.4下用udev做网卡名称绑定

无论你是系统工程师,还是运维工程师,亦或是数据库工程师等等,均有可能会遇到需要网卡特殊命名的时候,本文基于RHEL6.4系统为例介绍如何做网卡名称绑定,仅供参考! 环境:rhel6.4操作系统 要求:将网卡eth0 改名为 public0 步骤介绍:     1. 查看当前eth0网卡的信息     2. 写Udev规则指定网卡名称     3. 网卡文件修改以及网卡信息查看     4. 重启验证     5. 网卡跳号解决方案 查看当前eth0网卡的信息 # udevadm  info  -

Ubuntu系统进程绑定CPU核

Ubuntu系统进程绑定CPU核 作者:chszs,版权所有,未经同意,不得转载.博主主页:http://blog.csdn.net/chszs 本文讲述如何在Ubuntu系统中,把指定的进程绑定到指定的CPU核运行.而通常是由操作系统负责管理进程和线程的调度,但是这种情况下是不清楚由哪个CPU核运行你的进程,因为操作系统的调度是基于资源的可用性进行判断的. 可以这样,把指定的CPU核绑定到你的进程. taskset -cp <CPU ID | CPU IDs> <Process ID&

在linux中实现多网卡的绑定 介绍常见的7种Bond模式

网卡bond是通过把多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡.在应用部署中是一种常用的技术,我们公司基本所有的项目相关服务器都做了bond,这里总结整理,以便待查. bond模式: Mode=0(balance-rr) 表示负载分担round-robin,和交换机的聚合强制不协商的方式配合. Mode=1(active-backup) 表示主备模式,只有一块网卡是active,另外一块是备的standby,这时如果交换机配的是捆绑,将不能正常工作,因为交换机往两块网卡发

Linux编程之《进程/线程绑定CPU》

Intro----- 通常我们在编写服务器代码时,可以通过将当前进程绑定到固定的CPU核心或者线程绑定到固定的CPU核心来提高系统调度程序的效率来提高程序执行的效率,下面将完整代码贴上.```/************************************************ * 该例程讲解了进程.线程绑定到固定的cpu核心上运行 * 来提高程序运行效率************************************************/#include <unistd

Centos7网卡bond绑定

一.建立bond0聚合口配置文件[[email protected] network-scripts]# vim ifcfg-bond0DEVICE=bond0BOOTPROTO=staticONBOOT=yesNAME=bond0TYPE=bondIPADDR=192.168.99.38NETMASK=255.255.255.0BONDING_MASTER=yesBONDING_OPTS="miimon=100 mode=0" 二.修改要聚合的网卡配置[[email protecte

linux 多网卡bonding 绑定 端口聚合

将多个Linux网络端口绑定为一个,可以提升网络的性能,比如对于备份服务器,需要在一个晚上备份几个T的数据, 如果使用单个的千兆网口将会是很严重的瓶颈.其它的应用,比如ftp服务器,高负载的下载网站, 都有类似的问题. 因此使用Linux teaming或bond来绑定多个网卡作为一个逻辑网口,配置单个的IP地址,会大幅提升服务器的网络吞吐(I/O). Linux的多网卡绑定功能使用的是内核中的"bonding"模块,关于此模块可以参考Linux Ethernet Bonding Dr

linux服务器性能(网卡流量、CPU、内存、磁盘使用率)监控

广义的网站的监控涵盖所有的非业务行为的数据采集与管理,包括数据分析师和产品设计师使用的网站用户行为日志.业务运行数据,以及供运维工程师和开发工程师使用的性能统计数据等. 本文主要是通过shell脚本来收集服务器性能指标,如系统load.内存占用.磁盘IO.CPU占用,并将其写入一个文件中,及时判断应用情况,防患于未然 . 实现步骤如下: 第一步:编写shell脚本,如下: vim check.sh,添加下面脚本之后保存 1 #!/bin/bash 2 #这个脚本使用来统计CPU.磁盘.内存使用率