ixgbe rx_missed_errors

https://communities.intel.com/thread/54600?start=0&tstart=0

I am acquiring 800Mb/sec+ multicast data in a RHEV 6.5 VM using an HP 560SFP+ (Intel 82599ES chip set) adapter in passthru mode (i.e. the NIC is presented natively to the VM).    I am seeing incrementing rx_missed_errors (and losing data) but rx_no_buffer_count is NOT incrementing.  I see some Internet references that indicate that this might be because I have insufficient PCI bandwidth, but that does not seem likely because the platform is e5-2680 and I think I have dedicated PCI-e lines right to the CPU.  I am using the stock RHEL 6.5 ixgbe driver 3.15.1k.    My RX ring buffer is set to 4096, rx-usecs is 180, and lscpi indicates that I am connected at 66Mhz.  Does anyone know what the incrementing rx_missed_errors is trying to tell me and is there any mitigation?

根据之前经验总结, 一般情况下,如果看到了不少 rx_no_buffer_count,则表明需要增加 ring buffer;而如果看到 tx_deferred_ok 表示传输被延迟,不算 errors; rx_missed_errors, rx_fw_discards 这个表示包满了,多出的全被 drop 掉了。

http://jaseywang.me/2013/11/02/10g82599eb-%E7%BD%91%E5%8D%A1%E6%B5%8B%E8%AF%95%E4%BC%98%E5%8C%96ethtool/

时间: 2024-10-06 01:53:14

ixgbe rx_missed_errors的相关文章

ixgbe RSS原理分析

这个月,一直在搞ixgbe RSS,希望能使得收包均衡,结果没成功,但是对网卡的收包原理理解得更深入些. 1.网卡硬件通过网线或者光纤收包. 2.网卡的RSS功能根据网络五元组计算得到32bit的hash值, 根据hash值的低7位(0-127)与网卡queue的映射关系, 把收到的数据包放到某个queue上. 3.做了cpu亲和性绑定时,一个queue上的数据包就由对应的一个core来处理. reta寄存器负责为hash值的低7位和网卡queue建立映射关系,ixge驱动默认的映射关系是比较均

ixgbe 82599 固定源与目标, UDP, 64字节小包, 1488w pps 单核CPU软中断sirq 100%

注: 测试使用, 正常应用不要开启 五元组不同, 开启ntupleethtool --config-ntuple eth12 rx-flow-hash udp4 sdfn Mem: 483060K used, 15719212K free, 0K shrd, 188K buff, 150536K cachedCPU0:  0.0% usr  0.0% sys  0.0% nic 58.0% idle  0.0% io  0.0% irq 41.9% sirqCPU1:  0.0% usr  0.

VMware 升级esxi网卡驱动的几个相关命令

1.将下载的驱动上传到要升级的esxi storage 2.开启esxi主机的SSH功能 3. 列出当前ESXi主机上所有NICs的状态 esxcli network nic list 4.查看网卡驱动版本及固件版本 esxcli network nic get -n vmnic2 Advertised Auto Negotiation: false Advertised Link Modes: 10000baseT/Full Auto Negotiation: false Cable Type

DPDK17.02入门手册

Linux环境下DPDK入门 Release 17.02.0 目录 Linux环境下DPDK入门... 1 1       引言... 2 2       资料集... 2 3       系统需求... 2 3.1        x86平台的先决条件BIOS设置... 2 3.2        编译DPDK. 3 3.3        运行DPDK程序... 3 4       编译DPDK源码... 5 4.1        安装DPDK和浏览源码... 5 4.2        安装DPD

Linux内核协议栈 NAT性能优化之FAST NAT

各位看官非常对不起,本文是用因为写的,如果多有不便敬请见谅 代码是在商业公司编写的,在商业产品中也不能开源,再次抱歉 This presentation will highlight our efforts on optimizing the Linux TCP/IP stack for providing networking in an OpenStack environment, as deployed at our industrial customers. Our primary go

Red Hat Enterprise Linux 7的新功能

?? 简介红帽最新版本的旗舰平台交付显著增强的可用性. 性能和可靠性. 丰富的新功能为架构. 系统管理员和开发人员提供所需的资源以更高效地进行创新和管理.架构师: 红帽® 企业 Linux® 7 适合您选择的任意基础架构, 它可以高效地与其他操作环境. 身份验证和管理系统集成到一起. 无论您是要构建网络密集型应用程序. 可大规模扩展的数据资料库, 亦或是一次构建而成但会频繁部署的并在物理. 虚拟和云环境中表现良好的解决方案, 红帽企业 Linux 7 都提供了必要的功能来支持您的项目.系统管理员

netback的tasklet调度问题及网卡丢包的简单分析

最近在万兆网卡上测试,出现了之前千兆网卡没有出现的一个现象,tasklet版本的netback下,vm进行发包测试,发现vif的interrupt默认绑定在cpu0上,但是vm发包运行时发现host上面cpu1, cpu2的ksoftirqd很高. 从之前的理解上来说,包从netfront出来通过eventchannel notify触发vif的irq处理函数,然后tasklet_schedule调用tx_action,通过一系列处理流程把包发给网卡.所以vif的interrupt绑在哪个cpu

如何实现内核旁路(Kernel bypass)?

转到 :http://blog.jobbole.com/94976/ 在前两篇文章中,我们讨论了<如何生成每秒百万级别的HTTP 请求?> 以及 如何减少往返时间 .我们在 Linux 上做试验,因为它是一个性能非常好的通用操作系统. 不幸的是,对于一些更加专业的工作,Vanilla Linux(译注:Linux 的内核版本,代号“香草”) 内核的网络速度是不够的.举个例子,在 CloudFlare,我们持续地处理洪水般的数据包. Vanilla Linux 处理速度仅能达到约 1M pps

Linux网卡高级命令、IP别名及多网卡绑定 转

http://www.cnblogs.com/xiaoluo501395377/archive/2013/05/26/3100065.html 本篇随笔将详细讲解Linux系统的网卡高级命令.IP别名以及Linux下多网卡绑定的知识 一.网卡高级命令 在之前的一篇随笔里Linux学习之CentOS(九)--Linux系统的网络环境配置,详细讲解了Linux系统下的网络环境配置等知识,我们了解了一些关于网络配置的一些基本命令.在这里将补充一些Linux系统下有关网卡的一些高级命令. ①mii-to