Google's BBR拥塞控制算法如何对抗丢包

我不知道该怎么说。总之,便舍船,从口入,我看不到黄发垂髫并怡然自乐!我不会说什么,除了咒骂!
        在BBR之前,存在着两种拥塞控制算法,基于丢包的和基于时延的,不管哪一种都是基于探测的,换句话说,基于丢包的算法将丢包作为一种发现拥塞的手段,而基于时延的算法则是将时延增加作为发现拥塞的手段,它们之所以错误是因为它们的初衷就是错的:

丢包算法:

为了发现拥塞就不得不制造拥塞,这TMD的太JIBA讽刺了,为了戒毒,就必须先TMD的染上毒瘾!然而根本没毒瘾的话何谈戒毒!TCP之所以这么玩我觉得很大程度上”归功“于30多年前最初的关于拥塞控制的论文。在那个年代,和我们现在的网络完全不同,几乎很少的队列,由于存储器比较贵,所以路由器和交换机上几乎都没有太深的队列,甚至都是很浅的队列,在那种情况下,丢包确实表明了拥塞的信号,然而后来随着设备队列越来越深(摩尔定律使然),在丢包前,一个TCP连接必须不断的去填充非常深的队列,当深队列被填满后,是什么情况?是拥塞!
        我不得不再次重复解释时间延展性缓存和时间墙缓存的区别,对于前者,时间可以消耗掉任何数据包,然而对于后者,时间墙的存在则必然会发生拥塞,如果不明白这个基本区别的话,就会设计出错误的拥塞控制方案。不幸的是,TCP在30年来都没有对这两类缓存进行区分!同样的大小,二者的表现完全不同!
        后面我把时间延展性缓存称作第一类缓存,时间墙缓存称作第二类缓存。只有当第二类缓存被填满的时候,算法才会发现拥塞,而此时,拥塞已经要开始缓解了!滞后性!

时延算法:

OK!我承认时延算法主动避免了第二类缓存的数据堆积(如果你意识不到这一点,请停止阅读。),然而由于丢包算法的存在,时延算法一直处在被压制的状态。想知道时延算法的问题,请自己百度,根本不需要google。

两类方法中的无论哪一类,都是傻逼鸡屎做法!拥塞的判断应该关注“congestion (queue buildup) starts to occur”,而不是“buffer full”!!!

所以说,这些算法都是错的!那么BBR就一定对吗?
        近几日,从9月16号开始,BBR被炒作的沸沸扬扬,好像就是神一般,但事实会证明都JIBA扯淡,TCP拥塞控制领域本身就是一个无解的领域,现在用BBR撕CUBIC好像还比较得心应手,到头来来个RBB就可以跟BBR势均力敌了,带宽还是那么多,硬件资源就摆在那,大家要公平共享这才是王道,任由一家独大抢占别人的带宽还不告诉别人,这是傻逼。所以我说,TCP加速这个行当是个丑行。

BBR不是神,甚至不是人,但它...
        BBR区分了两类缓存,并且发誓不再将第二类缓存作为BDP的计算,然而BBR有原则,它将坚持在max-BW和min-RTT处,任由其它的算法去抢那些第二类缓存吧,CAO!TCP的君子协定让那些别的算法发现第二类缓存填满后,会降速到不足以填充第一类缓存的地步,此时,BBR会说:这是你们出让给我的。
        总结一点,BBR不去抢占没有意义的第二类缓存,这类缓存不光没有意义--不会增加速率,一旦填满后后还要付出代价而降速!BBR只要属于自己的。BBR会尽可能完全利用第一类缓存!

所以,我觉得BBR既不是基于丢包的算法,也不是基于时延的算法,而是一个基于反馈的算法!既然搞不定猜测,那就不猜测,BBR只基于现在,而不考虑历史(win_minmax表明其仅仅在意时间窗口内的历史!)!

BBR算法避免了填充第二类缓存,因此它的初衷就是避免拥塞-真正的cong_avoid!。

避免了拥塞,在Linux传统看来就是避免了丢包!BBR的收敛点在第二类缓存左边,因此不会因为拥塞而丢包,但是丢包分三类:
1.噪声丢包
2.拥塞被动丢包
3.流量监管主动丢包

BBR已经可以应对1和2(对于1,通过时间窗口可以过滤,对于2,算法本身的反馈收敛特性决定),那么对于3,BBR有何杀手锏呢?这就是BBR的long-term rate特性。
我先来展示一段关于BBR long-term的注释:
Token-bucket traffic policers are common (see "An Internet-Wide Analysis of Traffic Policing", SIGCOMM 2016). BBR detects token-bucket policers and explicitly
models their policed rate, to reduce unnecessary losses. We estimate that we‘re policed if we see 2 consecutive sampling intervals with consistent throughput
and high packet loss. If we think we‘re being policed, set lt_bw to the "long-term" average delivery rate from those 2 intervals.

我之前说过,BBR会基于即时测量的上一次发送带宽来计算这次该发送的速率和cwnd,好像BBR根本不会经历丢包一样!但这是不真实的!任何算法都不能忽略上述第3种丢包。没有拥塞,没有噪声,但就是丢包了,Why?因为路由器有权力决定任何数据包的丢失。几乎所有的路由器交换机里都会一个令牌桶!TCP流在路由器面前就是渣!虽然是渣渣,BBR还是可以发现路由器的这种丢包行为。

BBR在采集即时带宽的同时,还在默默观察丢包率。
        如果BBR发现连续两个delivered周期(类似RTT,但是在拥塞或者被监管情形下,RTT会变化)内,TCP连接内满足两点,其一是吞吐速率恒定,其二是持有高丢包率,那说明什么?说明连接被中间设备限速或者流量整形了...除此之外,你还能想到发生了别的什么情况,如果你想到了,那你就可以自己做一个算法了。

我已经提示了,温州皮鞋老板们,搞起来!我有能力,但我不会去做,因为我对瞎子哲学嗤之以鼻!

TCP这部分的代码在哪里?请patch最新的BBR补丁,然后就可以探知究竟了。
        现在是中午12点整,老婆出去上班了,丈母娘在厨房做饭,而我却在这里写这些乱七八糟的东西!CAO!我在玩火!我很想多说几句,但我不得不上代码了:
static void bbr_lt_bw_sampling(struct sock *sk, const struct rate_sample *rs)
{
...
}

...
我还是还是不想去分析源码。我在这里只讲逻辑。

TCP发送端如何检测到自己连接的流量受到了限速设备的流量监管呢?我仍以经典VJ拥塞模型图为例:

如图上所示,虽然由于发送端不断增加发送数据量或者别的连接增加了发送量,但是对于位置A而言,速率都是一定的,对于位置B而言,要么它是空的,要么它已经满了,这是TCP所察觉不到的!TCP唯一能做的是,按照反馈的ACK来进行发送速率的抉择!

这样的BBR可以避免第2类丢包,并且可以识别第1类丢包,但是对于第3类丢包无能为力,对于BBR而言,目前而言,第3类丢包的处理是最后要做的了。
        BBR处理第三类丢包的手段,非常简单,仅仅是记录丢包本身即可。当发生以下情况时,BBR认为网络Path上有流量监管或者限速:
1.持续一段时间保持高丢包率;
2.持续一段时间测量的当前带宽几乎一致。

当BBR检测到这种情况额时候,就不再用当前测量的带宽为计算Pacing Rate和cwnd的基准了,而是将这段时间内的平均测量带宽为基准!
这个检测在最开始!
        详细阅读bbr_lt_bw_sampling函数的代码,花上个十几分钟,就什么都懂了。BBR如此一来就相当于朴素地识别了流量监管设备的存在并且适配了它的速率!注意,这是一种朴素的算法,而不是什么可以让一群人噼里啪啦扯淡的算法!
        靠这种long-term算法,BBR可以对抗监管设备的策略造成的丢包了。于此,BBR几乎可以检测到所有的丢包了:
1).如果收到重复ACK(重复ACK,SACKed数量,SACKed最高值...),虽然TCP核心认为发生了丢包,但是不会进入PRR,BBR会不屑一顾,继续自己的策略,参见BBR引擎说明书;
2).如果真的发生了拥塞,BBR在最小RTT周期之后会发现这是真的,虽然滞后,但总比CUBIC之类滞后发现第二类缓存被填满强多了。BBR不会盲目降速,而是依然根据检测到的max-BW来,除非max-BW已经非常小!
3).如果发生监管丢包,BBR会在一段比较长的周期内检测到,它发现在这个周期内持续持有比较高的丢包率(检测到的Lost计数器偏大),且速率保持一致,那么BBR会将发送量限制在实际带宽的平均值。
...

我一向对TCP是嗤之以鼻的,就像我对SSL/TLS协议嗤之以鼻一样,于工作,我持续七年先后与SSL,TCP打交道,并且有时候还做的不错,于私下,我呻吟着在诅咒中夹杂着叫骂,希望尽快结束这个丑行。每当我想到这些的时候,我甚至都有摔电脑的冲动,然而很多人会有疑问,我既然如此恶心这些,还为何分析它们,还为何如此上心...
        我的求助开始了!

你有更好玩的东西吗?昨晚我看了将TLS offload到网卡的一个演讲,瞬间有了兴趣,可是我不可能去搞什么硬件,在后半夜又幸运的发现了一个KTLS的方案,我特别想今天把这个完成,然而作罢了,因为我没有时间!(我曾经不还吐槽过OpenSSL吗?是的,其实别人也有人吐槽,但人家改造了世界,实现额KTLS,而我,就是个傻逼!即便我是个傻逼,我也将OpenVPN移植到了内核,你呢?!)

TCP本身就是渣!这个渣渣玷污了IP网络的伟大,破坏了IP网络的简单,就想一碗拉面里的鸡屎一样!我希望,我希望呻吟着,呻吟着殴打所有与TCP相关的公司的老板,或者说,仅仅是咒骂!

Google's BBR拥塞控制算法如何对抗丢包

时间: 2024-11-15 02:38:09

Google's BBR拥塞控制算法如何对抗丢包的相关文章

Google's BBR拥塞控制算法模型解析

在进入这篇文章的正文之前,我还是先交代一下背景.1.首先,我对这次海马台风对深圳的影响非常准确,看过我朋友圈的都知道,没看过的也没必要知道,白赚了一天"在家办公"是收益,但在家办公着实效率不高,效果不好.2.我为什么可以在周五的早上连发3篇博客,一方面为了弥补因为台风造成"在家办公"导致的时间蹉跎,另一方面,我觉的以最快的速度分享最新的东西,是一种精神,符合虔诚基督徒的信仰而不是道德约束.3.上半年的时候,温州皮鞋厂老板推荐了一个会议,大致是说"迄今为止的

BBR拥塞控制算法

BBR拥塞控制算法是Google最新研发的单边TCP拥塞控制算法 Linux 内核4.9 已引入这个BBR算法,本人在CAC测试Ubuntu 14.04 安装Linux 4.9内核,延迟优化效果和TCP连接速度提升效果明显好于锐速! Ubuntu更新内核.开启BBR:https://github.com/iMeiji/shadowsocks_install/wiki/%E5%BC%80%E5%90%AFTCP-BBR%E6%8B%A5%E5%A1%9E%E6%8E%A7%E5%88%B6%E7%

使用TCP时序图解释BBR拥塞控制算法的几个细节

周六,由于要赶一个月底的Deadline,因此选择了在家VPN加班,大半夜就爬起来跑用例,抓数据...自然也就没有时间写文章和外出耍了...不过利用周日的午夜时间(不要问我为什么可以连续24小时不睡觉,因为我觉得吃饭睡觉是负担),我决定把工作上的事情先放下,还是要把每周至少一文补上,这已经成了习惯.由于上周实在太忙乱,所以自然根本没有更多的时间去思考一些"与工作无关且深入"的东西,我指的与工作无关并非意味着与IT,与互联网无关,只是意味着不是目前我在做的.比如在两年前,VPN,PKI这

在Wireshark的tcptrace图中看清TCP拥塞控制算法的细节(CUBIC/BBR算法为例)

这是一个令人愉快的周末,老婆上周从上海回来,这周末小小幼儿园组织去坪山秋游,比较远,因此大家都必须早早起来,而我更加有理由起床更早一些来完成这篇短文,因为要出去一整天,如果早上起不来,一天都没什么时间了.        另外,最近有人问我,为什么我总是喜欢在技术文章后面加一些与技术毫不相关的话,我说,咱们小时候学古文的时候,那些古代的作者不也是喜欢在文章最后写一段毫不相关的"呜呼...""嗟夫..."之类的吗?人写文章总是有感而发,所以,点题总是必要的.也有同事问,

基于RTT梯度的TCP CDG拥塞控制算法

在BBR之前,业内已经逐渐学会如何判断网络拥塞并且用于TCP拥塞控制了.        再次重申,我鄙视并且非常恶心TCP!        我本来想看看CDG算法究竟是个什么东西,无奈并没有发现什么资料,所以,就像BBR一样,只能由我来写,我不希望到时候再搜索CDG的资源,都是我写的了,请注意,CDG不是腾讯的CDG,而是CAIA Delay-Gradient.虽然CDG在BBR之前,但是我认为,在褪去了BBR的光环之后,CDG显得更加适合中国人.毕竟BBR的要求太TMD多了,只是很多人不晓得而

(转)CentOS 7安装TCP BBR拥塞算法

TCP BBR(Bottleneck Bandwidth and Round-trip propagation time)是由Google设计,于2016年发布的拥塞算法.以往大部分拥塞算法是基于丢包来作为降低传输速率的信号,而BBR则基于模型主动探测.该算法使用网络最近出站数据分组当时的最大带宽和往返时间来创建网络的显式模型.数据包传输的每个累积或选择性确认用于生成记录在数据包传输过程和确认返回期间的时间内所传送数据量的采样率. Google在YouTube上应用该算法,将全球平均的YouTu

浅谈TCP拥塞控制算法

TCP通过维护一个拥塞窗口来进行拥塞控制,拥塞控制的原则是,只要网络中没有出现拥塞,拥塞窗口的值就可以再增大一些,以便把更多的数据包发送出去,但只要网络出现拥塞,拥塞窗口的值就应该减小一些,以减少注入到网络中的数据包数. TCP拥塞控制算法发展的过程中出现了如下几种不同的思路: 基于丢包的拥塞控制:将丢包视为出现拥塞,采取缓慢探测的方式,逐渐增大拥塞窗口,当出现丢包时,将拥塞窗口减小,如Reno.Cubic等. 基于时延的拥塞控制:将时延增加视为出现拥塞,延时增加时增大拥塞窗口,延时减小时减小拥

TCP拥塞控制算法

转自浅谈TCP拥塞控制算法 本篇文章介绍了几种经典的TCP拥塞控制算法,包括算法原理及各自适用场景. 回顾上篇文章:浅谈 redis 延迟 前言 TCP 通过维护一个拥塞窗口来进行拥塞控制,拥塞控制的原则是,只要网络中没有出现拥塞,拥塞窗口的值就可以再增大一些,以便把更多的数据包发送出去,但只要网络出现拥塞,拥塞窗口的值就应该减小一些,以减少注入到网络中的数据包数. TCP 拥塞控制算法发展的过程中出现了如下几种不同的思路: 基于丢包的拥塞控制:将丢包视为出现拥塞,采取缓慢探测的方式,逐渐增大拥

Linux TCP拥塞控制算法原理解析

这里只是简单梳理TCP各版本的控制原理,对于基本的变量定义,可以参考以下链接: TCP基本拥塞控制http://blog.csdn.net/sicofield/article/details/9708383 TCP中RTO计算http://www.tuicool.com/articles/Yn6vEr TCP拥塞控制名词解释: 1.awnd(advised window) 通告窗口,由接收端tcp发送给发送端tcp,告诉发送端自己能用于接收新的数据包的当前可用空间. 2.cwnd(congest