宏觀背景下的BBR
1980年代的擁塞崩潰導致了1980年代的擁塞控制機制的出爐,某種意義上這屬于見招拆招的策略,針對1980年代的擁塞,提出了1980年代的擁塞控制算法,即ss,ssthresh,congestion avoid這些。
說實話,這些機制完美適應了1980年代的網(wǎng)絡特征,低帶寬,淺緩存隊列,美好持續(xù)到了2000年代。
隨后互聯(lián)網(wǎng)大爆發(fā),多媒體應用特別是圖片,音視頻類的應用促使帶寬必須猛增,而摩爾定律促使存儲設(shè)施趨于廉價而路由器隊列緩存猛增,這便是BBR誕生的背景。換句話說,1980年代的CC已經(jīng)不適用了,2010年代需要另外的一次見招拆招。
如果說上一次1980年代的CC旨在收斂,那么這一次BBR則旨在 效能最大化,E,至少我個人是這么認為的,這也和BBR的初衷 提高帶寬利用率 相一致!
插個形象的gif:
https://cloud.google.com/blog/products/networking/tcp-bbr-congestion-control-comes-to-gcp-your-internet-just-got-faster
正文開始
國慶節(jié)前,我看到了bbr算法,發(fā)現(xiàn)它就是那個唯一正確的做法(可能有點夸張,但起碼它是一個通往正確道路的起點!),所以花了點時間研究了一下它,包括其patch的注釋,patch代碼,并親自移植了bbr patch到更低版本的內(nèi)核,在這個過程中,我也產(chǎn)生了一些想法,作為備忘,整理了一篇文章,記如下,多年以后,再看TCP bbr算法的資料時,我的記錄也算是中文社區(qū)少有的第一個吃螃蟹記錄了,也算夠了!
正文之前,給出本文的圖例:
BBR的組成bbr算法實際上非常簡單,在實現(xiàn)上它由5部分組成:
BBR的組成
1.即時速率的計算
計算一個即時的帶寬bw,該帶寬是bbr一切計算的基準,bbr將會根據(jù)當前的即時帶寬以及其所處的pipe狀態(tài)來計算pacing rate以及cwnd(見下文),后面我們會看到,這個即時帶寬計算方法的突破式改進是bbr之所以簡單且高效的根源。計算方案按照標量計算,不再關(guān)注數(shù)據(jù)的含義。在bbr運行過程中,系統(tǒng)會跟蹤當前為止最大的即時帶寬。
2.RTT的跟蹤
bbr之所以可以獲取非常高的帶寬利用率,是因為它可以非常安全且豪放地探測到帶寬的最大值以及rtt的最小值,這樣計算出來的BDP就是目前為止TCP管道的最大容量。bbr的目標就是達到這個最大的容量!這個目標最終驅(qū)動了cwnd的計算。在bbr運行過程中,系統(tǒng)會跟蹤當前為止最小RTT。
3.BBR狀態(tài)機的維持
bbr算法根據(jù)互聯(lián)網(wǎng)的擁塞行為有針對性地定義了4中狀態(tài),即STARTUP,DRAIN,PROBE_BW,PROBE_RTT。bbr通過對上述計算的即時帶寬bw以及rtt的持續(xù)觀察,在這4個狀態(tài)之間自由切換,相比之前的所有擁塞控制算法,其革命性的改進在于bbr擁塞算法不再跟蹤系統(tǒng)的TCP擁塞狀態(tài)機,而旨在用統(tǒng)一的方式來應對pacing rate和cwnd的計算,不管當前TCP是處在Open狀態(tài)還是處在Disorder狀態(tài),抑或已經(jīng)在Recovery狀態(tài),換句話說,bbr算法感覺不到丟包,它能看到的就是bw和rtt!
4.結(jié)果輸出-pacing rate和cwnd
首先必須要說一下,bbr的輸出并不僅僅是一個cwnd,更重要的是pacing rate。在傳統(tǒng)意義上,cwnd是TCP擁塞控制算法的唯一輸出,但是它僅僅規(guī)定了當前的TCP最多可以發(fā)送多少數(shù)據(jù),它并沒有規(guī)定怎么把這么多數(shù)據(jù)發(fā)出去,在Linux的實現(xiàn)中,如果發(fā)出去這么多數(shù)據(jù)呢?簡單而粗暴,突發(fā)!忽略接收端通告窗口的前提下,Linux會把cwnd一窗數(shù)據(jù)全部突發(fā)出去,而這往往會造成路由器的排隊,在深隊列的情況下,會測量出rtt劇烈地抖動。
bbr在計算cwnd的同時,還計算了一個與之適配的pacing rate,該pacing rate規(guī)定cwnd指示的一窗數(shù)據(jù)的數(shù)據(jù)包之間,以多大的時間間隔發(fā)送出去。
5.其它外部機制的利用-fq,rack等
bbr之所以可以高效地運行且如此簡單,是因為很多機制并不是它本身實現(xiàn)的,而是利用了外部的已有機制,比如下一節(jié)中將要闡述的它為什么在計算帶寬bw時能如此放心地將重傳數(shù)據(jù)也計算在內(nèi)...
帶寬計算細節(jié)以及狀態(tài)機
1.即時帶寬的計算
bbr作為一個純粹的擁塞控制算法,完全忽略了系統(tǒng)層面的TCP狀態(tài),計算帶寬時它僅僅需要兩個值就夠了:
1).應答了多少數(shù)據(jù),記為delivered;
2).應答1)中的delivered這么多數(shù)據(jù)所用的時間,記為interval_us。將上述二者相除,就能得到帶寬:bw = delivered/interval_us
非常簡單!以上的計算完全是標量計算,只關(guān)注數(shù)據(jù)的大小,不關(guān)注數(shù)據(jù)的含義,比如delivered的采集中,bbr根本不管某一個應答是重傳后的ACK確認的,正常ACK確認的,還是說SACK確認的。bbr只關(guān)心被應答了多少!
這和TCP/IP網(wǎng)絡模型是一致的,因為在中間鏈路上,路由器交換機們也不會去管這些數(shù)據(jù)包是重傳的還是亂序的,然而擁塞也是在這些地方發(fā)生的,既然擁塞點都不關(guān)心數(shù)據(jù)的意義,TCP為什么要關(guān)注呢?反過來,我們看一下?lián)砣l(fā)生的原因,即數(shù)據(jù)量超過了路由器的帶寬限制,利用這一點,只需要精心地控制發(fā)送的數(shù)據(jù)量就好了,完全不用管什么亂序,重傳之類的。當然我的意思是說,擁塞控制算法中不用管這些,但這并不意味著它們是被放棄的,其它的機制會關(guān)注的,比如SACK機制,RACK機制,RTO機制等。
接下來我們看一下這個delivered以及interval_us的采集是如何實現(xiàn)的。還是像往常一樣,我不準備分析源碼,因為如果分析源碼的話,往往難以抓住重點,過一段時間自己也看不懂了,相反,畫圖的話,就可以過濾掉很多諸如unlikely等異常流或者當前無需關(guān)注的東西:
上圖中,我故意用了一個極端點的例子,在該例子中,我?guī)缀醵际鞘褂玫腟ACK,當X被SACK時,我們可以根據(jù)圖示很容易算出從Delivered為7時的數(shù)據(jù)包被確認到X被確認為止,一共有 12-7=5個數(shù)據(jù)包被確認,即這段時間網(wǎng)絡上清空了5個數(shù)據(jù)包!我們便很容易算出帶寬值了。我的這個圖示在解釋帶寬計算方法之外,還有一個目的,即說明bbr在計算帶寬時是不關(guān)注數(shù)據(jù)包是否按序確認的,它只關(guān)注數(shù)量,即數(shù)據(jù)包被網(wǎng)絡清空的數(shù)量。實實在在的計算,不猜Lost,不猜亂序,這些東西,你再怎么猜也猜不準!
計算所得的bw就是bbr此后一切計算的基準。
2.狀態(tài)機
bbr的狀態(tài)機轉(zhuǎn)換圖以及注釋如下圖所示:
通過上述的狀態(tài)機以及上一節(jié)的帶寬計算方式,我們知道了bbr的工作方式:不斷地基于當前帶寬以及當前的增益系數(shù)計算pacing rate以及cwnd,以此2個結(jié)果作為擁塞控制算法的輸出,在TCP連接的持續(xù)過程中,每收到一個ACK,都會計算即時的帶寬,然后將結(jié)果反饋給bbr的pipe狀態(tài)機,不斷地調(diào)節(jié)增益系數(shù),這就是bbr的全部,我們發(fā)現(xiàn)它是一個典型的封閉反饋系統(tǒng),與TCP當前處于什么擁塞狀態(tài)完全無關(guān),其簡圖如下:
這非常不同于之前的所有擁塞控制算法,在之前的算法中,我們發(fā)現(xiàn)擁塞算法內(nèi)部是受外部的擁塞狀態(tài)影響的,比如說在Recovery狀態(tài)下,甚至都不會進入擁塞控制算法,在bbr進入內(nèi)核之前,Linux使用PRR算法控制了Recovery狀態(tài)的窗口調(diào)整,即便說這個時候網(wǎng)絡已經(jīng)恢復,TCP也無法發(fā)現(xiàn),因為TCP的Recovery狀態(tài)還未恢復到Open,這就是根源!
pacing rate以及cwnd的計算
這一節(jié)好像是重點中的重點,但是我覺得如果理解了bbr的帶寬計算,狀態(tài)機以及其增益系數(shù)的概念,這里就不是重點了,這里只是一個公式化的結(jié)論。
pacing rate怎么計算?很簡單,就是是使用時間窗口內(nèi)(默認10輪采樣)最大BW。上一次采樣的即時BW,用它來在可能的情況下更新時間窗口內(nèi)的BW采樣值集合。這次能否按照這個時間窗口內(nèi)最大BW發(fā)送數(shù)據(jù)呢?這樣看當前的增益系數(shù)的值,設(shè)為G,那么BW*G就是pacing rate的值,是不是很簡單呢?!
至于說cwnd的計算可能要稍微復雜一點,但是也是可以理解的,我們知道,cwnd其實描述了一條網(wǎng)絡管道(rwnd描述了接收端緩沖區(qū)),因此cwnd其實就是這個管道的容量,也就是BDP!
BW我們已經(jīng)有了,缺少的是D,也就是RTT,不過別忘了,bbr一直在持續(xù)搜集最小的RTT值,注意,bbr并沒有采用什么移動指數(shù)平均算法來“猜測”RTT(我用猜測而不是預測的原因是,猜測的結(jié)果往往更加不可信!),而是直接冒泡采集最小的RTT(注意這個RTT是TCP系統(tǒng)層面移動指數(shù)平均的結(jié)果,即SRTT,但brr并不會對此結(jié)果再次做平均!)。我們用這個最小RTT干什么呢?
當前是計算BDP了!這里bbr取的RTT就是這個最小RTT。最小RTT表示一個曾經(jīng)達到的最佳RTT,既然曾經(jīng)達到過,說明這是客觀的可以再次達到的RTT,這樣有益于網(wǎng)絡管道利用率最大化!
我們采用BDP*G'就算出了cwnd,這里的G'是cwnd的增益系數(shù),與帶寬增益系數(shù)含義一樣,根據(jù)bbr的狀態(tài)機來獲?。?/span>
BBR的細節(jié)淺述
該節(jié)的題目比較怪異,既然是細節(jié)為什么又要淺述??這是我的風格,一方面,說是細節(jié)是因為這些東西還真的很少有人注意到,另一方面,說是淺述,是因為我一般都不會去分析代碼以及代碼里每一個異常流,我認為那些對于理解原理幫助不大,那些東西只是在研發(fā)和優(yōu)化時才是有用的,所以說,像往常一樣,我這里的這個小節(jié)還是一如既往地去談及一些“細節(jié)”。
1.豪放且大膽的安全探測在看到bbr之后,我覺得之前的TCP擁塞控制算法都錯了,并不是思想錯了,而是實現(xiàn)的問題。bbr之所以敢大膽的去探測預估帶寬是因為TCP把更多的權(quán)力交給了它!在bbr之前,很多本應該由擁塞控制算法去處理的細節(jié)并不歸擁塞控制算法管。在詳述之前,我們必須分清兩件事:
1).傳輸多少數(shù)據(jù)?
2).傳輸哪些數(shù)據(jù)?
按照“上帝的事情上帝管,凱撒的事情凱撒管”的原則,這兩件事本來就該由不同的機制來完成,不考慮對端接收窗口的情況下,擁塞窗口是唯一的主導因素,“傳輸多少數(shù)據(jù)”這件事應該由擁塞算法來回答,而“傳輸哪些數(shù)據(jù)”這個問題應該由TCP擁塞狀態(tài)機以及SACK分布來決定,誠然這兩個問題是不同的問題,不應該雜糅在一起。?然而,在bbr進入內(nèi)核之前的Linux TCP實現(xiàn)中,以上兩個問題并不是分得特別清。TCP的擁塞狀態(tài)只有在Open時才是上述的職責分離的完美樣子,一旦進入Lost或者Recovery,那么擁塞控制算法即便對“問題1):傳輸多少數(shù)據(jù)”都無能為力,在Linux的現(xiàn)有實現(xiàn)中,PRR算法將接管一切,一直把窗口下降到ssthresh,在Lost狀態(tài)則反應更加激烈,直接cwnd硬著陸!隨后等丟失數(shù)據(jù)傳輸成功后再執(zhí)行慢啟動....在重新進入Open狀態(tài)之前,擁塞控制算法幾乎不會起作用,這并不是一種高速公路上的模式(小碰擦,拍照后??柯愤叄孕薪鉀Q),更像是鬧市區(qū)的交通事故處理方式(無論怎樣,保持現(xiàn)場,直到交警和保險公司的人來現(xiàn)場處置)。
bbr算法逃離了這一切錯誤的做法,在bbr的patch中,并非只是完成了一個tcp_bbr.c,而是對整個TCP擁塞狀態(tài)控制框架進行了大手術(shù),我們可以從以下的擁塞控制核心函數(shù)中可見一斑:
static void tcp_cong_control(struct sock *sk, u32 ack, u32 acked_sacked,
int flag, const struct rate_sample *rs)
{
const struct inet_connection_sock *icsk = inet_csk(sk);
if (icsk->icsk_ca_ops->cong_control) {
// 如果是bbr,則完全被bbr接管,不管現(xiàn)在處在什么狀態(tài)!
/* 目前而言,只有bbr使用了這個機制,但我相信,不久的將來,
* 會有越來越多的擁塞控制算法使用這個統(tǒng)一的完全接管機制!
* 就我個人而言,在幾個月前就寫過一個patch,接管了tcp_cwnd_reduction
* 這個prr的降窗過程。如果當時有了這個框架,我就有福了!
*/
icsk->icsk_ca_ops->cong_control(sk, rs);
return;
}
// 否則繼續(xù)以往的錯誤方法!
if (tcp_in_cwnd_reduction(sk)) {
/* Reduce cwnd if state mandates */
// 非Open狀態(tài)中擁塞算法不受理窗口調(diào)整
tcp_cwnd_reduction(sk, acked_sacked, flag);
} else if (tcp_may_raise_cwnd(sk, flag)) {
/* Advance cwnd if state allows */
tcp_cong_avoid(sk, ack, acked_sacked);
}
tcp_update_pacing_rate(sk);
}
在這個框架下,無論處在哪個狀態(tài)(Open,Disorder,Recovery,Lost...),如果擁塞控制算法自己聲明有這個能力,那么具體可以傳輸多少數(shù)據(jù),完全由擁塞控制算法自行決定,TCP擁塞狀態(tài)控制機制不再干預!2.為什么bbr可以忽略Recovery和Lost狀態(tài)
看懂了以上第1點,這一點就很容易理解了。在第1點中,我描述了bbr確實忽略了Recovery等非Open的擁塞狀態(tài),但是為什么可以忽略呢?一般而言,很多人都會質(zhì)疑,會說bbr采用這么魯莽的方式,最終一定會讓窗口卡住不再滑動,但是我要反駁,你難道不知道cwnd只是個標量嗎?我畫一個圖來分析:
看懂了嗎?不存在任何問題!基本上,我們在討論擁塞控制算法的時候,會忽略流量控制,因為不想讓rwnd和cwnd雜糅起來,但是在這里,它們相遇了,幸運的是,并沒有引發(fā)沖突!
然而,這并不是全部,本節(jié)旨在“淺析”,因此就不會關(guān)注代碼處理的細節(jié)。在bbr的實現(xiàn)中,如果算法外部的TCP擁塞狀態(tài)已經(jīng)進入了Lost,那么cwnd該是多少呢?在bbr之前的擁塞算法中,包括cubic在內(nèi)的所有算法中,當TCP核心實現(xiàn)從將cwnd調(diào)整到1或者prr到ssthresh一直到恢復到Open狀態(tài),擁塞算法無權(quán)干預流程,然而bbr不。雖然說進入Lost狀態(tài)后,cwnd會硬著陸到1,然而由于bbr的接管,在Lost期間,cwnd還是可以根據(jù)即時帶寬調(diào)整的!這意味著什么?
這意味著bbr可以區(qū)別噪聲丟包和擁塞丟包了!
a).噪聲丟包
如果是噪聲丟包,在收到reordering個重復ACK后,由于bbr并不區(qū)分一個確認是ACK還是SACK引起的,所以在bbr看來,即時帶寬并沒有降低,可能還有所增加,所以一個數(shù)據(jù)包的丟失并不會引發(fā)什么,bbr依舊會給出一個比較大的cwnd配額,此時雖然TCP可能已經(jīng)進入了Recovery狀態(tài),但bbr依舊按照自己的bw以及調(diào)整后的增益系數(shù)來計算cwnd的新值,過程中并不會受到任何TCP擁塞狀態(tài)的影響。
如此一來,所有的噪聲丟包就被區(qū)別開來了!bbr的宗旨是:“首先,在我的bw計算指示我發(fā)生擁塞之前,任何傳統(tǒng)的TCP擁塞判斷-丟包/時延增加,均全部失效,我并不care丟包和RTT增加”,隨后brr又會說:“但是我比較care的是,RTT在一段時間內(nèi)(隨你怎么配,但我個人傾向于自學習)都沒有達到我所采集到的最小值或者更小的值!這也許意味著著鏈路真的發(fā)生擁塞了!”...
b).擁塞丟包
將a)的論述反過來,我們就會得到奇妙的封閉性結(jié)論。這樣,bbr不光是消除了吞吐曲線的鋸齒(ssthresh所致,bbr并不使用ssthresh!),而且還消除了傳統(tǒng)擁塞控制算法(指bbr以及封閉的傻逼Appex之前)的判斷滯后性問題。在cubic發(fā)現(xiàn)丟包進而判斷為擁塞時,擁塞可能已經(jīng)緩解了,但是cubic無法發(fā)現(xiàn)這一點。為什么?原因在于cubic在計算新的cwnd的時候,并沒有把當前的網(wǎng)絡狀態(tài)(比如bw)當作參數(shù),而只是一味的按照數(shù)學意義上的三次方程去計算,這是錯誤的,這不是一個正確的反饋系統(tǒng)的做法!
基于a)和b),看到了吧,這就是新的擁塞判斷機制!綜合考慮丟包和RTT的增加:b-1).如果丟包時真的發(fā)生了擁塞,那么測量的即時帶寬肯定會減少,否則,丟包即擁塞就是謊言。b-2).如果RTT增加時真的發(fā)生了擁塞,那么測量的即時帶寬肯定會減少,否則,時延增加即擁塞就是謊言。bbr測量了即時帶寬,這個統(tǒng)一cwnd和rtt的計量,完全忽略了丟包,因此bbr的算法思想是TCP擁塞控制的正軌!事實上,丟包本就不應該作為一種擁塞的標志,它只是擁塞的表現(xiàn)。
3.狀態(tài)機的點點滴滴
我在上文已經(jīng)呈現(xiàn)了關(guān)于STARTUP,DRAIN,PROBE_BW,PROBE_RTT的狀態(tài)圖以及些許細節(jié),當時我指出這個狀態(tài)圖的目標是為了完成bbr的目標,即填滿整個網(wǎng)絡!在這個狀態(tài)圖看來,所有已知的東西就是當前的即時帶寬,所有可以計算的東西就是增益系數(shù),然后根據(jù)這兩個元素就可以輕易計算出pacing rate和cwnd,是不是很簡單呢?整體看來就是就是這么簡單,但是從細節(jié)上看,不同的pipe狀態(tài)中的增益系數(shù)的計算卻是值得推敲的,以下是bbr處在各個狀態(tài)時的增益系數(shù):STARTUP:2~3DRAIN:pacing rate的增益系數(shù)為1000/2885,cwnd的增益系數(shù)為1000/2005 1。PROBE_BW:5/4,1,3/4,bbr在PROBE_BW期間會隨機在這些增益系數(shù)之間選擇當前的增益系數(shù)。PROBE_RTT:1。但是在探測RTT期間,為了防止丟包,cwnd會強制cut到最小值,即4個MSS。我們可以看到,bbr并沒有明確的所謂“降窗時刻”,一切都是按照狀態(tài)機來的,期間絲毫不會理會TCP是否處在Open,Recovery等狀態(tài)。在此前的擁塞控制算法中,除了Vegas等基于延時的算法會在計算得到的target cwnd小于當前cwnd時視為擁塞而在算法中降窗外,其它的所有基于丟包的算法中均是檢測到丟包(RTO或者reordering個重復ACK)時降窗的,可悲的是,這個降窗過程并不受擁塞算法的控制,擁塞算法只能消極地給出一個ssthresh值,即降窗的目標,這顯然是令人無助的!
bbr不再關(guān)注丟包事件,它并不把丟包當成很嚴重的事,這事也不歸它管,只要TCP擁塞狀態(tài)機控制機制可以合理地將一些包標記為LOST,然后重傳它們便是了,bbr能做的僅僅是告訴TCP一共可以發(fā)出去多少數(shù)據(jù),僅此而已!然而,如果TCP并沒有把LOST數(shù)據(jù)包合理標記好,bbr并不care,它只是根據(jù)當前的bw和增益系數(shù)給出下一個pacing rate以及cwnd而已!
4.關(guān)于Sched FQ
這里涉及的是bbr之外的東西,F(xiàn)air queue!在bbr的patch最后,會發(fā)現(xiàn)幾行注釋:
NOTE: BBR *must* be used with the fq qdisc ("man tc-fq") with pacing?enabled, since pacing is integral to the BBR design andimplementation. BBR without pacing would not function properly, and?may incur unnecessary high packet loss rates.
記住這幾行文字并理解它們。
這是bbr最為重要的一方面。雖然說Linux的TCP實現(xiàn)早就支持的pacing rate,但直到4.8版本都沒有在TCP層面支持它,很大的一部分原因是因為借助已有的FQ可以很完美地實現(xiàn)pacing rate!TCP可以借助FQ來實現(xiàn)平緩而非突發(fā)的數(shù)據(jù)發(fā)送!
關(guān)于FQ的詳細內(nèi)容可以去看相關(guān)的manual和源碼,這里要說的僅僅是,F(xiàn)Q可以根據(jù)bbr設(shè)置的pacing rate將一個cwnd內(nèi)的數(shù)據(jù)的發(fā)送從“突發(fā)到網(wǎng)絡”這種行為變換到“平緩發(fā)送到網(wǎng)路”的行為,所謂的平緩發(fā)送指的就是數(shù)據(jù)包是按照帶寬速率計算的間隔一個個發(fā)送到網(wǎng)絡的,而不是突發(fā)進網(wǎng)絡的!
這樣一來,就給了網(wǎng)絡緩存以緩解的機會!記住,關(guān)鍵問題是bbr會在每收到ACK/SACK時計算bw,這個精確的測量不會漏掉任何可乘之機,即便當前網(wǎng)絡擁塞了,它只要能在下一時刻恢復,bbr就可以發(fā)現(xiàn),因此即時帶寬通??梢员憩F(xiàn)這一點!
5.其它
還有關(guān)于令牌桶監(jiān)管發(fā)現(xiàn)(lt policed)的主題,long term采樣的主題,留到后面的文章具體闡述吧,本文已經(jīng)足夠長了。
6.bufferbloat問題
關(guān)于深隊列,數(shù)據(jù)包如何如何長時間排隊但不丟包卻引發(fā)RTO,對于淺隊列,數(shù)據(jù)包如何如何頻繁丟包...談起這個話題我一開始想滔滔不絕,后來想罵人,現(xiàn)在我三緘其口!任何人都知道端到端的QoS是一個典型的反饋系統(tǒng),但是任何人都只是夸夸其談,我選擇的是閉口不說,如果非要我說,我的回答就是:不知道!
這是一個怎么說都能對又怎么說都能錯的話題,就像股票預測那樣,所以我選擇閉嘴。
bbr算法到來后,單單從公共測試結(jié)果上看,貌似解決了bufferbloat問題,也許吧,也許。bbr好像真的開始在高速公路上飚車了...最后給出一個測試圖,來自《A quick look at TCP BBR》:
bbr代碼的簡單性和復雜性
我一向覺得TCP擁塞控制算法太過復雜,而復雜的東西基本上就是用來裝逼的垃圾,直到遇到了bbr。
Neal Cardwell提供的patch簡單而又直接,大家可以從該bbr的patch上一看究竟!在bbr模塊之外,Neal Cardwell主要更改了tcp_ack函數(shù)里面關(guān)于delivered計數(shù)的部分以及擁塞控制主函數(shù),這一切都十分顯然,只要patch代碼就可以一目了然。在數(shù)據(jù)包被發(fā)送的時候-不管是初次發(fā)送還是重傳,均會被當前TCP的連接狀況記錄在該數(shù)據(jù)包的tcp_skb_cb中,在數(shù)據(jù)包被應答的時候-不管是被ACK還是被SACK,均會根據(jù)當前的狀態(tài)和其tcp_skb_cb中狀態(tài)計算出一個帶寬,這些顯而易見的邏輯相比任何人都應該知道哪里的代碼被修改了!
patch鏈接:https://patchwork.ozlabs.org/project/netdev/list/?submitter=10078