[转帖]直击案发现场!TCP 10倍延迟的真相是?

直击案发现场!TCP 10倍延迟的真相是?

http://zhuanlan.51cto.com/art/201911/605268.htm

内核参数调优 非常重要啊. 

什么是经验?就是遇到问题,解决问题,总结方法。遇到的问题多了,解决的办法多了,经验自然就积累出来了。今天的文章是阿里技术专家蛰剑在工作中遇到的一个问题引发的对TCP性能和发送接收Buffer关系的系列思考(问题:应用通过专线从公司访问阿里云上的服务,专线100M,时延20ms,一个SQL查询了22M数据出现10倍+的信息延迟,不正常。)希望,你也能从中得到启发。

前言

本文希望解析清楚,当我们在代码中写下 socket.setSendBufferSize 和 sysctl 看到的rmem/wmem系统参数以及最终我们在TCP常常谈到的接收发送窗口的关系,以及他们怎样影响TCP传输的性能。

先明确一下:文章标题中所说的Buffer指的是sysctl中的 rmem或者wmem,如果是代码中指定的话对应着SO_SNDBUF或者SO_RCVBUF,从TCP的概念来看对应着发送窗口或者接收窗口。

TCP性能和发送接收Buffer的关系

相关参数:

  1. $sudo sysctl -a | egrep "rmem|wmem|adv_win|moderate"
  2. net.core.rmem_default = 212992
  3. net.core.rmem_max = 212992
  4. net.core.wmem_default = 212992
  5. net.core.wmem_max = 212992
  6. net.ipv4.tcp_adv_win_scale = 1
  7. net.ipv4.tcp_moderate_rcvbuf = 1
  8. net.ipv4.tcp_rmem = 4096    87380   6291456
  9. net.ipv4.tcp_wmem = 4096    16384   4194304
  10. net.ipv4.udp_rmem_min = 4096
  11. net.ipv4.udp_wmem_min = 4096
  12. vm.lowmem_reserve_ratio = 256   256 32

先从碰到的一个问题看起:

应用通过专线从公司访问阿里云上的服务,专线100M,时延20ms,一个SQL查询了22M数据,结果花了大概25秒,这太慢了,不正常。如果通过云上client访问云上服务那么1-2秒就返回了(说明不跨网络服务是正常的)。如果通过http或者scp从公司向云上传输这22M的数据大概两秒钟也传送完毕了(说明网络带宽不是瓶颈),所以这里问题的原因基本上是我们的服务在这种网络条件下有性能问题,需要找出为什么。

抓包 tcpdump+wireshark

这个查询结果22M的需要25秒,如下图(wireshark 时序图),横轴是时间,纵轴是sequence number:

粗一看没啥问题,因为时间太长掩盖了问题。把这个图形放大,就看中间50ms内的传输情况(横轴是时间,纵轴是sequence number,一个点代表一个包)。

换个角度,看看窗口尺寸图形:

从bytes in flight也大致能算出来总的传输时间 16K*1000/20=800Kb/秒我们的应用会默认设置 socketSendBuffer 为16K:

socket.setSendBufferSize(16*1024) //16K send buffer

来看一下tcp包发送流程:

图片来源:陶辉

如果sendbuffer不够就会卡在上图中的第一步 sk_stream_wait_memory,通过systemtap脚本可以验证:

  1. #!/usr/bin/stap
  2. # Simple probe to detect when a process is waiting for more socket send
  3. # buffer memory. Usually means the process is doing writes larger than the
  4. # socket send buffer size or there is a slow receiver at the other side.
  5. # Increasing the socket‘s send buffer size might help decrease application
  6. # latencies, but it might also make it worse, so buyer beware.
  7. # Typical output: timestamp in microseconds: procname(pid) event
  8. #
  9. # 1218230114875167: python(17631) blocked on full send buffer
  10. # 1218230114876196: python(17631) recovered from full send buffer
  11. # 1218230114876271: python(17631) blocked on full send buffer
  12. # 1218230114876479: python(17631) recovered from full send buffer
  13. probe kernel.function("sk_stream_wait_memory")
  14. {
  15. printf("%u: %s(%d) blocked on full send buffern",
  16. gettimeofday_us(), execname(), pid())
  17. }
  18. probe kernel.function("sk_stream_wait_memory").return
  19. {
  20. printf("%u: %s(%d) recovered from full send buffern",
  21. gettimeofday_us(), execname(), pid())
  22. }

原理解析

如果tcp发送buffer也就是SO_SNDBUF只有16K的话,这些包很快都发出去了,但是这16K不能立即释放出来填新的内容进去,因为tcp要保证可靠,万一中间丢包了呢。只有等到这16K中的某些包ack了,才会填充一些新包进来然后继续发出去。由于这里rt基本是20ms,也就是16K发送完毕后,等了20ms才收到一些ack,这20ms应用、内核什么都不能做,所以就是如第二个图中的大概20ms的等待平台。

sendbuffer相当于发送仓库的大小,仓库的货物都发走后,不能立即腾出来发新的货物,而是要等对方确认收到了(ack)才能腾出来发新的货物。 传输速度取决于发送仓库(sendbuffer)、接收仓库(recvbuffer)、路宽(带宽)的大小,如果发送仓库(sendbuffer)足够大了之后接下来的瓶颈就是高速公路了(带宽、拥塞窗口)。

如果是UDP,就没有可靠的概念,有数据统统发出去,根本不关心对方是否收到,也就不需要ack和这个发送buffer了。

几个发送buffer相关的内核参数:

  1. vm.lowmem_reserve_ratio = 256   256     32
  2. net.core.wmem_max = 1048576
  3. net.core.wmem_default = 124928
  4. net.ipv4.tcp_wmem = 4096        16384   4194304
  5. net.ipv4.udp_wmem_min = 4096

net.ipv4.tcp_wmem 默认就是16K,而且是能够动态调整的,只不过我们代码中这块的参数是很多年前从Cobra中继承过来的,初始指定了sendbuffer的大小。代码中设置了这个参数后就关闭了内核的动态调整功能,但是能看到http或者scp都很快,因为他们的send buffer是动态调整的,所以很快。

接收buffer是有开关可以动态控制的,发送buffer没有开关默认就是开启,关闭只能在代码层面来控制:

  1. net.ipv4.tcp_moderate_rcvbuf

优化

调整 socketSendBuffer 到256K,查询时间从25秒下降到了4秒多,但是比理论带宽所需要的时间略高。

继续查看系统 net.core.wmem_max 参数默认最大是130K,所以即使我们代码中设置256K实际使用的也是130K,调大这个系统参数后整个网络传输时间大概2秒(跟100M带宽匹配了,scp传输22M数据也要2秒),整体查询时间2.8秒。测试用的mysql client短连接,如果代码中的是长连接的话会块300-400ms(消掉了慢启动阶段),这基本上是理论上最快速度了。

如果指定了tcp_wmem,则net.core.wmem_default被tcp_wmem的覆盖。send Buffer在tcp_wmem的最小值和最大值之间自动调整。如果调用setsockopt()设置了socket选项SO_SNDBUF,将关闭发送端缓冲的自动调节机制,tcp_wmem将被忽略,SO_SNDBUF的最大值由net.core.wmem_max限制。

BDP 带宽时延积

BDP=rtt*(带宽/8)

这个 buffer 调到1M测试没有帮助,从理论计算BDP(带宽时延积) 0.02秒*(100MB/8)=250Kb 所以SO_SNDBUF为256Kb的时候基本能跑满带宽了,再大实际意义也不大了。也就是前面所说的仓库足够后瓶颈在带宽上了。

因为BDP是250K,也就是拥塞窗口(带宽、接收窗口和rt决定的)即将成为新的瓶颈,所以调大buffer没意义了。

用tc构造延时和带宽限制的模拟重现环境

  1. sudo tc qdisc del dev eth0 root netem delay 20ms
  2. sudo tc qdisc add dev eth0 root tbf rate 500kbit latency 50ms burst 15kb

这个案例关于wmem的结论

默认情况下Linux系统会自动调整这个buffer(net.ipv4.tcp_wmem), 也就是不推荐程序中主动去设置SO_SNDBUF,除非明确知道设置的值是最优的。

从这里我们可以看到,有些理论知识点虽然我们知道,但是在实践中很难联系起来,也就是常说的无法学以致用,最开始看到抓包结果的时候比较怀疑发送、接收窗口之类的,没有直接想到send buffer上,理论跟实践的鸿沟。

说完发送Buffer(wmem)接下来我们接着一看看接收buffer(rmem)和接收窗口的情况

用这样一个案例下来验证接收窗口的作用:

有一个batch insert语句,整个一次要插入5532条记录,所有记录大小总共是376K。SO_RCVBUF很小的时候并且rtt很大对性能的影响

如果rtt是40ms,总共需要5-6秒钟:

基本可以看到server一旦空出来点窗口,client马上就发送数据,由于这点窗口太小,rtt是40ms,也就是一个rtt才能传3456字节的数据,整个带宽才80-90K,完全没跑满。

比较明显间隔 40ms 一个等待台阶,台阶之间两个包大概3K数据,总的传输效率如下:

斜线越陡表示速度越快,从上图看整体SQL上传花了5.5秒,执行0.5秒。

此时对应的窗口尺寸:

窗口由最开始28K(20个1448)很快降到了不到4K的样子,然后基本游走在即将满的边缘,虽然读取慢,幸好rtt也大,导致最终也没有满。(这个是3.1的Linux,应用SO_RCVBUF设置的是8K,用一半来做接收窗口)。

SO_RCVBUF很小的时候并且rtt很小时对性能的影响

如果同样的语句在 rtt 是0.1ms的话:

虽然明显看到接收窗口经常跑满,但是因为rtt很小,一旦窗口空出来很快就通知到对方了,所以整个过小的接收窗口也没怎么影响到整体性能。

如上图11.4秒整个SQL开始,到11.41秒SQL上传完毕,11.89秒执行完毕(执行花了0.5秒),上传只花了0.01秒,接收窗口情况:

如图,接收窗口由最开始的28K降下来,然后一直在5880和满了之间跳动:

从这里可以得出结论,接收窗口的大小对性能的影响,rtt越大影响越明显,当然这里还需要应用程序配合,如果应用程序一直不读走数据即使接收窗口再大也会堆满的。

SO_RCVBUF和tcp window full的坏case

上图中红色平台部分,停顿了大概6秒钟没有发任何有内容的数据包,这6秒钟具体在做什么如下图所示,可以看到这个时候接收方的TCP Window Full,同时也能看到接收方(3306端口)的TCP Window Size是8192(8K),发送方(27545端口)是20480。

这个状况跟前面描述的recv buffer太小不一样,8K是很小,但是因为rtt也很小,所以server总是能很快就ack收到了,接收窗口也一直不容易达到full状态,但是一旦接收窗口达到了full状态,居然需要惊人的6秒钟才能恢复,这等待的时间有点太长了。这里应该是应用读取数据太慢导致了耗时6秒才恢复,所以最终这个请求执行会非常非常慢(时间主要耗在了上传SQL而不是执行SQL)。

实际原因不知道,从读取TCP数据的逻辑来看这里没有明显的block,可能的原因:

  • request的SQL太大,Server(3306端口上的服务)从TCP读取SQL需要放到一块分配好的内存,内存不够的时候需要扩容,扩容有可能触发fgc,从图形来看,第一次满就卡顿了,而且每次满都卡顿,不像是这个原因
  • request请求一次发过来的是多个SQL,应用读取SQL后,将SQL分成多个,然后先执行第一个,第一个执行完后返回response,再读取第二个。图形中卡顿前没有response返回,所以也不是这个原因。
  • ……其它未知原因

接收方不读取数据导致的接收窗口满同时有丢包发生

服务端返回数据到client端,TCP协议栈ack这些包,但是应用层没读走包,这个时候 SO_RCVBUF 堆积满,client的TCP协议栈发送 ZeroWindow 标志给服务端。也就是接收端的 buffer 堆满了(但是服务端这个时候看到的bytes in fly是0,因为都ack了),这时服务端不能继续发数据,要等 ZeroWindow 恢复。

那么接收端上层应用不读走包可能的原因:

  • 应用代码卡顿、GC等等

应用代码逻辑上在做其它事情(比如Server将SQL分片到多个DB上,Server先读取第一个分片,如果第一个分片数据很大很大,处理也慢,那么第二个分片数据都返回到了TCP buffer,也没去读取其它分片的结果集,直到第一个分片读取完毕。如果SQL带排序,那么Server。

  • 会轮询读取多个分片,造成这种卡顿的概率小了很多

上图这个流因为应用层不读取TCP数据,导致TCP接收Buffer满,进而接收窗口为0,server端不能再发送数据而卡住,但是ZeroWindow的探测包,client都有正常回复,所以1903秒之后接收方窗口不为0后(window update)传输恢复。

这个截图和前一个类似,是在Server上(3003端口)抓到的包,不同的是接收窗口为0后,server端多次探测(Server上抓包能看到),但是client端没有回复 ZeroWindow(也有可能是回复了,但是中间环节把ack包丢了,或者这个探测包client没收到),造成server端认为client死了、不可达之类,进而反复重传,重传超过15次之后,server端认为这个连接死了,粗暴单方面断开(没有reset和fin,因为没必要,server认为网络连通性出了问题)。

等到1800秒后,client的接收窗口恢复了,发个window update给server,这个时候server认为这个连接已经断开了,只能回复reset。

网络不通,重传超过一定的时间(tcp_retries2)然后断开这个连接是正常的,这里的问题是:

为什么这种场景下丢包了,而且是针对某个stream一直丢包?

可能是因为这种场景下触发了中间环节的流量管控,故意丢包了(比如proxy、slb、交换机都有可能做这种选择性的丢包)。

这里server认为连接断开,没有发reset和fin,因为没必要,server认为网络连通性出了问题。client还不知道server上这个连接清理掉了,等client回复了一个window update,server早就认为这个连接早断了,突然收到一个update,莫名其妙,只能reset。

接收窗口和SO_RCVBUF的关系

初始接收窗口一般是 mss乘以初始cwnd(为了和慢启动逻辑兼容,不想一下子冲击到网络),如果没有设置SO_RCVBUF,那么会根据 net.ipv4.tcp_rmem 动态变化,如果设置了SO_RCVBUF,那么接收窗口要向下面描述的值靠拢。

初始cwnd可以大致通过查看到:

  1. ss -itmpn dst "10.81.212.8"
  2. State      Recv-Q Send-Q Local Address:Port  Peer Address:Port
  3. ESTAB      0      0      10.xx.xx.xxx:22     10.yy.yy.yyy:12345  users:(("sshd",pid=1442,fd=3))
  4. skmem:(r0,rb369280,t0,tb87040,f4096,w0,o0,bl0,d92)
  5. Here we can see this socket has Receive Buffer 369280 bytes, and Transmit Buffer 87040 bytes.
  6. Keep in mind the kernel will double any socket buffer allocation for overhead.
  7. So a process asks for 256 KiB buffer with setsockopt(SO_RCVBUF) then it will get 512 KiB buffer
  8. space. This is described on man 7 tcp.

初始窗口计算的代码逻辑,重点在18行:

  1. /* TCP initial congestion window as per rfc6928 */
  2. #define TCP_INIT_CWND           10
  3. /* 3. Try to fixup all. It is made immediately after connection enters
  4. *    established state.
  5. */
  6. void tcp_init_buffer_space(struct sock *sk)
  7. {
  8. int tcp_app_win = sock_net(sk)->ipv4.sysctl_tcp_app_win;
  9. struct tcp_sock *tp = tcp_sk(sk);
  10. int maxwin;
  11. if (!(sk->sk_userlocks & SOCK_SNDBUF_LOCK))
  12. tcp_sndbuf_expand(sk);
  13. //初始最大接收窗口计算过程
  14. tp->rcvq_space.space = min_t(u32, tp->rcv_wnd, TCP_INIT_CWND * tp->advmss);
  15. tcp_mstamp_refresh(tp);
  16. tp->rcvq_space.time = tp->tcp_mstamp;
  17. tp->rcvq_space.seq = tp->copied_seq;
  18. maxwin = tcp_full_space(sk);
  19. if (tp->window_clamp >= maxwin) {
  20. tp->window_clamp = maxwin;
  21. if (tcp_app_win && maxwin > 4 * tp->advmss)
  22. tp->window_clamp = max(maxwin -
  23. (maxwin >> tcp_app_win),
  24. 4 * tp->advmss);
  25. }
  26. /* Force reservation of one segment. */
  27. if (tcp_app_win &&
  28. tp->window_clamp > 2 * tp->advmss &&
  29. tp->window_clamp + tp->advmss > maxwin)
  30. tp->window_clamp = max(2 * tp->advmss, maxwin - tp->advmss);
  31. tp->rcv_ssthresh = min(tp->rcv_ssthresh, tp->window_clamp);
  32. tp->snd_cwnd_stamp = tcp_jiffies32;
  33. }

传输过程中,最大接收窗口会动态调整,当指定了SO_RCVBUF后,实际buffer是两倍SO_RCVBUF,但是要分出一部分(2^net.ipv4.tcp_adv_win_scale)来作为乱序报文缓存。

  1. net.ipv4.tcp_adv_win_scale = 2 //2.6内核,3.1中这个值默认是1。

如果SO_RCVBUF是8K,总共就是16K,然后分出2^2分之一,也就是4分之一,还剩12K当做接收窗口;如果设置的32K,那么接收窗口是48K。

  1. static inline int tcp_win_from_space(const struct sock *sk, int space)
  2. {//space 传入的时候就已经是 2*SO_RCVBUF了
  3. int tcp_adv_win_scale = sock_net(sk)->ipv4.sysctl_tcp_adv_win_scale;
  4. return tcp_adv_win_scale <= 0 ?
  5. (space>>(-tcp_adv_win_scale)) :
  6. space - (space>>tcp_adv_win_scale); //sysctl参数tcp_adv_win_scale
  7. }

接收窗口有最大接收窗口和当前可用接收窗口。

一般来说一次中断基本都会将 buffer 中的包都取走。

绿线是最大接收窗口动态调整的过程,最开始是1460*10,握手完毕后略微调整到1472*10(可利用body增加了12),随着数据的传输开始跳涨。

上图是四个batch insert语句,可以看到绿色接收窗口随着数据的传输越来越大,图中蓝色竖直部分基本表示SQL上传,两个蓝色竖直条的间隔代表这个insert在服务器上真正的执行时间。这图非常陡峭,表示上传没有任何瓶颈。

设置 SO_RCVBUF 后通过wireshark观察到的接收窗口基本

下图是设置了 SO_RCVBUF 为8192的实际情况:

从最开始的14720,执行第一个create table语句后降到14330,到真正执行batch insert就降到了8192*1.5. 然后一直保持在这个值。

If you set a "receive buffer size" on a TCP socket, what does it actually mean?

The naive answer would go something along the lines of: the TCP receive buffer setting indicates the maximum number of bytes a read() syscall could retrieve without blocking.

Note that if the buffer size is set with setsockopt(), the value returned with getsockopt() is always double the size requested to allow for overhead. This is described in man 7 socket.

总结

  • 一般来说绝对不要在程序中手工设置SO_SNDBUF和SO_RCVBUF,内核自动调整比你做的要好;
  • SO_SNDBUF一般会比发送滑动窗口要大,因为发送出去并且ack了的才能从SO_SNDBUF中释放;
  • TCP接收窗口跟SO_RCVBUF关系很复杂;
  • SO_RCVBUF太小并且rtt很大的时候会严重影响性能;
  • 接收窗口比发送窗口复杂多了;
  • 发送窗口/SO_SNDBUF--发送仓库,带宽/拥塞窗口--马路通畅程度,接收窗口/SO_RCVBUF--接收仓库;
  • 发送仓库、马路通畅程度、接收仓库一起决定了传输速度--类比一下快递过程。

总之记住一句话:不要设置socket的SO_SNDBUF和SO_RCVBUF。

原文地址:https://www.cnblogs.com/jinanxiaolaohu/p/11776690.html

时间: 2024-08-04 06:35:04

[转帖]直击案发现场!TCP 10倍延迟的真相是?的相关文章

Web 应用性能提升 10 倍的 10 个建议

转载自http://blog.jobbole.com/94962/ 提升 Web 应用的性能变得越来越重要.线上经济活动的份额持续增长,当前发达世界中 5 % 的经济发生在互联网上(查看下面资源的统计信息). 我们现在所处的时代要求一直在线和互联互通,这意味着用户对性能有更高的期望.如果网站响应不及时,或者应用有明显的延迟,用户很快就会跑到竞争者那边去. 例如,Amazon 十年前做的一项研究表明,网页加载时间减少 100 毫秒,收入就会增加  1%.最近另一项研究凸显了一个事实,就是有一半以上

电脑慢的快速解决办法 22种方法电脑速度变快10倍

很多电脑用户一直都被电脑慢的问题困扰着,而大脑大神根本不把电脑慢当做电脑问题,因为让电脑变快的方法有很多,而且操作都巨简单. 提高电脑速度的方法也能很多而且很容易操作,一切的难,只是来源于你没有学过而已,现在就跟着小编来学那些简单又使用的电脑技能吧. 让电脑速度快10倍,大概会让人觉得很不可思议吧,而实际上,你羡慕的大神可能也只是因为学会了下面的22种提高电脑速度的方法哦. 1.系统常规优化 1)关闭系统属性中的特效.点击开始→控制面板→系统→高级→性能→设置→在视觉效果中,设置为调整为最佳性能

TCP Nagle算法&amp;&amp;延迟确认机制

收藏 秋风醉了 发表于 3年前 阅读 1367 收藏 0 点赞 0 评论 0 [腾讯云]买域名送云解析+SSL证书+建站!>>>   摘要: TCP Nagle算法&&延迟确认机制 TCP Nagle算法 http://baike.baidu.com/view/2468335.htm 百度百科:TCP/IP协议中,无论发送多少数据,总是要在数据前面加上协议头,同时,对方接收到数据,也需要发送ACK表示确认.为了尽可能的利用网络带宽,TCP总是希望尽可能的发送足够大的数据.

牛牛有一个鱼缸。鱼缸里面已经有n条鱼,每条鱼的大小为fishSize[i] (1 ≤ i ≤ n,均为正整数),牛牛现在想把新捕捉的鱼放入鱼缸。鱼缸内存在着大鱼吃小鱼的定律。经过观察,牛牛发现一条鱼A的大小为另外一条鱼B大小的2倍到10倍(包括2倍大小和10倍大小),鱼A会吃掉鱼B。考虑到这个,牛牛要放入的鱼就需要保证: 1、放进去的鱼是安全的,不会被其他鱼吃掉 2、这条鱼放进去也不能吃掉其他鱼

牛牛有一个鱼缸.鱼缸里面已经有n条鱼,每条鱼的大小为fishSize[i] (1 ≤ i ≤ n,均为正整数),牛牛现在想把新捕捉的鱼放入鱼缸.鱼缸内存在着大鱼吃小鱼的定律.经过观察,牛牛发现一条鱼A的大小为另外一条鱼B大小的2倍到10倍(包括2倍大小和10倍大小),鱼A会吃掉鱼B.考虑到这个,牛牛要放入的鱼就需要保证:1.放进去的鱼是安全的,不会被其他鱼吃掉2.这条鱼放进去也不能吃掉其他鱼鱼缸里面已经存在的鱼已经相处了很久,不考虑他们互相捕食.现在知道新放入鱼的大小范围[minSize,max

京东Q3净利润同比增长超10倍,品质电商时代或开启?

文/张书乐 据媒体报道,15日晚间,京东集团发布2016财年第三季度业绩,其营收为607亿元人民币(约91亿美元),同比增长38%:净亏损为8.079亿元人民币(约1.212亿美元),去年同期为5.349亿元人民币的净亏损.非美国通用会计准则下(Non-GAAP)净利润为2.690亿元人民币(约4030万美元),去年第三季度非美国通用会计准则下净利润为2300万元人民币. 一年之间,京东的净利润就增长的10倍有余,不仅让华尔街的分析师们跌破了眼镜,也似乎成为了中国电子商务从讲求超长的尾的模式,向

【Android开发经验】比Gson解析速度快10倍!——Json解析神器Jackson使用介绍

转载请注明出处:http://blog.csdn.net/zhaokaiqiang1992 在前面的两篇文章中,我们介绍了Json数据格式和系统自带Json以及Google的Gson项目,如果能学会这些东西,基本能满足工作需求了.但是,程序员都有追求极致效率的嗜好,在满足了基本需求之后,我们会考虑能不能再优化一下效率呢?当然!今天这篇文章要介绍的,就是在数据量比较大的时候,比Gson的解析效率高近10倍的Json数据解析框架- -Jackson! 下面是一个大神关于几个常见的Json数据的解析速

程序员编程生产力相差10倍意味着什么?

在软件工程研究中,被验证得最多的结论就是对于同等经验的两个不同程序员,在效率和质量上可能会有10倍的差距.研究人员还发现,这种差距也适用于团队级别上,也就是说在同一行业内的不同的团队也是如此. 软件开发中的个人效率的变化 首先发现不同人在编程生产力上的巨大差距的研究,是1960年由Sackman.Erikson以及Grant三个人完成的.他们研究了工作经验平均在7年的专业程序员,并发现最好和最差的程序员写新代码的时间比为20∶1:调试次数是25∶1:程序大小是5∶1:程序的执行效率是10∶1.他

使用Apache Spark 对 mysql 调优 查询速度提升10倍以上

在这篇文章中我们将讨论如何利用 Apache Spark 来提升 MySQL 的查询性能. 介绍 在我的前一篇文章Apache Spark with MySQL 中介绍了如何利用 Apache Spark 实现数据分析以及如何对大量存放于文本文件的数据进行转换和分析.瓦迪姆还做了一个基准测试用来比较 MySQL 和 Spark with Parquet 柱状格式 (使用空中交通性能数据) 二者的性能. 这个测试非常棒,但如果我们不希望将数据从 MySQL 移到其他的存储系统中,而是继续在已有的

如何提高程序员10倍的生产力

如何提高程序员10倍的生产力,大家都认为这是一个非常好的话题,今天就来分享一些我自己的观点:诚然我们还不知如何准确的定义10倍生产力是个什么样的概念,但我个人认为它是指程序员在超生产的情况下,速度提升了十倍.基于一些成功的因素,同时个人在程序员客栈做项目经理,拥有300+项目管理经验,并与一些顶尖的程序员开发者工作过,我可以分享一下我对这个话题的一些理解. 最早期的程序员 相比现代软件,相对于功能性,安全性,性能和可扩展性20-30年前开发的软件就简单多了.在另一方面,库或框架的只有少数人可以在