C#中实现并发

C#中实现并发的几种方法的性能测试

0x00 起因

去年写的一个程序因为需要在局域网发送消息支持一些命令和简单数据的传输,所以写了一个C/S的通信模块。当时的做法很简单,服务端等待链接,有用户接入后开启一个线程,在线程中运行一个while循环接收数据,接收到数据就处理。用户退出(收到QUIT命令)后线程结束。程序一直运行正常(当然还要处理“TCP粘包”、消息格式封装等问题,在此不作讨论),不过随着使用的人越来越多,而且考虑到线程开销比较大,如果有100个用户链接那么服务端就要多创建100个线程,500个用户就是500个线程,确实太夸张了(当然实际并没有那么多用户)。由于TCP通信并不是每时每刻都在进行着的,因此可以把所有客户端连接存储到一个列表中,通过轮询的方式依次开启一个线程进行数据接收,接收完毕后释放线程,这样可以充分利用线程池,避免大量线程消耗内存和CPU。

轮询的方式通过线程池实现了线程的复用,可以肯定的是在资源开销上肯定是小很多的,但轮询的方式在单位时间内的处理次数会不会比保持线程的方式少很多呢,本测试将解决这个疑问。

0x01 实验方法

IDE:VS2015

.Net Framework 4.5

接收数据的对象如下所示

通过ReceiveData方法接收数据,每次接收只有1%的可能性收到数据,通过创建N个对象接收数据来模拟一个TCP服务端处理N个连接的情况。毕竟TCP通信不是随时进行的,当然这个百分比可以调整。程序输出的内容包括每秒执行了多少次接收操作,接收到数据的线程编号和接收到的内容等。

0x02 保持线程的并发

保持线程的并发非常直观,就是每建立一个对象就开一个新线程循环进行ReceiveData操作,当接收到数据就把相关信息输出到主界面上。代码如下所示:

0x03 使用ThreadPool轮询并发

方法是使用一个List(或其他容器)把所有的对象放进去,创建一个线程(为了防止UI假死,由于这个线程创建后会一直执行切运算密集,所以使用TheadPool和Thread差别不大),在这个线程中使用foreach(或for)循环依次对每个对象执行ReceiveData方法,每次执行的时候创建一个线程池线程来执行。代码如下:

0x04使用Task轮询并发

方法与ThreadPool类似,只是每次创建线程池线程执行ReceiveData方法时是通过Task创建的线程。代码如下所示:

0x05 使用await轮询并发

方法与ThreadPool类似,只是每次创建线程池线程执行ReceiveData方法时是通过await等待操作。代码如下:

刚开始在foreach中写了await导致线程阻塞,但因为ReceiveData()中测试时为了尽量拉开差距没有让线程睡眠以模拟线程操作,导致没有意识到这个问题,多谢 @逸风之狐 提醒。

修改后代码如下所示,这样测试方法就可以立即返回了。不过async/await确实不是用来干这个的。

0x06 使用Parallel并发

这是FCL提供的一种方法,Parallel.ForEach中每次方法都是异步执行,执行采用的是线程池线程。代码如下所示:

0x07 测试结果

创建500个对象来模拟500个连接的情况。其中测试结果中的每秒接收次数会有个波动范围,主要参照百位以上。使用线程池线程的几个方法(ThreadPool、Task、await、Parallel)中程序的线程数略有差别,可能跟执行环境有关,难以表明实质性差异。其中await因为线程切换导致线程执行时间略长,使得线程池需要多创建一些线程。

1、保持线程的并发

平均每秒接收8654次数据。在任务开始后会创建500个线程,由于每个线程都需要单独的栈空间来执行,内存消耗较大。频繁切换线程也会加重CPU的负担。

2、ThreadPool轮询并发

平均每秒接受9529次数据。由于实现了线程池线程的复用,无需创建太多线程,内存没有出现波动,CPU消耗也比较均匀。

3、Task轮询并发

平均每秒接收9322次数据,由于Task也是基于线程池的封装,因此与ThreadPool结果差别不大。

4、await轮询并发

平均每秒接收4150次。await也是使用线程池线程,所以在内存开销和线程数上与其他使用线程池线程的方法没有太大差别。但await在等待完毕后会将执行上下文从线程池线程切换回调用线程,因此CPU开销较大。

5、Parallel并发

看名字就知道这个设计出来就是应用于这种使用环境的,平均每秒接收9387次数据,也是使用线程池线程,所以内存和CPU消耗与ThreadPool和Task差不多。但不需要自己写foreach(for)循环,只要写循环体即可。

6、补充测试

经测试随着ReceiveData()耗时不断增加,轮询方式的优势越来越小。表现就是刚开始线程执行效率很低,需要花费时间慢慢赶上去。因为线程池中的初始线程不够用,需要创建更多的线程池线程,线程池线程创建起来没有Thread那么快,不过当线程池中的线程数量逐渐满足需求之后,轮询的优势就又体现出来了。

测试1:测试同样500个线程,有1%的可能接收到数据,但收到数据时模拟执行操作耗时100毫秒,程序刚开始效率很低,花了大概12秒左右,当线程数增长到54个时基本稳定可以满足需求,效率也越来越高。

测试2:测试同样500个线程,有1%的可能接收到数据,但收到数据时模拟执行操作耗时500毫秒,程序刚开始效率同样很低,花了大概150秒左右,当线程数增长到97个时基本稳定可以满足需求,效率也越来越高。

0x08 结论

首先明显能看出来的是使用轮询的方式比保持线程能节省很多资源,特别是内存。而且在处理效率上轮询的方式(每秒接收9300-9500次)比保持线程还要高(每秒8600+)。因此在这种并发模型下应该使用轮询的方式以节省资源并提高并发效率。

实际上硬拿await来比较是不太公平的,await被设计出来就不是应用于这种场景的。不管是之前关于异步的测试还是并发的测试,基于线程池的方案相差都不大。因此思路对了的情况下使用ThreadPool总是没错的。但有些类型把ThreadPool包装了以更好适应某些特殊场景,因此有了Task、await、Parallel等。而在这次的测试条件下显然Parallel是最合适的,与直接使用ThreadPool相比资源开销和执行效率一样,但代码更少。

在补充测试中也能看到,不同的运行环境对运行效率的影响还是很大的,因此还是要针对自己的环境做针对性更强的测试以采用更合适的方法。例如在我的使用环境中,服务端TCP消息的转发和部分命令的处理耗时都是非常短的。同样假设最高同时在线500个用户,这500个用户也不会是同事登陆的,所以也不会存在线程池初始线程严重不够用的情况。随着用户慢慢登陆,线程池线程根据需求慢慢增加,这样创建线程池线程增加的耗时就不那么明显了。所以在我的使用环境下轮询的方式无疑是合适的。因此刚开始对ReceiveData()只设置了接受数据的概率,没有模拟延迟。大家有需求的可以把测试程序下下来根据实际情况调整最大并发数、接收到数据的概率和接收数据的耗时以进行测试。

0x09 相关下载

测试代码下载链接:https://github.com/durow/TestArea/tree/master/AsyncTest/ConcurrenceTest

分类: C#

标签: C#并发

时间: 2024-10-19 02:03:21

C#中实现并发的相关文章

[翻译]在 .NET Core 中的并发编程

原文地址:http://www.dotnetcurry.com/dotnet/1360/concurrent-programming-dotnet-core 今天我们购买的每台电脑都有一个多核心的 CPU,允许它并行执行多个指令.操作系统通过将进程调度到不同的内核来发挥这个结构的优点.然而,还可以通过异步 I/O 操作和并行处理来帮助我们提高单个应用程序的性能.在.NET Core中,任务 (tasks) 是并发编程的主要抽象表述,但还有其他支撑类可以使我们的工作更容易. 并发编程 - 异步 v

Shell脚本中的并发(转)

转自http://blog.csdn.net/wangtaoking1/article/details/9838571 主要记录一下Shell脚本中的命令的并发和串行执行. 默认的情况下,Shell脚本中的命令是串行执行的,必须等到前一条命令执行完后才执行接下来的命令,但是如果我有一大批的的命令需要执行,而且互相又没有影响的情况下(有影响的话就比较复杂了),那么就要使用命令的并发执行了. 看下面的代码: #!/bin/bash for(( i = 0; i < ${count}; i++ ))

基于Oracle数据库锁机制,解决集群中的并发访问问题

1.需求 应用场景是这样的: 使用Oracle数据保存待办任务,使用状态字段区分任务是否已经被执行.多个Worker线程同时执行任务,执行成功或失败后,修改状态字段的值. 假设数据库表结构如下所示. create table Task( id varchar2(32), name varchar2(32), flag varchar2(1), worker varchar2(32) ); flag 可取的值包括:0-待办,1-已办,-1-失败待重试. 需要避免的问题: 多个Worker同时工作时

WCF初探-28:WCF中的并发

理解WCF中的并发机制 在对WCF并发机制进行理解时,必须对WCF初探-27:WCF中的实例化进行理解,因为WCF中的并发特点是伴随着服务实例上下文实现的.WCF的实例上下文模型可以通过InstanceContext的属性来进行设置,WCF中的并发就是指一个实例上下文处理请求消息的能力,当需要在一个实例上下文中处理多个消息请求时就会产生并发.所以当InstanceContextMode的值为PerSession或Single的时候就会产生并发的情况,这时我们可以通过设置ConcurrencyMo

Hasen的linux设备驱动开发学习之旅--linux设备驱动中的并发与竞态

/** * Author:hasen * 参考 :<linux设备驱动开发详解> * 简介:android小菜鸟的linux * 设备驱动开发学习之旅 * 主题:linux设备驱动中的并发与竞态 * Date:2014-11-04 */ 1.并发与竞态 并发(concurrency)指的是多个执行单元同时.并行被执行,而并发的执行单元对共享资源(软件上的全 局变量,静态变量等)的访问则很容易导致竞态(race conditions). 主要的竞态发生在以下几种情况: (1)对称多处理(SMP)

LDD3阅读笔记之内核中的并发和竞态

内核中的并发和竞态 一般驱动程序运行在内核态中,只能调用内核空间中提供的函数,因此在处理并发和竞态时不能使用用户空间提供的库,如pthread库,内核有着自己的一套内部实现机制. 并发及其管理 现代Linux系统中存在大量的并发来源,因此会导致可能的竞态.SMP系统甚至可能在不同的处理器上同时执行我们的代码.内核代码是可抢占的,因此,我们的驱动程序代码可能在任何时候丢失对处理器的独占,而拥有处理器的进程可能正在调用我们的驱动程序代码.设备中断是异步事件,也会导致代码的并发执行.内核还提供了很多可

Python中的并发编程

简介 我们将一个正在运行的程序称为进程.每个进程都有它自己的系统状态,包含内存状态.打开文件列表.追踪指令执行情况的程序指针以及一个保存局部变量的调用栈.通常情况下,一个进程依照一个单序列控制流顺序执行,这个控制流被称为该进程的主线程.在任何给定的时刻,一个程序只做一件事情. 一个程序可以通过Python库函数中的os或subprocess模块创建新进程(例如os.fork()或是subprocess.Popen()).然而,这些被称为子进程的进程却是独立运行的,它们有各自独立的系统状态以及主线

Python3标准库:threading进程中管理并发操作

1. threading进程中管理并发操作 threading模块提供了管理多个线程执行的API,允许程序在同一个进程空间并发的运行多个操作. 1.1 Thread对象 要使用Thread,最简单的方法就是用一个目标函数实例化一个Thread对象,并调用start()让它开始工作. import threading def worker(): """thread worker function""" print('Worker') threads

linux设备驱动第五篇:驱动中的并发与竟态

综述 在上一篇介绍了linux驱动的调试方法,这一篇介绍一下在驱动编程中会遇到的并发和竟态以及如何处理并发和竞争. 首先什么是并发与竟态呢?并发(concurrency)指的是多个执行单元同时.并行被执行.而并发的执行单元对共享资源(硬件资源和软件上的全局.静态变量)的访问则容易导致竞态(race conditions).可能导致并发和竟态的情况有: SMP(Symmetric Multi-Processing),对称多处理结构.SMP是一种紧耦合.共享存储的系统模型,它的特点是多个CPU使用共