Linux下的socket编程实践(八) Select的限制和poll(并发的初步知识)

select的限制

用select实现的并发服务器,能达到的并发数一般受两方面限制:

1)一个进程能打开的最大文件描述符限制。这可以通过调整内核参数来改变。可以通过ulimit -n(number)来调整或者使用setrlimit函数设置(需要root权限),但一个系统所能打开的最大数也是有限的,跟内存大小有关,可以通过cat /proc/sys/fs/file-max 查看。

2)select中的fd_set集合容量的限制(FD_SETSIZE,一般为1024),这需要重新编译内核才能改变。

对于第一个限制:

nclude <sys/time.h>
#include <sys/resource.h>

int getrlimit(int resource, struct rlimit *rlim);
int setrlimit(int resource, const struct rlimit *rlim);

其中,resource的一个取值  RLIMIT_NOFILE
代表指定比进程可打开的最大文件描述词大一的值,超出此值,将会产生EMFILE错误。

rlim:描述资源软硬限制的结构体,原型如下

struct rlimit {
    rlim_t rlim_cur; /* Soft limit */
    rlim_t rlim_max; /* Hard limit (ceiling for rlim_cur) */
};

返回说明:

成功执行时,返回0。失败返回-1,errno被设为以下的某个值

EFAULT:rlim指针指向的空间不可访问

EINVAL:参数无效

EPERM:增加资源限制值时,权能不允许

软限制是一个建议性的, 最好不要超越的限制, 如果超越的话, 系统可能向进程发送信号以终止其运行.

而硬限制一般是软限制的上限;


resource可用值


RLIMIT_AS


进程可用的最大虚拟内存空间长度,包括堆栈、全局变量、动态内存


RLIMIT_CORE


内核生成的core文件的最大大小


RLIMIT_CPU


所用的全部cpu时间,以秒计算


RLIMIT_DATA


进程数据段(初始化DATA段, 未初始化BSS段和堆)限制(以B为单位)


RLIMIT_FSIZE


文件大小限制


RLIMIT_SIGPENDING


用户能够挂起的信号数量限制


RLIMIT_NOFILE


打开文件的最大数目


RLIMIT_NPROC


用户能够创建的进程数限制


RLIMIT_STACK


进程栈内存限制, 超过会产生SIGSEGV信号

进程的资源限制通常是在系统初启时由0#进程建立的,在更改资源限制时,须遵循下列三条规则:

  1.任何一个进程都可将一个软限制更改为小于或等于其硬限制。

  2.任何一个进程都可降低其硬限制值,但它必须大于或等于其软限制值。这种降低,对普通用户而言是不可逆反的。

  3.只有超级用户可以提高硬限制。

/**示例: getrlimit/setrlimit获取/设置进程打开文件数目**/
int main()
{
    struct rlimit rl;
    if (getrlimit(RLIMIT_NOFILE, &rl) == -1)
        err_exit("getrlimit error");
    cout << "Soft limit: " << rl.rlim_cur << endl;
    cout << "Hard limit: " << rl.rlim_max << endl;
    cout << "------------------------->"  << endl;  

    rl.rlim_cur = 2048;
    rl.rlim_max = 2048;
    if (setrlimit(RLIMIT_NOFILE, &rl) == -1)
        err_exit("setrlimit error");  

    if (getrlimit(RLIMIT_NOFILE, &rl) == -1)
        err_exit("getrlimit error");
    cout << "Soft limit: " << rl.rlim_cur << endl;
    cout << "Hard limit: " << rl.rlim_max << endl;
}  

测试最多可以建立多少个链接,下面是客户端的代码:

#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <signal.h> 

#include <stdlib.h>
#include <stdio.h>
#include <errno.h>
#include <string.h> 

#define ERR_EXIT(m) \
         do \
        { \
                perror(m); \
                exit(EXIT_FAILURE); \
        }  while( 0) 

int main( void)
{
     int count =  0;
     while( 1)
    {
         int sock;
         if ((sock = socket(PF_INET, SOCK_STREAM, IPPROTO_TCP)) <  0)
        {
            sleep( 4);
            ERR_EXIT( "socket");
        } 

         struct sockaddr_in servaddr;
        memset(&servaddr,  0,  sizeof(servaddr));
        servaddr.sin_family = AF_INET;
        servaddr.sin_port = htons( 5188);
        servaddr.sin_addr.s_addr = inet_addr( "127.0.0.1"); 

         if (connect(sock, ( struct sockaddr *)&servaddr,  sizeof(servaddr)) <  0)
            ERR_EXIT( "connect"); 

         struct sockaddr_in localaddr;
        socklen_t addrlen =  sizeof(localaddr);
         if (getsockname(sock, ( struct sockaddr *)&localaddr, &addrlen) <  0)
            ERR_EXIT( "getsockname"); 

        printf( "ip=%s port=%d\n", inet_ntoa(localaddr.sin_addr), ntohs(localaddr.sin_port));
        printf( "count = %d\n", ++count); 

    } 

     return  0;
}

我们来看一下server端输出:

recv connect ip=127.0.0.1 port=57430

count = 2039

recv connect ip=127.0.0.1 port=57431

count = 2040

recv connect ip=127.0.0.1 port=57432

count = 2041

recv connect ip=127.0.0.1 port=57433

count = 2042

recv connect ip=127.0.0.1 port=57434

count = 2043

recv connect ip=127.0.0.1 port=57435

count = 2044

recv connect ip=127.0.0.1 port=57436

accept error: Too many open files

解析:对于客户端,最多只能开启1021个连接套接字,因为总共是在Linux中最多可以打开1024个文件描述如,其中还得除去0,1,2。而服务器端只能accept 返回1020个已连接套接字,因为除了0,1,2之外还有一个监听套接字listenfd,客户端某一个套接字(不一定是最后一个)虽然已经建立了连接,在已完成连接队列中,但accept返回时达到最大描述符限制,返回错误,打印提示信息。

client在socket()返回-1是调用sleep(4)解析

当客户端调用socket准备创建第1022个套接字时,如上所示也会提示错误,此时socket函数返回-1出错,如果没有睡眠4s后再退出进程会有什么问题呢?如果直接退出进程,会将客户端所打开的所有套接字关闭掉,即向服务器端发送了很多FIN段,而此时也许服务器端还一直在accept ,即还在从已连接队列中返回已连接套接字,此时服务器端除了关心监听套接字的可读事件,也开始关心前面已建立连接的套接字的可读事件,read 返回0,所以会有很多 client close 字段参杂在条目的输出中,还有个问题就是,因为read 返回0,服务器端会将自身的已连接套接字关闭掉,那么也许刚才说的客户端某一个连接会被accept 返回,即测试不出服务器端真正的并发容量;

poll调用

poll没有select第二个限制, 即FD_SETSIZE的限制, 不用修改内核,但是第一个限制暂时还是无法避免的;

#include <poll.h>
int poll(struct pollfd *fds, nfds_t nfds, int timeout);

参数nfds: 需要检测事件的个数, 结构体数组大小(也可表示为文件描述符个数)(The caller should specify the number of items in the fds array in nfds.)

参数timeout: 超时时间(单位milliseconds, 毫秒),若为-1,表示永不超时。

poll 跟 select 还是很相似的,比较重要的区别在于poll 所能并发的个数跟FD_SETSIZE无关,只跟一个进程所能打开的文件描述符个数有关,可以在select 程序的基础上修改成poll 程序,在运行服务器端程序之前,使用ulimit -n 2048 将限制改成2048个,注意在运行客户端进程的终端也需更改,因为客户端也会有所限制,这只是临时性的更改,因为子进程会继承这个环境参数,而我们是在bash命令行启动程序的,故在进程运行期间,文件描述符的限制为2048个。

使用poll 函数的服务器端程序如下,和select大概用法差不多:

#include<stdio.h>
#include<sys/types.h>
#include<sys/socket.h>
#include<unistd.h>
#include<stdlib.h>
#include<errno.h>
#include<arpa/inet.h>
#include<netinet/in.h>
#include<string.h>
#include<signal.h>
#include<sys/wait.h>
#include<poll.h>
#include  "read_write.h" 

#define ERR_EXIT(m) \
     do { \
        perror(m); \
        exit(EXIT_FAILURE); \
    }  while ( 0) 

int main()
{
     int count =  0;
     signal(SIGPIPE, SIG_IGN);
     int listenfd;  //被动套接字(文件描述符),即只可以accept, 监听套接字
     if ((listenfd = socket(PF_INET, SOCK_STREAM, IPPROTO_TCP)) <  0)
         //  listenfd = socket(AF_INET, SOCK_STREAM, 0)
        ERR_EXIT( "socket error"); 

     struct sockaddr_in servaddr;
   	 memset(&servaddr,  0,  sizeof(servaddr));
   	 servaddr.sin_family = AF_INET;
     servaddr.sin_port = htons( 5188);
     servaddr.sin_addr.s_addr = htonl(INADDR_ANY); 

     int on =  1;
     if (setsockopt(listenfd, SOL_SOCKET, SO_REUSEADDR, &on,  sizeof(on)) <  0)
        ERR_EXIT( "setsockopt error"); 

     if (bind(listenfd, ( struct sockaddr *)&servaddr,  sizeof(servaddr)) <  0)
        ERR_EXIT( "bind error"); 

     if (listen(listenfd, SOMAXCONN) <  0)  //listen应在socket和bind之后,而在accept之前
        ERR_EXIT( "listen error"); 

     struct sockaddr_in peeraddr;  //传出参数
     socklen_t peerlen =  sizeof(peeraddr);  //传入传出参数,必须有初始值

     int conn;  // 已连接套接字(变为主动套接字,即可以主动connect)
     int i; 

     struct pollfd client[ 2048];
     int maxi =  0;  //client[i]最大不空闲位置的下标

     for (i =  0; i <  2048; i++)
        client[i].fd = - 1; 

     int nready;
    client[ 0].fd = listenfd;
    client[ 0].events = POLLIN; 

     while (1)
    {
         /* poll检测[0, maxi + 1) */
        nready = poll(client, maxi +  1, - 1);
         if (nready == - 1)
        {
             if (errno == EINTR)
                 continue;
            ERR_EXIT( "poll error");
        } 

         if (nready == 0)
             continue;
         //如果是监听套接口发生了可读事件
         if (client[0].revents & POLLIN)
         {
             conn = accept(listenfd, ( struct sockaddr *)&peeraddr, &peerlen);  //accept不再阻塞
             if (conn == - 1)
                ERR_EXIT( "accept error"); 

             for (i =  1; i <  2048; i++)
            {
                 if (client[i].fd <  0)
                {
                    client[i].fd = conn;
                     if (i > maxi)
                        maxi = i;
                     break;
                }
            } 

             if (i ==  2048)
            {
                fprintf(stderr,  "too many clients\n");
                exit(EXIT_FAILURE);
            } 

            printf( "count = %d\n", ++count);
            printf( "recv connect ip=%s port=%d\n", inet_ntoa(peeraddr.sin_addr),
                   ntohs(peeraddr.sin_port)); 

            client[i].events = POLLIN; 

             if (--nready <=  0)
                 continue;
        } 

         for (i =  1; i <= maxi; i++)
        {
            conn = client[i].fd;
             if (conn == - 1)
                 continue;
                 //已连接套接口发生了可读事件
             if (client[i].revents & POLLIN)
            { 

                 char recvbuf[ 1024] = { 0};
                 int ret = readline(conn, recvbuf,  1024);
                 if (ret == - 1)
                    ERR_EXIT( "readline error");
                 else  if (ret  ==  0)    //客户端关闭
                {
                    printf( "client  close \n");
                    client[i].fd = - 1;
                    close(conn);
                } 

                fputs(recvbuf, stdout);
                writen(conn, recvbuf, strlen(recvbuf)); 

                 if (--nready <=  0)
                     break;
            }
        } 

    } 

     return  0;
} 

/* poll 只受一个进程所能打开的最大文件描述符限制,这个可以使用ulimit -n调整 */

可以看到现在最大的连接数已经是2045个了,虽然服务器端有某个连接没有accept 返回。即poll 比 select 能够承受更多的并发连接,只受一个进程所能打开的最大文件描述符个数限制。可以通过ulimit -n  修改,但一个系统所能打开的文件描述符个数也是有限的,这跟系统的内存大小有关系,所以说也不是可以无限地并发,我们在文章的开始也提到过,可以使用 cat /proc/sys/fs/file-max查看一下本机的容量。

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-08-03 17:01:38

Linux下的socket编程实践(八) Select的限制和poll(并发的初步知识)的相关文章

Socket编程实践(10) --select的限制与poll的使用

select的限制 用select实现的并发服务器,能达到的并发数一般受两方面限制: 1)一个进程能打开的最大文件描述符限制.这可以通过调整内核参数.可以通过ulimit -n(number)来调整或者使用setrlimit函数设置,但一个系统所能打开的最大数也是有限的,跟内存大小有关,可以通过cat /proc/sys/fs/file-max 查看 /**示例: getrlimit/setrlimit获取/设置进程打开文件数目**/ int main() { struct rlimit rl;

Linux下的socket编程实践(十) 基本UDP编程细节

在我的这两篇博客中,简单介绍并实现了基于UDP(TCP)的windows(UNIX下流程基本一致)下的服务端和客户端的程序,本文继续探讨关于UDP编程的一些细节. http://blog.csdn.net/nk_test/article/details/47733307 http://blog.csdn.net/nk_test/article/details/47756381 下图是一个简单的UDP客户/服务器模型: 我在这里也实现了一个简单的UDP回射服务器/客户端: /**实践: 实现一个基

Linux下的socket编程实践(四)TCP服务端优化和常见函数

并发下的僵尸进程处理 只有一个进程连接的时候,我们可以使用以下两种方法处理僵尸进程: 1)通过忽略SIGCHLD信号,避免僵尸进程 在server端代码中添加 signal(SIGCHLD, SIG_IGN); 2)通过wait/waitpid方法,解决僵尸进程 signal(SIGCHLD,onSignalCatch); void onSignalCatch(int signalNumber) { wait(NULL); } 那么如果是多进程状态下多个客户端同时关闭呢? 我们可以用下面的客户端

Linux下的socket编程实践(四)TCP的粘包问题和常用解决方案

TCP粘包问题的产生 由于TCP协议是基于字节流并且无边界的传输协议, 因此很有可能产生粘包问题.此外,发送方引起的粘包是由TCP协议本身造成的,TCP为提高传输效率,发送方往往要收集到足够多的数据后才发送一个TCP段.若连续几次需要send的数据都很少,通常TCP会根据优化算法把这些数据合成一个TCP段后一次发送出去,但是接收方并不知道要一次接收多少字节的数据,这样接收方就收到了粘包数据.具体可以见下图: 假设主机A send了两条消息M1和M2 各10k 给主机B,由于主机B一次提取的字节数

Linux下的socket编程实践(三)端口复用和 P2P多进程服务器

Socket端口复用 先说为什么要使用socket端口复用?如果你遇到过这样的问题:server程序重启之后,无法连接,需要过一段时间才能连接上? 1.一个监听(listen)server已经启动 2.当有client有连接请求的时候,server产生一个子进程去处理该client的事物. 3.server主进程终止了,但是子进程还在占用该连接处理client的事情.虽然子进程终止了,但是由于子进程没有终止,该socket的引用计数不会为0,所以该socket不会被关闭. 4.server程序重

Linux下的socket编程实践(一) 网络基本知识以及 TCP/IP简述

ISO/OSI七层参考模型 1.物理层:主要定义物理设备标准,如网线的接口类型.光纤的接口类型.各种传输介质的传输速率等.它的主要作用是传输比特流(就是由1.0转化为电流强弱来进行传输,到达目的地后再转化为1.0,也就是我们常说的数模转换与模数转换).这一层的数据叫做比特.(标志:RJ-45) 2.数据链路层:定义了如何让格式化数据以进行传输,以及如何让控制对物理介质的访问.这一层通常还提供错误检测和纠正,以确保数据的可靠传输,交换机属于本层. 3.网络层:在位于不同地理位置的网络中的两个主机系

Socket编程实践(11) --Select I/O复用

Select函数 Man-Page /* According to POSIX.1-2001 */ #include <sys/select.h> /* According to earlier standards */ #include <sys/time.h> #include <sys/types.h> #include <unistd.h> int select(int nfds, fd_set *readfds, fd_set *writefds,

Socket编程实践(12) --select实现超时I/O API[比较难于理解/代码较多]

read_timeout函数封装 //读超时函数,但不包含读操作 int read_timeout(int fd, long waitSec) { int returnValue = 0; if (waitSec > 0) { fd_set readSet; FD_ZERO(&readSet); //清零 FD_SET(fd,&readSet); //添加 struct timeval waitTime; waitTime.tv_sec = waitSec; waitTime.tv_

Linux下的socket编程

网络通信编程即编写通过计算机与其他程序之间进行通讯的程序,相互通信的程序中一方可以称为客户端程序,另一方称为服务程序,应用系统提供Socket编程接口可以编写自己的网络程序. 一  通过TCP/IP协议进行传输 TCP:为应用程序提供可靠的通信连接.适合一次传输大批的数据情况.并使用于要求得到的响应程序. UDP:提供无线连接通信,且对传送包进行可靠性保证.适合一次传输少量的数据,可靠性则由应用层来负责. 二  Socket套接字 网络通信编程通过socket接口来进行的.socket接口是TC