百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

LinuxC/C++ 实现百万并发服务器(百万级并发服务器架构)

ahcoder 2025-06-15 14:00 3 浏览

1. 准备

首先要准备四台虚拟机,一台用作服务器,另外三台用作客户端.

  • Server: 4G内存、2核CPU
  • Client: 2G内存、1核CPU

2. code

服务端

#include <stdio.h>
#include <string.h>
#include <stdlib.h>

#include <netinet/tcp.h>
#include <arpa/inet.h>
#include <pthread.h>

#include <errno.h>
#include <fcntl.h>

#include <sys/socket.h>
#include <sys/epoll.h>

#define BUFFER_LENGTH		1024
#define EPOLL_SIZE			1024

#define MAX_PORT            100

int islistenfd(int fd, int *fds) {
    int i = 0;
    for (i = 0; i < MAX_PORT; i++) {
        if (fd == *(fds + i)) {
            return fd;
        }
    }
    return 0;
}

int main(int argc,char* argv[]) {
    if (argc < 2) {
		printf("Parm Error\n");
		return -1;
	}

    // 从这个端口开始
	int port = atoi(argv[1]);
    int sockfds[MAX_PORT] = {0};    // listen fd
    int epfd = epoll_create(1);
    struct epoll_event events[EPOLL_SIZE] = {0};

    int i = 0;
    for (i = 0; i < MAX_PORT; i++) {
        int sockfd = socket(AF_INET, SOCK_STREAM, 0);

        struct sockaddr_in addr;
        memset(&addr, 0, sizeof(struct sockaddr_in));
        addr.sin_family = AF_INET;
        addr.sin_port = htons(port + i);    // 从8888到8987一共100个端口
        addr.sin_addr.s_addr = INADDR_ANY;

        if (bind(sockfd, (struct sockaddr*)&addr, sizeof(struct sockaddr_in)) < 0) {
            perror("bind");
            return 2;
        }

        if (listen(sockfd, 5) < 0) {
            perror("listen");
            return 3;
        }

        // 创建的连接加入到epoll里面
        struct epoll_event ev;
        ev.events = EPOLLIN;
        ev.data.fd = sockfd;
        // 把socket交给epoll去管理
        epoll_ctl(epfd, EPOLL_CTL_ADD, sockfd, &ev);

        sockfds[i] = sockfd;
    }

    // // 创建一个epoll
    // int epfd = epoll_create(1);
    // struct epoll_event events[EPOLL_SIZE] = {0};

    // // 储存epoll监听的IO事件
    // struct epoll_event ev;
    // ev.events = EPOLLIN;
    // ev.data.fd = sockfd;
    // // 把socket交给epoll去管理
    // epoll_ctl(epfd, EPOLL_CTL_ADD, sockfd, &ev);

    while (1) {
        // epfd: 指定哪一个epoll
        // events: 指定监听事件的容器
        // EPOLL_SIZE: 数组大小
        // -1: 表示只要没有IO事件就不去处理,0表示有时间就去处理
        // 返回处理的IO事件的个数
        int nready = epoll_wait(epfd, events, EPOLL_SIZE, -1);
        if (nready == -1) {
            continue;
        }

        // 依次处理IO事件
        // events容器中会储存两种fd,一种是sockfd,一种是clientfd
        int i = 0;
        for (i = 0; i < nready; i++) {

            // 判断触发IO事件的是否是sockfd
            int sockfd = islistenfd(events[i].data.fd, sockfds);
            if (sockfd) {
                struct sockaddr_in client_addr;
				memset(&client_addr, 0, sizeof(struct sockaddr_in));
				socklen_t client_len = sizeof(client_addr);

                // 建立连接之后得到新的clientfd
				int clientfd = accept(sockfd, (struct sockaddr*)&client_addr, &client_len);

                // 设置为非阻塞IO
                fcntl(clientfd, F_SETFL, O_NONBLOCK);

                int reuse = 1;
                // 设置socket属性 设置SO_REUSEADDR socket关闭之后并不会立即收回,而是要经历一个TIME_WAIT的阶段
                setsockopt(clientfd, SOL_SOCKET, SO_REUSEADDR, (char *)&reuse, sizeof(reuse));
                // 确定事件的触发方式
                // 水平触发(有数据就触发,可能会触发多次)和边沿触发(检测到状态的改变才会触发)
                // 这里使用边沿触发
                struct epoll_event ev;
				ev.events = EPOLLIN | EPOLLET;
				ev.data.fd = clientfd;
                // clientfd交给epoll管理
				epoll_ctl(epfd, EPOLL_CTL_ADD, clientfd, &ev);
            } else {
                // 触发的是clientfd,要进行读写操作
                int clientfd = events[i].data.fd;

				char buffer[BUFFER_LENGTH] = { 0 };
				int len = recv(clientfd, buffer, BUFFER_LENGTH, 0);
				if (len < 0) {
					close(clientfd);
                    struct epoll_event ev;
					ev.events = EPOLLIN | EPOLLET;
					ev.data.fd = clientfd;
                    // 及时清除IO
					epoll_ctl(epfd, EPOLL_CTL_DEL, clientfd, &ev);
				}
				else if (len == 0) {
					close(clientfd);

                    struct epoll_event ev;
					ev.events = EPOLLIN | EPOLLET;
					ev.data.fd = clientfd;
                    // 及时清除IO
					epoll_ctl(epfd, EPOLL_CTL_DEL, clientfd, &ev);
				}
				else {
					printf("Recv: %s, %d byte(s)\n", buffer, len);
				}
            }
        }

    }
    return 0;
}

客户端

#include <stdio.h>
#include <string.h>
#include <stdlib.h>

#include <sys/types.h>
#include <sys/socket.h>
#include <sys/epoll.h>
#include <sys/time.h>
#include <errno.h>
#include <netinet/tcp.h>
#include <arpa/inet.h>
#include <netdb.h>
#include <fcntl.h>


#define MAX_BUFFER		128
#define MAX_EPOLLSIZE	(384*1024)
#define MAX_PORT		100

#define TIME_SUB_MS(tv1, tv2)  ((tv1.tv_sec - tv2.tv_sec) * 1000 + (tv1.tv_usec - tv2.tv_usec) / 1000)

int isContinue = 0;

static int ntySetNonblock(int fd) {
	int flags;

	flags = fcntl(fd, F_GETFL, 0);
	if (flags < 0) return flags;
	flags |= O_NONBLOCK;
	if (fcntl(fd, F_SETFL, flags) < 0) return -1;
	return 0;
}

static int ntySetReUseAddr(int fd) {
	int reuse = 1;
	return setsockopt(fd, SOL_SOCKET, SO_REUSEADDR, (char *)&reuse, sizeof(reuse));
}



int main(int argc, char **argv) {
	if (argc <= 2) {
		printf("Usage: %s ip port\n", argv[0]);
		exit(0);
	}

	const char *ip = argv[1];
	int port = atoi(argv[2]);
	int connections = 0;
	char buffer[128] = {0};
	int i = 0, index = 0;

	struct epoll_event events[MAX_EPOLLSIZE];
	
	int epoll_fd = epoll_create(MAX_EPOLLSIZE);
	
	strcpy(buffer, " Data From MulClient\n");
		
	struct sockaddr_in addr;
	memset(&addr, 0, sizeof(struct sockaddr_in));
	
	addr.sin_family = AF_INET;
	addr.sin_addr.s_addr = inet_addr(ip);

	struct timeval tv_begin;
	gettimeofday(&tv_begin, NULL);

	while (1) {
		if (++index >= MAX_PORT) index = 0;
		
		struct epoll_event ev;
		int sockfd = 0;

		if (connections < 340000 && !isContinue) {
			sockfd = socket(AF_INET, SOCK_STREAM, 0);
			if (sockfd == -1) {
				perror("socket");
				goto err;
			}

			//ntySetReUseAddr(sockfd);
			addr.sin_port = htons(port+index);

			if (connect(sockfd, (struct sockaddr*)&addr, sizeof(struct sockaddr_in)) < 0) {
				perror("connect");
				goto err;
			}
			ntySetNonblock(sockfd);
			ntySetReUseAddr(sockfd);

			sprintf(buffer, "Hello Server: client --> %d\n", connections);
			send(sockfd, buffer, strlen(buffer), 0);

			ev.data.fd = sockfd;
			ev.events = EPOLLIN | EPOLLOUT;
			epoll_ctl(epoll_fd, EPOLL_CTL_ADD, sockfd, &ev);
		
			connections ++;
		}
		//connections ++;
		if (connections % 1000 == 999 || connections >= 340000) {
			struct timeval tv_cur;
			memcpy(&tv_cur, &tv_begin, sizeof(struct timeval));
			
			gettimeofday(&tv_begin, NULL);

			int time_used = TIME_SUB_MS(tv_begin, tv_cur);
			printf("connections: %d, sockfd:%d, time_used:%d\n", connections, sockfd, time_used);

			int nfds = epoll_wait(epoll_fd, events, connections, 100);
			for (i = 0;i < nfds;i ++) {
				int clientfd = events[i].data.fd;

				if (events[i].events & EPOLLOUT) {
					sprintf(buffer, "data from %d\n", clientfd);
					send(sockfd, buffer, strlen(buffer), 0);
				} else if (events[i].events & EPOLLIN) {
					char rBuffer[MAX_BUFFER] = {0};				
					ssize_t length = recv(sockfd, rBuffer, MAX_BUFFER, 0);
					if (length > 0) {
						printf(" RecvBuffer:%s\n", rBuffer);

						if (!strcmp(rBuffer, "quit")) {
							isContinue = 0;
						}
						
					} else if (length == 0) {
						printf(" Disconnect clientfd:%d\n", clientfd);
						connections --;
						close(clientfd);
					} else {
						if (errno == EINTR) continue;

						printf(" Error clientfd:%d, errno:%d\n", clientfd, errno);
						close(clientfd);
					}
				} else {
					printf(" clientfd:%d, errno:%d\n", clientfd, errno);
					close(clientfd);
				}
			}
		}

		usleep(1 * 1000);
	}

	return 0;

err:
	printf("error : %s\n", strerror(errno));
	return 0;
	
}

LinuxC++后台服务器开发架构师免费学习地址:C/C++Linux服务器开发/后台架构师【零声教育】-学习视频教程-腾讯课堂

【文章福利】:小编整理了一些个人觉得比较好的学习书籍、视频资料共享在qun文件里面,有需要的可以自行添加哦!~点击832218493加入(需要自取)

3. 问题汇总

3.1 一个进程默认可以打开的文件fd数量

在Linux中,文件系统默认允许一个进程能打开的最大fd个数为1024.可以使用ulimit -a命令来查看.

当超过这个值就会报错:connection_refuesed.

为了实现百万级并发,我们可以修改这个值.

1. 临时修改

临时修改可以通过以下命令:

ulimit -n 1048576

缺点是重启服务器之后,又会变回默认值.

2. 永久修改

修改vim /etc/security/limits.conf配置文件:

在文件末尾添加:

*    hard    nofile    1048576
*    soft    nofile    1048576

然后使用reboot重启即可.

3.2 客户端端口耗尽

在使用send(sockfd, buffer, strlen(buffer, 0))和recv(clientid, buffer, BUFFER_LENGTH, 0)函数的时候,客户端在send的时候,是如何通过sockfd来确立本机端口和目的端口的呢?以及服务端在recv的时候,是如何通过发送过来的本机端口、目的端口等等信息来找到clientfd的呢?

其实每个sockfd都会对应着一个五元组:

五元组(源IP地址, 源端口, 目的IP地址, 目的端口, 运输层协议)

这个五元组与sockfd是一对一的关系.

端口耗尽

当源IP地址, 目的IP地址, 目的端口, 运输层协议确定的时候,由于Linux能开放的最大端口数为65535,所以客户端的端口很快就会被耗尽.

这个时候就会报错:Cannot assign requested address.

增加服务端端口

这个时候我们可以多开几个服务端的端口,在实现中,我们在服务端开放了100个端口,三个客户端依次向这100个端口发送数据,可以实现百万级别的并发连接.

3.3 防火墙可以对外打开的最大连接数

使用cat
/proc/sys/net/netfilter/nf_conntrack_max
可以查看防火墙允许对外开放的最大连接数:

编辑切换为居中

添加图片注释,不超过 140 字(可选)

65535个连接,所以需要修改内核参数:

# 编辑内核参数配置文件
vim /etc/sysctl.conf

# 在配置文件中把net.nf_conntrack_max参数修改为1048576
net.nf_conntrack_max = 1048576

# 重新加载配置文件
sysctl -p

3.4 允许所有进程一共可以打开的最大文件数

可以查看file-max属性:

cat /proc/sys/fs/file-max

编辑切换为居中

添加图片注释,不超过 140 字(可选)

同样可以在内核参数里面进行修改:

# 编辑内核参数配置文件
vim /etc/sysctl.conf

# 修改fs.file-max参数
fs.file-max = 1048576

# 重新加载配置文件
sysctl -p

如果出现问题:

编辑

添加图片注释,不超过 140 字(可选)


运行以下命令:

modprobe ip_conntrack

# 再次重新加载
sysctl -p

3.5 服务器内存不够

当连接数达到一定的数量后,服务器的内存会达到100%,这个时候服务器会将大量连接客户端的进程停止,进行内存回收,这个时候CPU的利用率会飙升到100%(一般不被允许,CPU利用率一般不能超过80%).

这个时候需要调整一下TCP/IP协议栈:

# 编辑内核参数配置文件
vim /etc/sysctl.conf

# 添加以下内容
net.ipv4.tcp_mem = 252144 524288 786432	# TCP全局缓存,单位为内存页(4K),524288 * 4k 约等于 2G
net.ipv4.tcp_wmem = 1024 1024 2048 # tcp接受缓存(用于tcp接受滑动窗口)的最小值,默认值和最大值
net.ipv4.tcp_rmem = 1024 1024 2048 # tcp发送缓存(用于tcp发送滑动窗口)的最小值,默认值和最大值

# 总缓存 = (每个fd发送缓存 + 每个fd接收缓存) * fd数量
# 1024byte * 2 * 100w 约等于 2G

相关推荐

KaOS 2025.05版本发布:全面拥抱Qt6,彻底告别Qt5

KaOSLinux2025.05版本重磅发布:全面拥抱Qt6,开启KDE生态新篇章继2025.03版本发布两个月后,专注于KDE桌面环境、采用XFS文件系统的滚动发行版Li...

基于FIMC接口的CMOS摄像头驱动分析与设计

摘要:目前的嵌入式系统中,USB摄像头使用比较普遍,但其应用会受到传输速度的限制。本文采用一款高速CMOS摄像头,其驱动利用S3C6410内置的FIMC接口技术,采用DMA和ping-pong缓冲...

没错是微软 推出基于Linux的交换机系统

2015-09-2205:59:59作者:郑伟你没看错,为了提升自身Azure云数据中心内网络设备的兼容性及开放性,微软也开始推出基于Linux的网络交换机系统了。这个被称为AzureCloud...

Linus Torvalds 宣布首个 Linux 内核 6.16 候选版本

Linux内核负责人兼创始人LinusTorvalds宣布关闭合并窗口,该窗口用于将主要新功能添加到内核中,并开始发布Linux6.16候选版本,从候选版本1(Linux6.16-r...

Linux内核漏洞将影响Haswell架构服务器

在infoq网站上,GilTene最近报告一个十分重要,但并不为人知Linux内核补丁,特别对采用Haswell架构的Linux系统用户和管理员应该特别关注。报告提醒RedHat发行版的用户(包括...

关于Linux性能调优中网络I/O的一些笔记

写在前面和小伙伴分享一些Linux网络优化的笔记,内容很浅,可以用作入门博文内容结合《Linux性能优化》读书笔记整理涉及内容包括常用的优化工具(mii-tool,ethtool,ifconfig,i...

国产操作系统- Veket Linux(国产操作系统之光银河麒麟阅读理解)

VeketLinux是一个随身的可装在U盘的Linux操作系统。主要面向桌面用户。它的设计重点是提供简单易用且稳定的操作系统,同时保持更新和开发。它具有强大的功能集和广泛的用户基础,可满足...

AlmaLinux 9.6发布:升级工具、初步支持IBM Power虚拟化技术

IT之家5月21日消息,科技媒体linuxiac昨日(5月20日)发布博文,报道称代号为SageMargay的AlmaLinux9.6发行版已上线,距上一版本9.5发...

跟老韩学Linux运维架构师系列,vim与view的基本使用

下面是vim和view的10个实例:用vim打开一个新文件:vimnewfile.txt这个命令将会在vim编辑器中打开一个新文件。在vim中移动光标:使用方向键或h、j、k、l键来移动光标。在v...

malloc底层原理剖析——ptmalloc内存池

malloc底层为什么是内存池malloc大家都用过,其是库函数。我们都知道库函数在不同的操作系统中其实执行的是系统调用,那么malloc在Linux上执行的是哪个系统调用呢?brk()和mmap()...

Zen 6架构首秀Linux,AMD加速下一代处理器布局

IT之家5月15日消息,科技媒体Phoronix昨日(5月14日)发布博文,报道称AMD已经开始为下一代“Zen6”处理器做准备,已为该构架向Linux内核提交了首个补丁,...

为何越来越多企业转向安卓/Linux工业平板电脑?答案在这里

在工业领域,设备的稳定性至关重要,尤其是工业平板电脑,常年运行在高温、粉尘、潮湿等复杂环境下,一旦系统崩溃或者卡顿,可能会影响整个生产流程。那么,为什么越来越多的企业选择安卓/Linux工业平板电脑,...

从3ms到0.8ms:ARM+Linux如何重塑工业控制实时性标杆

在智能制造领域,产线控制系统对实时性的要求越来越高。根据行业调研数据,超过65%的工业现场出现过因系统响应延迟导致的故障停机,平均每次停机造成的直接损失高达2-8万元。传统x86架构搭配Windows...

看Linux如何&quot;挖坑种树&quot;

写在前面,有人看我的Linux文章说技术难度不深,笔者不是不想写深,笔者是觉得Linux难就难在入门,入门之后你就知道如何上网查询你所要要解决的Linux需求。如果你已入门,此文已对你无用,请略过此...

AlmaLinux 9.6 发布,新增功能亮点纷呈!

距离上一版本AlmaLinux9.5发布六个月后,基于5.14内核的AlmaLinux正式宣布其企业级Linux发行版的9.x系列第六个更新——AlmaLinux9.6(Sag...