网络知识 娱乐 LinuxC/C++ 实现百万并发服务器

LinuxC/C++ 实现百万并发服务器

1. 准备

首先要准备四台虚拟机,一台用作服务器,另外三台用作客户端.

  • Server: 4G内存、2核CPU
  • Client: 2G内存、1核CPU

2. code

服务端

#include <stdio.h>n#include <string.h>n#include <stdlib.h>nn#include <netinet/tcp.h>n#include <arpa/inet.h>n#include <pthread.h>nn#include <errno.h>n#include <fcntl.h>nn#include <sys/socket.h>n#include <sys/epoll.h>nn#define BUFFER_LENGTHtt1024n#define EPOLL_SIZEttt1024nn#define MAX_PORT 100nnint islistenfd(int fd, int *fds) {n int i = 0;n for (i = 0; i < MAX_PORT; i++) {n if (fd == *(fds + i)) {n return fd;n }n }n return 0;n}nnint main(int argc,char* argv[]) {n if (argc < 2) {nttprintf("Parm Errorn");nttreturn -1;nt}nn // 从这个端口开始ntint port = atoi(argv[1]);n int sockfds[MAX_PORT] = {0}; // listen fdn int epfd = epoll_create(1);n struct epoll_event events[EPOLL_SIZE] = {0};nn int i = 0;n for (i = 0; i < MAX_PORT; i++) {n int sockfd = socket(AF_INET, SOCK_STREAM, 0);nn struct sockaddr_in addr;n memset(&addr, 0, sizeof(struct sockaddr_in));n addr.sin_family = AF_INET;n addr.sin_port = htons(port + i); // 从8888到8987一共100个端口n addr.sin_addr.s_addr = INADDR_ANY;nn if (bind(sockfd, (struct sockaddr*)&addr, sizeof(struct sockaddr_in)) < 0) {n perror("bind");n return 2;n }nn if (listen(sockfd, 5) < 0) {n perror("listen");n return 3;n }nn // 创建的连接加入到epoll里面n struct epoll_event ev;n ev.events = EPOLLIN;n ev.data.fd = sockfd;n // 把socket交给epoll去管理n epoll_ctl(epfd, EPOLL_CTL_ADD, sockfd, &ev);nn sockfds[i] = sockfd;n }nn // // 创建一个epolln // int epfd = epoll_create(1);n // struct epoll_event events[EPOLL_SIZE] = {0};nn // // 储存epoll监听的IO事件n // struct epoll_event ev;n // ev.events = EPOLLIN;n // ev.data.fd = sockfd;n // // 把socket交给epoll去管理n // epoll_ctl(epfd, EPOLL_CTL_ADD, sockfd, &ev);nn while (1) {n // epfd: 指定哪一个epolln // events: 指定监听事件的容器n // EPOLL_SIZE: 数组大小n // -1: 表示只要没有IO事件就不去处理,0表示有时间就去处理n // 返回处理的IO事件的个数n int nready = epoll_wait(epfd, events, EPOLL_SIZE, -1);n if (nready == -1) {n continue;n }nn // 依次处理IO事件n // events容器中会储存两种fd,一种是sockfd,一种是clientfdn int i = 0;n for (i = 0; i < nready; i++) {nn // 判断触发IO事件的是否是sockfdn int sockfd = islistenfd(events[i].data.fd, sockfds);n if (sockfd) {n struct sockaddr_in client_addr;nttttmemset(&client_addr, 0, sizeof(struct sockaddr_in));nttttsocklen_t client_len = sizeof(client_addr);nn // 建立连接之后得到新的clientfdnttttint clientfd = accept(sockfd, (struct sockaddr*)&client_addr, &client_len);nn // 设置为非阻塞IOn fcntl(clientfd, F_SETFL, O_NONBLOCK);nn int reuse = 1;n // 设置socket属性 设置SO_REUSEADDR socket关闭之后并不会立即收回,而是要经历一个TIME_WAIT的阶段n setsockopt(clientfd, SOL_SOCKET, SO_REUSEADDR, (char *)&reuse, sizeof(reuse));n // 确定事件的触发方式n // 水平触发(有数据就触发,可能会触发多次)和边沿触发(检测到状态的改变才会触发)n // 这里使用边沿触发n struct epoll_event ev;nttttev.events = EPOLLIN | EPOLLET;nttttev.data.fd = clientfd;n // clientfd交给epoll管理nttttepoll_ctl(epfd, EPOLL_CTL_ADD, clientfd, &ev);n } else {n // 触发的是clientfd,要进行读写操作n int clientfd = events[i].data.fd;nnttttchar buffer[BUFFER_LENGTH] = { 0 };nttttint len = recv(clientfd, buffer, BUFFER_LENGTH, 0);nttttif (len < 0) {ntttttclose(clientfd);n struct epoll_event ev;ntttttev.events = EPOLLIN | EPOLLET;ntttttev.data.fd = clientfd;n // 及时清除IOntttttepoll_ctl(epfd, EPOLL_CTL_DEL, clientfd, &ev);ntttt}nttttelse if (len == 0) {ntttttclose(clientfd);nn struct epoll_event ev;ntttttev.events = EPOLLIN | EPOLLET;ntttttev.data.fd = clientfd;n // 及时清除IOntttttepoll_ctl(epfd, EPOLL_CTL_DEL, clientfd, &ev);ntttt}nttttelse {ntttttprintf("Recv: %s, %d byte(s)n", buffer, len);ntttt}n }n }nn }n return 0;n}nn

客户端

#include <stdio.h>n#include <string.h>n#include <stdlib.h>nn#include <sys/types.h>n#include <sys/socket.h>n#include <sys/epoll.h>n#include <sys/time.h>n#include <errno.h>n#include <netinet/tcp.h>n#include <arpa/inet.h>n#include <netdb.h>n#include <fcntl.h>nnn#define MAX_BUFFERtt128n#define MAX_EPOLLSIZEt(384*1024)n#define MAX_PORTtt100nn#define TIME_SUB_MS(tv1, tv2) ((tv1.tv_sec - tv2.tv_sec) * 1000 + (tv1.tv_usec - tv2.tv_usec) / 1000)nnint isContinue = 0;nnstatic int ntySetNonblock(int fd) {ntint flags;nntflags = fcntl(fd, F_GETFL, 0);ntif (flags < 0) return flags;ntflags |= O_NONBLOCK;ntif (fcntl(fd, F_SETFL, flags) < 0) return -1;ntreturn 0;n}nnstatic int ntySetReUseAddr(int fd) {ntint reuse = 1;ntreturn setsockopt(fd, SOL_SOCKET, SO_REUSEADDR, (char *)&reuse, sizeof(reuse));n}nnnnint main(int argc, char **argv) {ntif (argc <= 2) {nttprintf("Usage: %s ip portn", argv[0]);nttexit(0);nt}nntconst char *ip = argv[1];ntint port = atoi(argv[2]);ntint connections = 0;ntchar buffer[128] = {0};ntint i = 0, index = 0;nntstruct epoll_event events[MAX_EPOLLSIZE];ntntint epoll_fd = epoll_create(MAX_EPOLLSIZE);ntntstrcpy(buffer, " Data From MulClientn");nttntstruct sockaddr_in addr;ntmemset(&addr, 0, sizeof(struct sockaddr_in));ntntaddr.sin_family = AF_INET;ntaddr.sin_addr.s_addr = inet_addr(ip);nntstruct timeval tv_begin;ntgettimeofday(&tv_begin, NULL);nntwhile (1) {nttif (++index >= MAX_PORT) index = 0;nttnttstruct epoll_event ev;nttint sockfd = 0;nnttif (connections < 340000 && !isContinue) {ntttsockfd = socket(AF_INET, SOCK_STREAM, 0);ntttif (sockfd == -1) {nttttperror("socket");nttttgoto err;nttt}nnttt//ntySetReUseAddr(sockfd);ntttaddr.sin_port = htons(port+index);nntttif (connect(sockfd, (struct sockaddr*)&addr, sizeof(struct sockaddr_in)) < 0) {nttttperror("connect");nttttgoto err;nttt}ntttntySetNonblock(sockfd);ntttntySetReUseAddr(sockfd);nntttsprintf(buffer, "Hello Server: client --> %dn", connections);ntttsend(sockfd, buffer, strlen(buffer), 0);nntttev.data.fd = sockfd;ntttev.events = EPOLLIN | EPOLLOUT;ntttepoll_ctl(epoll_fd, EPOLL_CTL_ADD, sockfd, &ev);nttntttconnections ++;ntt}ntt//connections ++;nttif (connections % 1000 == 999 || connections >= 340000) {ntttstruct timeval tv_cur;ntttmemcpy(&tv_cur, &tv_begin, sizeof(struct timeval));ntttntttgettimeofday(&tv_begin, NULL);nntttint time_used = TIME_SUB_MS(tv_begin, tv_cur);ntttprintf("connections: %d, sockfd:%d, time_used:%dn", connections, sockfd, time_used);nntttint nfds = epoll_wait(epoll_fd, events, connections, 100);ntttfor (i = 0;i < nfds;i ++) {nttttint clientfd = events[i].data.fd;nnttttif (events[i].events & EPOLLOUT) {ntttttsprintf(buffer, "data from %dn", clientfd);ntttttsend(sockfd, buffer, strlen(buffer), 0);ntttt} else if (events[i].events & EPOLLIN) {ntttttchar rBuffer[MAX_BUFFER] = {0};ttttntttttssize_t length = recv(sockfd, rBuffer, MAX_BUFFER, 0);ntttttif (length > 0) {nttttttprintf(" RecvBuffer:%sn", rBuffer);nnttttttif (!strcmp(rBuffer, "quit")) {ntttttttisContinue = 0;ntttttt}nttttttnttttt} else if (length == 0) {nttttttprintf(" Disconnect clientfd:%dn", clientfd);nttttttconnections --;nttttttclose(clientfd);nttttt} else {nttttttif (errno == EINTR) continue;nnttttttprintf(" Error clientfd:%d, errno:%dn", clientfd, errno);nttttttclose(clientfd);nttttt}ntttt} else {ntttttprintf(" clientfd:%d, errno:%dn", clientfd, errno);ntttttclose(clientfd);ntttt}nttt}ntt}nnttusleep(1 * 1000);nt}nntreturn 0;nnerr:ntprintf("error : %sn", strerror(errno));ntreturn 0;ntn}nn

LinuxC++后台服务器开发架构师免费学习地址:C/C++Linux服务器开发/后台架构师【零声教育】-学习视频教程-腾讯课堂

【文章福利】:小编整理了一些个人觉得比较好的学习书籍、视频资料共享在qun文件里面,有需要的可以自行添加哦!~点击832218493加入(需要自取)

LinuxC/C++ 实现百万并发服务器

3. 问题汇总

3.1 一个进程默认可以打开的文件fd数量

在Linux中,文件系统默认允许一个进程能打开的最大fd个数为1024.可以使用ulimit -a命令来查看.

当超过这个值就会报错:connection_refuesed.

为了实现百万级并发,我们可以修改这个值.

1. 临时修改

临时修改可以通过以下命令:

ulimit -n 1048576

缺点是重启服务器之后,又会变回默认值.

2. 永久修改

修改vim /etc/security/limits.conf配置文件:

在文件末尾添加:

* hard nofile 1048576n* soft nofile 1048576

然后使用reboot重启即可.

3.2 客户端端口耗尽

在使用send(sockfd, buffer, strlen(buffer, 0))和recv(clientid, buffer, BUFFER_LENGTH, 0)函数的时候,客户端在send的时候,是如何通过sockfd来确立本机端口和目的端口的呢?以及服务端在recv的时候,是如何通过发送过来的本机端口、目的端口等等信息来找到clientfd的呢?

其实每个sockfd都会对应着一个五元组:

五元组(源IP地址, 源端口, 目的IP地址, 目的端口, 运输层协议)

这个五元组与sockfd是一对一的关系.

端口耗尽

当源IP地址, 目的IP地址, 目的端口, 运输层协议确定的时候,由于Linux能开放的最大端口数为65535,所以客户端的端口很快就会被耗尽.

这个时候就会报错:Cannot assign requested address.

增加服务端端口

这个时候我们可以多开几个服务端的端口,在实现中,我们在服务端开放了100个端口,三个客户端依次向这100个端口发送数据,可以实现百万级别的并发连接.

3.3 防火墙可以对外打开的最大连接数

使用cat /proc/sys/net/netfilter/nf_conntrack_max可以查看防火墙允许对外开放的最大连接数:

LinuxC/C++ 实现百万并发服务器

编辑切换为居中

添加图片注释,不超过 140 字(可选)

65535个连接,所以需要修改内核参数:

# 编辑内核参数配置文件nvim /etc/sysctl.confnn# 在配置文件中把net.nf_conntrack_max参数修改为1048576nnet.nf_conntrack_max = 1048576nn# 重新加载配置文件nsysctl -pnn

3.4 允许所有进程一共可以打开的最大文件数

可以查看file-max属性:

cat /proc/sys/fs/file-maxLinuxC/C++ 实现百万并发服务器

编辑切换为居中

添加图片注释,不超过 140 字(可选)

同样可以在内核参数里面进行修改:

# 编辑内核参数配置文件nvim /etc/sysctl.confnn# 修改fs.file-max参数nfs.file-max = 1048576nn# 重新加载配置文件nsysctl -pnn

如果出现问题:

LinuxC/C++ 实现百万并发服务器

编辑

添加图片注释,不超过 140 字(可选)


运行以下命令:

modprobe ip_conntracknn# 再次重新加载nsysctl -p

3.5 服务器内存不够

当连接数达到一定的数量后,服务器的内存会达到100%,这个时候服务器会将大量连接客户端的进程停止,进行内存回收,这个时候CPU的利用率会飙升到100%(一般不被允许,CPU利用率一般不能超过80%).

这个时候需要调整一下TCP/IP协议栈:

# 编辑内核参数配置文件nvim /etc/sysctl.confnn# 添加以下内容nnet.ipv4.tcp_mem = 252144 524288 786432t# TCP全局缓存,单位为内存页(4K),524288 * 4k 约等于 2Gnnet.ipv4.tcp_wmem = 1024 1024 2048 # tcp接受缓存(用于tcp接受滑动窗口)的最小值,默认值和最大值nnet.ipv4.tcp_rmem = 1024 1024 2048 # tcp发送缓存(用于tcp发送滑动窗口)的最小值,默认值和最大值nn# 总缓存 = (每个fd发送缓存 + 每个fd接收缓存) * fd数量n# 1024byte * 2 * 100w 约等于 2Gnn