(1) 流

    • 可以进行I/O操作的内核对象
    • 文件、管道、套接字……
    • 流的入口:文件描述符(fd)

    (2) I/O操作

    当一个流中, 在没有数据read的时候,或者说在流中已经写满了数据,再write,我们的IO操作就会出现一种现象,就是阻塞现象,如下图。

    1、流?I/O操作?阻塞?epoll? - 图2


    (3) 阻塞

    阻塞场景: 你有一份快递,家里有个座机,快递到了主动给你打电话,期间你可以休息。 1、流?I/O操作?阻塞?epoll? - 图4

    非阻塞,忙轮询场景: 你性子比较急躁, 每分钟就要打电话询问快递小哥一次, 到底有没有到,快递员接你电话要停止运输,这样很耽误快递小哥的运输速度。

    • 阻塞等待

    空出大脑可以安心睡觉, 不影响快递员工作(不占用CPU宝贵的时间片)。

    • 非阻塞,忙轮询

    浪费时间,浪费电话费,占用快递员时间(占用CPU,系统资源)。

    很明显,阻塞等待这种方式,对于通信上是有明显优势的, 那么它有哪些弊端呢?

    二、解决阻塞死等待的办法

    阻塞死等待的缺点

    ​ 也就是同一时刻,你只能被动的处理一个快递员的签收业务,其他快递员打电话打不进来,只能干瞪眼等待。那么解决这个问题,家里多买N个座机, 但是依然是你一个人接,也处理不过来,需要用影分身术创建都个自己来接电话(采用多线程或者多进程)来处理。


    那么如果我们不借助影分身的方式(多线程/多进程),该如何解决阻塞死等待的方法呢?

    办法一:非阻塞、忙轮询

    1、流?I/O操作?阻塞?epoll? - 图6

    非阻塞忙轮询的方式,可以让用户分别与每个快递员取得联系,宏观上来看,是同时可以与多个快递员沟通(并发效果)、 但是快递员在于用户沟通时耽误前进的速度(浪费CPU)。


    办法二:select

    我们可以开设一个代收网点,让快递员全部送到代收点。这个网店管理员叫select。这样我们就可以在家休息了,麻烦的事交给select就好了。当有快递的时候,select负责给我们打电话,期间在家休息睡觉就好了。

    但select 代收员比较懒,她记不住快递员的单号,还有快递货物的数量。她只会告诉你快递到了,但是是谁到的,你需要挨个快递员问一遍。

    1. select(流[]); //阻塞
    2. //有消息抵达
    3. for i in 流[] {
    4. if i has 数据 {
    5. 或者 其他处理
    6. }
    7. }
    8. }

    办法三:epoll

    1、流?I/O操作?阻塞?epoll? - 图8

    epoll的服务态度要比select好很多,在通知我们的时候,不仅告诉我们有几个快递到了,还分别告诉我们是谁谁谁。我们只需要按照epoll给的答复,来询问快递员取快递即可。

    1. while true {
    2. 可处理的流[] = epoll_wait(epoll_fd); //阻塞
    3. //有消息抵达,全部放在 “可处理的流[]”中
    4. for i in 可处理的流[] {
    5. 或者 其他处理
    6. }
    7. }

    • 与select,poll一样,对I/O多路复用的技术
    • 只关心“活跃”的链接,无需遍历全部描述符集合
    • 能够处理大量的链接请求(系统可以打开的文件数目)

    四、epoll的API

    (1) 创建EPOLL

    1. /**
    2. * @param size 告诉内核监听的数目
    3. *
    4. * @returns 返回一个epoll句柄(即一个文件描述符)
    5. */
    6. int epoll_create(int size);

    使用

    创建一个epoll句柄,实际上是在内核空间,建立一个root根节点,这个根节点的关系与epfd相对应。

    (2) 控制EPOLL

    1. /**
    2. * @param epfd 用epoll_create所创建的epoll句柄
    3. * @param op 表示对epoll监控描述符控制的动作
    4. *
    5. * EPOLL_CTL_ADD(注册新的fd到epfd)
    6. * EPOLL_CTL_MOD(修改已经注册的fd的监听事件)
    7. * EPOLL_CTL_DEL(epfd删除一个fd)
    8. *
    9. * @param fd 需要监听的文件描述符
    10. * @param event 告诉内核需要监听的事件
    11. *
    12. * @returns 成功返回0,失败返回-1, errno查看错误信息
    13. */
    14. int epoll_ctl(int epfd, int op, int fd,
    15. struct epoll_event *event);
    16. struct epoll_event {
    17. __uint32_t events; /* epoll 事件 */
    18. epoll_data_t data; /* 用户传递的数据 */
    19. }
    20. /*
    21. * events : {EPOLLIN, EPOLLOUT, EPOLLPRI,
    22. EPOLLHUP, EPOLLET, EPOLLONESHOT}
    23. */
    24. typedef union epoll_data {
    25. void *ptr;
    26. int fd;
    27. uint32_t u32;
    28. uint64_t u64;
    29. } epoll_data_t;
    1. struct epoll_event new_event;
    2. new_event.events = EPOLLIN | EPOLLOUT;
    3. new_event.data.fd = 5;
    4. epoll_ctl(epfd, EPOLL_CTL_ADD, 5, &new_event);

    ​ 创建一个用户态的事件,绑定到某个fd上,然后添加到内核中的epoll红黑树中。

    1、流?I/O操作?阻塞?epoll? - 图10

    (3) 等待EPOLL

    1. /**
    2. *
    3. * @param epfd 用epoll_create所创建的epoll句柄
    4. * @param event 从内核得到的事件集合
    5. * @param maxevents 告知内核这个events有多大,
    6. * 注意: 值 不能大于创建epoll_create()时的size.
    7. * @param timeout 超时时间
    8. * -1: 永久阻塞
    9. * 0: 立即返回,非阻塞
    10. * >0: 指定微秒
    11. *
    12. * @returns 成功: 有多少文件描述符就绪,时间到时返回0
    13. * 失败: -1, errno 查看错误
    14. */
    15. int epoll_wait(int epfd, struct epoll_event *event,
    16. int maxevents, int timeout);

    使用

    epoll_wait是一个阻塞的状态,如果内核检测到IO的读写响应,会抛给上层的epoll_wait, 返回给用户态一个已经触发的事件队列,同时阻塞返回。开发者可以从队列中取出事件来处理,其中事件里就有绑定的对应fd是哪个(之前添加epoll事件的时候已经绑定)。

    (4) 使用epoll编程主流程骨架

    1. int epfd = epoll_crete(1000);
    2. //将 listen_fd 添加进 epoll 中
    3. epoll_ctl(epfd, EPOLL_CTL_ADD, listen_fd,&listen_event);
    4. while (1) {
    5. //阻塞等待 epoll 中 的fd 触发
    6. int active_cnt = epoll_wait(epfd, events, 1000, -1);
    7. for (i = 0 ; i < active_cnt; i++) {
    8. if (evnets[i].data.fd == listen_fd) {
    9. //accept. 并且将新accept 的fd 加进epoll中.
    10. }
    11. else if (events[i].events & EPOLLIN) {
    12. //对此fd 进行读操作
    13. }
    14. else if (events[i].events & EPOLLOUT) {
    15. //对此fd 进行写操作
    16. }
    17. }

    (1) 水平触发

    1、流?I/O操作?阻塞?epoll? - 图12

    水平触发的主要特点是,如果用户在监听epoll事件,当内核有事件的时候,会拷贝给用户态事件,但是如果用户只处理了一次,那么剩下没有处理的会在下一次epoll_wait再次返回该事件

    这样如果用户永远不处理这个事件,就导致每次都会有该事件从内核到用户的拷贝,耗费性能,但是水平触发相对安全,最起码事件不会丢掉,除非用户处理完毕。

    (2) 边缘触发

    1、流?I/O操作?阻塞?epoll? - 图14

    边缘触发,相对跟水平触发相反,当内核有事件到达, 只会通知用户一次,至于用户处理还是不处理,以后将不会再通知。这样减少了拷贝过程,增加了性能,但是相对来说,如果用户马虎忘记处理,将会产生事件丢的情况。

    六、简单的epoll服务器(C语言)

    (1) 服务端

    1. #include <stdio.h>
    2. #include <stdlib.h>
    3. #include <ctype.h>
    4. #include <string.h>
    5. #include <unistd.h>
    6. #include <sys/types.h>
    7. #include <sys/socket.h>
    8. #include <arpa/inet.h>
    9. #include <sys/epoll.h>
    10. #define SERVER_PORT (7778)
    11. #define EPOLL_MAX_NUM (2048)
    12. #define BUFFER_MAX_LEN (4096)
    13. void str_toupper(char *str)
    14. {
    15. int i;
    16. for (i = 0; i < strlen(str); i ++) {
    17. str[i] = toupper(str[i]);
    18. }
    19. }
    20. int main(int argc, char **argv)
    21. {
    22. int listen_fd = 0;
    23. int client_fd = 0;
    24. struct sockaddr_in server_addr;
    25. struct sockaddr_in client_addr;
    26. socklen_t client_len;
    27. int epfd = 0;
    28. struct epoll_event event, *my_events;
    29. / socket
    30. listen_fd = socket(AF_INET, SOCK_STREAM, 0);
    31. // bind
    32. server_addr.sin_family = AF_INET;
    33. server_addr.sin_addr.s_addr = htonl(INADDR_ANY);
    34. server_addr.sin_port = htons(SERVER_PORT);
    35. bind(listen_fd, (struct sockaddr*)&server_addr, sizeof(server_addr));
    36. // listen
    37. listen(listen_fd, 10);
    38. // epoll create
    39. epfd = epoll_create(EPOLL_MAX_NUM);
    40. if (epfd < 0) {
    41. perror("epoll create");
    42. goto END;
    43. }
    44. // listen_fd -> epoll
    45. event.events = EPOLLIN;
    46. event.data.fd = listen_fd;
    47. if (epoll_ctl(epfd, EPOLL_CTL_ADD, listen_fd, &event) < 0) {
    48. perror("epoll ctl add listen_fd ");
    49. goto END;
    50. }
    51. my_events = malloc(sizeof(struct epoll_event) * EPOLL_MAX_NUM);
    52. while (1) {
    53. // epoll wait
    54. int active_fds_cnt = epoll_wait(epfd, my_events, EPOLL_MAX_NUM, -1);
    55. int i = 0;
    56. for (i = 0; i < active_fds_cnt; i++) {
    57. // if fd == listen_fd
    58. if (my_events[i].data.fd == listen_fd) {
    59. //accept
    60. client_fd = accept(listen_fd, (struct sockaddr*)&client_addr, &client_len);
    61. if (client_fd < 0) {
    62. perror("accept");
    63. continue;
    64. }
    65. char ip[20];
    66. printf("new connection[%s:%d]\n", inet_ntop(AF_INET, &client_addr.sin_addr, ip, sizeof(ip)), ntohs(client_addr.sin_port));
    67. event.events = EPOLLIN | EPOLLET;
    68. event.data.fd = client_fd;
    69. epoll_ctl(epfd, EPOLL_CTL_ADD, client_fd, &event);
    70. }
    71. else if (my_events[i].events & EPOLLIN) {
    72. printf("EPOLLIN\n");
    73. client_fd = my_events[i].data.fd;
    74. // do read
    75. buffer[0] = '\0';
    76. int n = read(client_fd, buffer, 5);
    77. if (n < 0) {
    78. perror("read");
    79. continue;
    80. }
    81. else if (n == 0) {
    82. epoll_ctl(epfd, EPOLL_CTL_DEL, client_fd, &event);
    83. close(client_fd);
    84. }
    85. else {
    86. printf("[read]: %s\n", buffer);
    87. buffer[n] = '\0';
    88. #if 1
    89. str_toupper(buffer);
    90. write(client_fd, buffer, strlen(buffer));
    91. printf("[write]: %s\n", buffer);
    92. memset(buffer, 0, BUFFER_MAX_LEN);
    93. #endif
    94. /*
    95. event.events = EPOLLOUT;
    96. event.data.fd = client_fd;
    97. epoll_ctl(epfd, EPOLL_CTL_MOD, client_fd, &event);
    98. */
    99. }
    100. }
    101. else if (my_events[i].events & EPOLLOUT) {
    102. printf("EPOLLOUT\n");
    103. client_fd = my_events[i].data.fd;
    104. str_toupper(buffer);
    105. write(client_fd, buffer, strlen(buffer));
    106. printf("[write]: %s\n", buffer);
    107. memset(buffer, 0, BUFFER_MAX_LEN);
    108. event.events = EPOLLIN;
    109. event.data.fd = client_fd;
    110. epoll_ctl(epfd, EPOLL_CTL_MOD, client_fd, &event);
    111. }
    112. }
    113. }
    114. END:
    115. close(epfd);
    116. close(listen_fd);
    117. return 0;
    118. }

    (2) 客户端

    1. #include <stdio.h>
    2. #include <stdlib.h>
    3. #include <string.h>
    4. #include <strings.h>
    5. #include <sys/types.h>
    6. #include <sys/socket.h>
    7. #include <arpa/inet.h>
    8. #include <unistd.h>
    9. #include <fcntl.h>
    10. #define MAX_LINE (1024)
    11. #define SERVER_PORT (7778)
    12. void setnoblocking(int fd)
    13. {
    14. int opts = 0;
    15. opts = fcntl(fd, F_GETFL);
    16. opts = opts | O_NONBLOCK;
    17. fcntl(fd, F_SETFL);
    18. }
    19. int main(int argc, char **argv)
    20. {
    21. int sockfd;
    22. char recvline[MAX_LINE + 1] = {0};
    23. struct sockaddr_in server_addr;
    24. if (argc != 2) {
    25. fprintf(stderr, "usage ./client <SERVER_IP>\n");
    26. exit(0);
    27. }
    28. // 创建socket
    29. if ( (sockfd = socket(AF_INET, SOCK_STREAM, 0)) < 0) {
    30. fprintf(stderr, "socket error");
    31. exit(0);
    32. }
    33. // server addr 赋值
    34. bzero(&server_addr, sizeof(server_addr));
    35. server_addr.sin_family = AF_INET;
    36. server_addr.sin_port = htons(SERVER_PORT);
    37. if (inet_pton(AF_INET, argv[1], &server_addr.sin_addr) <= 0) {
    38. fprintf(stderr, "inet_pton error for %s", argv[1]);
    39. exit(0);
    40. }
    41. // 链接服务端
    42. if (connect(sockfd, (struct sockaddr*) &server_addr, sizeof(server_addr)) < 0) {
    43. perror("connect");
    44. fprintf(stderr, "connect error\n");
    45. exit(0);
    46. }
    47. setnoblocking(sockfd);
    48. char input[100];
    49. int n = 0;
    50. int count = 0;
    51. // 不断的从标准输入字符串
    52. while (fgets(input, 100, stdin) != NULL)
    53. {
    54. printf("[send] %s\n", input);
    55. n = 0;
    56. // 把输入的字符串发送 到 服务器中去
    57. n = send(sockfd, input, strlen(input), 0);
    58. if (n < 0) {
    59. perror("send");
    60. }
    61. n = 0;
    62. count = 0;
    63. // 读取 服务器返回的数据
    64. while (1)
    65. {
    66. n = read(sockfd, recvline + count, MAX_LINE);
    67. if (n == MAX_LINE)
    68. {
    69. count += n;
    70. continue;
    71. }
    72. else if (n < 0){
    73. perror("recv");
    74. break;
    75. }
    76. else {
    77. count += n;
    78. recvline[count] = '\0';
    79. printf("[recv] %s\n", recvline);
    80. break;
    81. }
    82. }
    83. }
    84. return 0;