客户端服务器(Tcp服务端一直sleep)

问题:“一个tcp服务端和一个tcp客户端,客户端和服务端建立连接后,服务端一直sleep,然后客户端一直发送数据会是什么现象”。回答这个问题前我们先想一想tcp的特征和tcp发送数据的大体过程:首先,tcp是有链接的可靠传输协议,所谓可靠也就是说保证客户端发送的数据服务端都能够收到,并且是按序收到。那么对于上面的问题就不可能存在数据的丢弃。那么客户端一直发送数据越来越多怎么办?下面我们分析一下tcp的传输过程。 图1如图1所示当发送数据时:(1) 数据首先由应用程序缓冲区复制到发送端的套接字发送缓冲区(位于内核),注意这个过程是用类似write功能的函数完成的。有的人通常看到write成功就以为数据发送到了对端主机,其实这是错误的,write成功仅仅表示数据成功的由应用进程缓冲区复制到了套接字发送缓冲区。(2) 然后内核协议栈将套接字发送缓冲区中的数据发送到对端主机,注意这个过程不受应用程序控制,而是发送端内核协议栈完成,其中包括使用滑动窗口、用赛控制等功能。(3) 数据到达接收端主机的套接字接收缓冲区,注意这个接收过程也不受应用程序控制,而是由接收端内核协议栈完成,其中包括发送ack确认等。(4) 数据由套接字接收缓冲区复制到接收端应用程序缓冲区,注意这个过程是由类似read等函数来完成。推荐视频:支撑互联网的基石tcpip,5个方面全面解析手写一个用户态协议栈以及零拷贝的实现学习地址:C/C++Linux服务器开发/后台架构师【零声教育】-学习视频教程-腾讯课堂1. 阻塞方式的情况知道了这个过程,我们在看一下在默认情况下(套接字为阻塞方式)write等函数的工作方式:输出操作,包括write、writev、send、sendto和sendmsg共5个函数。对于一个TCP套接字,内核从应用进程的缓冲区到套接字的发送缓冲区复制数据。对于阻塞的套接字,如果其发送缓冲区中没有空间,进程将被投入睡眠,直到有空间为止。——UNPv1这样我们就可以推测出了结果:阻塞方式下,如果服务端一直sleep不接收数据,而客户端一直write,也就是只能执行上述过程中的前三步,这样最终结果肯定是接收端的套接字接收缓冲区和发送端套接字发送缓冲区都被填满,这样write就无法继续将数据从应用程序复制到发送端的套接字发送缓冲区了,从而使进程进入睡眠。验证例子如下。客户端代码:l tcpClient.c#include <stdio.h>
#include <string.h>
#include <unistd.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <stdlib.h>
#include <memory.h>
#include <arpa/inet.h>
#include <netinet/in.h>
#define PORT 9999
#define Buflen 1024
int main(int argc,char *argv[])
{
struct sockaddr_in server_addr;
int n,count=0;
int sockfd;
char sendline[Buflen];
sockfd= socket(AF_INET,SOCK_STREAM,0);
memset(&server_addr,0,sizeof(server_addr));
server_addr.sin_family = AF_INET;
server_addr.sin_port = htons(PORT);
server_addr.sin_addr.s_addr = htonl(INADDR_ANY);
server_addr.sin_addr.s_addr = inet_addr(argv[1]);
connect(sockfd,(struct sockaddr *)&server_addr,sizeof(server_addr));

//与服务器端进行通信
memset(sendline,'a',sizeof(Buflen));

while ( (n=write(sockfd,sendline,Buflen))>0 )
{
count++;
printf("already write %d bytes — %d\n",n,count);
}

if(n<0)
perror("write error");
close(sockfd);
}客户端每次write成功一次,将计数器count加1,同时输出本次write成功的字节数。count保存客户端write成功的次数。服务端代码:l tcpServer.c#include <stdio.h>
#include <stdlib.h>
#include <strings.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <memory.h>
#include <unistd.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <string.h>
#define PORT 9999 //定义通信端口
#define BACKLOG 5 //定义侦听队列长度
#define buflen 1024

int listenfd,connfd;
int main(int argc,char *argv[])
{
struct sockaddr_in server_addr; //存储服务器端socket地址结构
struct sockaddr_in client_addr; //存储客户端 socket地址结构
pid_t pid;
listenfd = socket(AF_INET,SOCK_STREAM,0);
memset(&server_addr,0,sizeof(server_addr));
server_addr.sin_family = AF_INET; //协议族
server_addr.sin_addr.s_addr = htonl(INADDR_ANY); //本地地址
server_addr.sin_port = htons(PORT);
bind(listenfd,(struct sockaddr *)&server_addr,sizeof(server_addr));
listen(listenfd,BACKLOG);
for(;;)
{
socklen_t addrlen = sizeof(client_addr);
connfd = accept(listenfd,(struct sockaddr *)&client_addr,&addrlen);
if(connfd<0)
perror("accept error");
printf("receive connection\n");
if((pid = fork()) == 0)
{
close(listenfd);
sleep(1000);//子进程不接收数据,sleep 1000秒
exit(0);
}
else
{
close(connfd);
}
}
}首先编译运行服务端,然后启动客户端,运行结果如图2所示。图2可以看到客户端write成功377次后就陷入了阻塞,注意这个时候不能说明发送端的套接字发送缓冲区一点是满的,只能说明套接字发送缓冲区的可用空间小于write请求写的自己数——1024。补充:当服务端sleep到1000后,会关闭当前连接,此时客户端处于阻塞中的write会返回错误,效果如图3。图3【文章福利】需要C/C++ Linux服务器架构师学习资料加群812855908(资料包括C/C++,Linux,golang技术,内核,Nginx,ZeroMQ,MySQL,Redis,fastdfs,MongoDB,ZK,流媒体,CDN,P2P,K8S,Docker,TCP/IP,协程,DPDK,ffmpeg等)2 非阻塞方式的情况下面看一下非阻塞套接字情况下,write的工作方式:对于一个非阻塞的TCP套接字,如果发送缓冲区中根本没用空间,输出函数将立即返回一个EWOULDBLOCK错误。如果发送缓冲区中有一些空间,返回值将是内核能够复制到该缓冲区的字节数。这个字节数也成为“不足计数”。这样就可以知道非阻塞情况下服务端一直sleep,客户端一直write数据的效果了:开始客户端write成功,随着客户端write,接收端的套接字接收缓冲区和发送端的套接字发送缓冲区会被填满。当发送端的套接字发送缓冲区的可用空间小于write请求写的字节数时,write立即返回-1,并将errno置为EWOULDBLOCK。验证例子代码如下。l 服务端同阻塞情况(略)。客户端(非阻塞模式):l tcpClientNonBlock.c#include <stdio.h>
#include <string.h>
#include <unistd.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <stdlib.h>
#include <memory.h>
#include <arpa/inet.h>
#include <netinet/in.h>
#include <fcntl.h>
#include <errno.h>
#define PORT 9999
#define Buflen 1024

int main(int argc,char *argv[])
{
struct sockaddr_in server_addr;
int n,flags,count=0;
int sockfd;
char sendline[Buflen];
sockfd= socket(AF_INET,SOCK_STREAM,0);
memset(&server_addr,0,sizeof(server_addr));
server_addr.sin_family = AF_INET;
server_addr.sin_port = htons(PORT);
server_addr.sin_addr.s_addr = htonl(INADDR_ANY);
server_addr.sin_addr.s_addr = inet_addr(argv[1]);
connect(sockfd,(struct sockaddr *)&server_addr,sizeof(server_addr));
flags=fcntl(sockfd,F_GETFL,0); //将已连接的套接字设置为非阻塞模式
fcntl(sockfd,F_SETFL,flags|O_NONBLOCK);
memset(sendline,'a',sizeof(Buflen));

while ( (n=write(sockfd,sendline,Buflen))>0 )
{
count++;
printf("already write %d bytes — %d\n",n,count);
}

if(n<0)
{
if(errno!=EWOULDBLOCK)
perror("write error");
else
printf("EWOULDBLOCK ERROR\n");
}
close(sockfd);
}首先编译运行服务端,然后启动客户端,运行结果如下图4所示。图4可以看到客户端成功write 185次后就发生套接字发送缓冲区空间不足,从而返回EWOULDBLOCK错误。我们注意到每次write同样的字节数(1024)阻塞模式下能write成功377次,为什么非阻塞情况下要少呢?这是因为阻塞模式下一直write到接收端的套接字接收缓冲区和发送端的套接字发送缓冲区都满的情况才会阻塞。而非阻塞模式情况下有可能是发送端发送过程的第二步较慢,造成发送端的套接字发送缓冲区很快写满,而接收端的套接字接收缓冲区还没有满,这样write就会仅仅因为发送端的套接字发送缓冲区满而返回错误(准确的说的套接字发送缓冲区的可用空间小于write请求写的字节数)。对比一下377正好是185的二倍左右,所以可以推测由于发送过程第二步的延迟,很可能发送端的套接字发送缓冲区已经满了,而接收端的套接字接收缓冲区还是空的。3 UDP情况补充对于UDP套接字不存在真正的发送缓冲区。内核只是复制应用进程数据并把它沿协议栈向下传送,渐次冠以UDP首部和IP首部。因此对于一个阻塞的UDP套接字(默认设置),输出函数调用将不会因为与TCP套接字一样的原因而阻塞,不过有可能会因为其他原因而阻塞。

本文出自快速备案,转载时请注明出处及相应链接。

本文永久链接: https://www.175ku.com/26740.html