加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Python > 正文

python - IO模型

发布时间:2020-12-17 00:03:00 所属栏目:Python 来源:网络整理
导读:IO模型介绍 为了更好地了解IO模型,我们需要事先回顾下:同步、异步、阻塞、非阻塞 ? ??同步(synchronous) IO和异步(asynchronous) IO,阻塞(blocking) IO和非阻塞(non-blocking)IO分别是什么,到底有什么区别?这个问题其实不同的人给出的答案都可

IO模型介绍

  为了更好地了解IO模型,我们需要事先回顾下:同步、异步、阻塞、非阻塞

? ??同步(synchronous) IO和异步(asynchronous) IO,阻塞(blocking) IO和非阻塞(non-blocking)IO分别是什么,到底有什么区别?这个问题其实不同的人给出的答案都可能不同,比如wiki,就认为asynchronous IO和non-blocking IO是一个东西。这其实是因为不同的人的知识背景不同,并且在讨论这个问题的时候上下文(context)也不相同。所以,为了更好的回答这个问题,我先限定一下本文的上下文。

??? 本文讨论的背景是Linux环境下的network IO。本文最重要的参考文献是Richard Stevens的“UNIX? Network Programming Volume 1,Third Edition: The Sockets Networking ”,6.2节“I/O Models ”,Stevens在这节中详细说明了各种IO的特点和区别,如果英文够好的话,推荐直接阅读。Stevens的文风是有名的深入浅出,所以不用担心看不懂。本文中的流程图也是截取自参考文献。

? ? Stevens在文章中一共比较了五种IO Model:??? * blocking IO? ? ? ? ? ?阻塞IO??? * nonblocking IO? ? ? 非阻塞IO??? * IO multiplexing? ? ? IO多路复用??? * signal driven IO? ? ?信号驱动IO??? * asynchronous IO? ? 异步IO??? 由signal driven IO(信号驱动IO)在实际中并不常用,所以主要介绍其余四种IO Model。

? ? 再说一下IO发生时涉及的对象和步骤。对于一个network IO (这里我们以read举例),它会涉及到两个系统对象,一个是调用这个IO的process (or thread),另一个就是系统内核(kernel)。当一个read操作发生时,该操作会经历两个阶段:

#1)等待数据准备 (Waiting for the data to be ready) #2)将数据从内核拷贝到进程中(Copying the data from the kernel to the process)

  记住这两点很重要,因为这些IO模型的区别就是在两个阶段上各有不同的情况。

阻塞IO(blocking IO)

  在linux中,默认情况下所有的socket都是blocking,一个典型的读操作流程大概是这样:

  

  当用户进程调用了recvfrom这个系统调用,kernel就开始了IO的第一个阶段:准备数据。对于network io来说,很多时候数据在一开始还没有到达(比如,还没有收到一个完整的UDP包),这个时候kernel就要等待足够的数据到来。

? ? 而在用户进程这边,整个进程会被阻塞。当kernel一直等到数据准备好了,它就会将数据从kernel中拷贝到用户内存,然后kernel返回结果,用户进程才解除block的状态,重新运行起来。????所以,blocking IO的特点就是在IO执行的两个阶段(等待数据和拷贝数据两个阶段)都被block了。

? ? 几乎所有的程序员第一次接触到的网络编程都是从listen()、send()、recv() 等接口开始的,使用这些接口可以很方便的构建服务器/客户机的模型。然而大部分的socket接口都是阻塞型的。如下图

? ? ps:所谓阻塞型接口是指系统调用(一般是IO接口)不返回调用结果并让当前线程一直阻塞,只有当该系统调用获得结果或者超时出错时才返回。

? ? ??

? ? 该方案的问题是:

? ? 改进方案:? ??

? ? 改进后方案其实也存在着问题:

? ? 对应上例中的所面临的可能同时出现的上千甚至上万次的客户端请求,“线程池”或“连接池”或许可以缓解部分压力,但是不能解决所有问题。总之,多线程模型可以方便高效的解决小规模的服务请求,但面对大规模的服务请求,多线程模型也会遇到瓶颈,可以用非阻塞接口来尝试解决这个问题。

Linux下,可以通过设置socket使其变为non-blocking。当对一个non-blocking socket执行读操作时,流程是这个样子:

  

? ? 所以,在非阻塞式IO中,用户进程其实是需要不断的主动询问kernel数据准备好了没有。

socket * =,80805 conn_l=== conn =conn.recv(1024 </span><span style="color: #0000ff;"&gt;for</span> conn <span style="color: #0000ff;"&gt;in</span><span style="color: #000000;"&gt; del_l: conn_l.remove(conn) conn.close() del_l</span>=<span style="color: #000000;"&gt;[]

<span style="color: #008000;">#<span style="color: #008000;">客户端
<span style="color: #0000ff;">from socket <span style="color: #0000ff;">import *<span style="color: #000000;">
c=<span style="color: #000000;">socket(AF_INET,SOCK_STREAM)
c.connect((<span style="color: #800000;">'<span style="color: #800000;">127.0.0.1<span style="color: #800000;">',8080<span style="color: #000000;">))

<span style="color: #0000ff;">while<span style="color: #000000;"> True:
msg=input(<span style="color: #800000;">'<span style="color: #800000;">>>: <span style="color: #800000;">'<span style="color: #000000;">)
<span style="color: #0000ff;">if <span style="color: #0000ff;">not msg:<span style="color: #0000ff;">continue<span style="color: #000000;">
c.send(msg.encode(<span style="color: #800000;">'<span style="color: #800000;">utf-8<span style="color: #800000;">'<span style="color: #000000;">))
data=c.recv(1024<span style="color: #000000;">)
<span style="color: #0000ff;">print(data.decode(<span style="color: #800000;">'<span style="color: #800000;">utf-8<span style="color: #800000;">'))

<p align="justify">? ? 但是非阻塞IO模型绝不被推荐。

? ? 我们不能否则其优点:能够在等待任务完成的时间里干其他活了(包括提交其他任务,也就是 “后台” 可以有多个任务在“”同时“”执行)。

? ? 但是也难掩其缺点:

? ? 此外,在这个方案中recv()更多的是起到检测“操作是否完成”的作用,实际操作系统提供了更为高效的检测“操作是否完成“作用的接口,例如select()多路复用模式,可以一次检测多个连接是否活跃。

多路复用IO(IO multiplexing)

  IO multiplexing这个词可能有点陌生,但是如果我说select/epoll,大概就都能明白了。有些地方也称这种IO方式为事件驱动IO(event driven IO)。我们都知道,select/epoll的好处就在于单个process就可以同时处理多个网络连接的IO。它的基本原理就是select/epoll这个function会不断的轮询所负责的所有socket,当某个socket有数据到达了,就通知用户进程。它的流程如图:

  当用户进程调用了select,那么整个进程会被block,而同时,kernel会“监视”所有select负责的socket,当任何一个socket中的数据准备好了,select就会返回。这个时候用户进程再调用read操作,将数据从kernel拷贝到用户进程。??? 这个图和blocking IO的图其实并没有太大的不同,事实上还更差一些。因为这里需要使用两个系统调用(select和recvfrom),而blocking IO只调用了一个系统调用(recvfrom)。但是,用select的优势在于它可以同时处理多个connection。

? ? 强调:

? ? 1. 如果处理的连接数不是很高的话,使用select/epoll的web server不一定比使用multi-threading + blocking IO的web server性能更好,可能延迟还更大。select/epoll的优势并不是对于单个连接能处理得更快,而是在于能处理更多的连接。

? ? 2.?在多路复用模型中,对于每一个socket,一般都设置成为non-blocking,但是,如上图所示,整个用户的process其实是一直被block的。只不过process是被select这个函数block,而不是被socket IO给block。

? ??结论: select的优势在于可以处理多个连接,不适用于单个连接?

socket * s=<span style="color: #000000;">socket(AF_INET,SOCK_STREAM)
s.setsockopt(SOL_SOCKET,SO_REUSEADDR,
1<span style="color: #000000;">)
s.bind((
<span style="color: #800000;">'
<span style="color: #800000;">127.0.0.1
<span style="color: #800000;">'
,8081<span style="color: #000000;">))
s.listen(5<span style="color: #000000;">)
s.setblocking(False) <span style="color: #008000;">#<span style="color: #008000;">设置socket的接口为非阻塞
read_l=<span style="color: #000000;">[s,]
<span style="color: #0000ff;">while<span style="color: #000000;"> True:
r_l,w_l,x_l=<span style="color: #000000;">select.select(read_l,[],[])
<span style="color: #0000ff;">print<span style="color: #000000;">(r_l)
<span style="color: #0000ff;">for ready_obj <span style="color: #0000ff;">in<span style="color: #000000;"> r_l:
<span style="color: #0000ff;">if ready_obj ==<span style="color: #000000;"> s:
conn,addr=ready_obj.accept() <span style="color: #008000;">#<span style="color: #008000;">此时的ready_obj等于s
<span style="color: #000000;"> read_l.append(conn)
<span style="color: #0000ff;">else<span style="color: #000000;">:
<span style="color: #0000ff;">try<span style="color: #000000;">:
data=ready_obj.recv(1024) <span style="color: #008000;">#<span style="color: #008000;">此时的ready_obj等于conn
<span style="color: #0000ff;">if <span style="color: #0000ff;">not<span style="color: #000000;"> data:
ready_obj.close()
read_l.remove(ready_obj)
<span style="color: #0000ff;">continue<span style="color: #000000;">
ready_obj.send(data.upper())
<span style="color: #0000ff;">except<span style="color: #000000;"> ConnectionResetError:
ready_obj.close()
read_l.remove(ready_obj)

<span style="color: #008000;">#<span style="color: #008000;">客户端
<span style="color: #0000ff;">from socket <span style="color: #0000ff;">import *<span style="color: #000000;">
c=<span style="color: #000000;">socket(AF_INET,8081<span style="color: #000000;">))

<span style="color: #0000ff;">while<span style="color: #000000;"> True:
msg=input(<span style="color: #800000;">'<span style="color: #800000;">>>: <span style="color: #800000;">'<span style="color: #000000;">)
<span style="color: #0000ff;">if <span style="color: #0000ff;">not msg:<span style="color: #0000ff;">continue<span style="color: #000000;">
c.send(msg.encode(<span style="color: #800000;">'<span style="color: #800000;">utf-8<span style="color: #800000;">'<span style="color: #000000;">))
data=c.recv(1024<span style="color: #000000;">)
<span style="color: #0000ff;">print(data.decode(<span style="color: #800000;">'<span style="color: #800000;">utf-8<span style="color: #800000;">'))

? ? select监听fd变化的过程分析:

? ??该模型的优点:

? ? 该模型的缺点:

Linux下的asynchronous IO其实用得不多,从内核2.6版本才开始引入。先看一下它的流程:

  用户进程发起read操作之后,立刻就可以开始去做其它的事。而另一方面,从kernel的角度,当它受到一个asynchronous read之后,首先它会立刻返回,所以不会对用户进程产生任何block。然后,kernel会等待数据准备完成,然后将数据拷贝到用户内存,当这一切都完成之后,kernel会给用户进程发送一个signal,告诉它read操作完成了。

到目前为止,已经将四个IO Model都介绍完了。现在回过头来回答最初的那几个问题:blocking和non-blocking的区别在哪,synchronous IO和asynchronous IO的区别在哪。? ? 先回答最简单的这个:blocking vs non-blocking。前面的介绍中其实已经很明确的说明了这两者的区别。调用blocking IO会一直block住对应的进程直到操作完成,而non-blocking IO在kernel还准备数据的情况下会立刻返回。

? ? 再说明synchronous IO和asynchronous IO的区别之前,需要先给出两者的定义。Stevens给出的定义(其实是POSIX的定义)是这样子的:????A synchronous I/O operation causes the requesting process to be blocked until that?I/O operationcompletes;??? An asynchronous I/O operation does not cause the requesting process to be blocked;?? ? 两者的区别就在于synchronous IO做”IO operation”的时候会将process阻塞。按照这个定义,四个IO模型可以分为两大类,之前所述的blocking IO,non-blocking IO,IO multiplexing都属于synchronous IO这一类,而?asynchronous I/O后一类 。

? ? 有人可能会说,non-blocking IO并没有被block啊。这里有个非常“狡猾”的地方,定义中所指的”IO operation”是指真实的IO操作,就是例子中的recvfrom这个system call。non-blocking IO在执行recvfrom这个system call的时候,如果kernel的数据没有准备好,这时候不会block进程。但是,当kernel中数据准备好的时候,recvfrom会将数据从kernel拷贝到用户内存中,这个时候进程是被block了,在这段时间内,进程是被block的。而asynchronous IO则不一样,当进程发起IO 操作之后,就直接返回再也不理睬了,直到kernel发送一个信号,告诉进程说IO完成。在这整个过程中,进程完全没有被block。

? ? 各个IO Model的比较如图所示:

  

  经过上面的介绍,会发现non-blocking IO和asynchronous IO的区别还是很明显的。在non-blocking IO中,虽然进程大部分时间都不会被block,但是它仍然要求进程去主动的check,并且当数据准备完成以后,也需要进程主动的再次调用recvfrom来将数据拷贝到用户内存。而asynchronous IO则完全不同。它就像是用户进程将整个IO操作交给了他人(kernel)完成,然后他人做完后发信号通知。在此期间,用户进程不需要去检查IO操作的状态,也不需要主动的去拷贝数据。

理解完IO复用后,我们在来看下实现IO复用中的三个API(select、poll和epoll)的区别和联系

select,poll,epoll都是IO多路复用的机制,I/O多路复用就是通过一种机制,可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知应用程序进行相应的读写操作。但select,poll,epoll本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/<span style="color: #000000;">O的实现会负责把数据从内核拷贝到用户空间。三者的原型如下所示:

int select(int nfds,fd_set readfds,fd_set writefds,fd_set exceptfds,struct timeval <span style="color: #000000;">timeout);

int poll(struct pollfd *<span style="color: #000000;">fds,nfds_t nfds,int timeout);

int epoll_wait(int epfd,struct epoll_event *<span style="color: #000000;">events,int maxevents,int timeout);

1.select的第一个参数nfds为fdset集合中最大描述符值加1,fdset是一个位数组,其大小限制为__FD_SETSIZE(1024<span style="color: #000000;">),位数组的每一位代表其对应的描述符是否需要被检查。第二三四参数表示需要关注读、写、错误事件的文件描述符位数组,这些参数既是输入参数也是输出参数,可能会被内核修改用于标示哪些描述符上发生了关注的事件,所以每次调用select前都需要重新初始化fdset。timeout参数为超时时间,该结构会被内核修改,其值为超时剩余的时间。

select的调用步骤如下:

(1<span style="color: #000000;">)使用copy_from_user从用户空间拷贝fdset到内核空间

(2<span style="color: #000000;">)注册回调函数__pollwait

(3<span style="color: #000000;">)遍历所有fd,调用其对应的poll方法(对于socket,这个poll方法是sock_poll,sock_poll根据情况会调用到tcp_poll,udp_poll或者datagram_poll)

(4<span style="color: #000000;">)以tcp_poll为例,其核心实现就是__pollwait,也就是上面注册的回调函数。

(5)<span style="color: #800080;">__pollwait的主要工作就是把current(当前进程)挂到设备的等待队列中,不同的设备有不同的等待队列,对于tcp_poll 来说,其等待队列是sk-><span style="color: #000000;">sk_sleep(注意把进程挂到等待队列中并不代表进程已经睡眠了)。在设备收到一条消息(网络设备)或填写完文件数 据(磁盘设备)后,会唤醒设备等待队列上睡眠的进程,这时current便被唤醒了。

(6<span style="color: #000000;">)poll方法返回时会返回一个描述读写操作是否就绪的mask掩码,根据这个mask掩码给fd_set赋值。

(7<span style="color: #000000;">)如果遍历完所有的fd,还没有返回一个可读写的mask掩码,则会调用schedule_timeout是调用select的进程(也就是 current)进入睡眠。当设备驱动发生自身资源可读写后,会唤醒其等待队列上睡眠的进程。如果超过一定的超时时间(schedule_timeout 指定),还是没人唤醒,则调用select的进程会重新被唤醒获得CPU,进而重新遍历fd,判断有没有就绪的fd。

(8<span style="color: #000000;">)把fd_set从内核空间拷贝到用户空间。

总结下select的几大缺点:

(1<span style="color: #000000;">)每次调用select,都需要把fd集合从用户态拷贝到内核态,这个开销在fd很多时会很大

(2<span style="color: #000000;">)同时每次调用select都需要在内核遍历传递进来的所有fd,这个开销在fd很多时也很大

(3<span style="color: #000000;">)select支持的文件描述符数量太小了,默认是1024

2<span style="color: #000000;">. poll与select不同,通过一个pollfd数组向内核传递需要关注的事件,故没有描述符个数的限制,pollfd中的events字段和revents分别用于标示关注的事件和发生的事件,故pollfd数组只需要被初始化一次。

poll的实现机制与select类似,其对应内核中的sys_poll,只不过poll向内核传递pollfd数组,然后对pollfd中的每个描述符进行poll,相比处理fdset来说,poll效率更高。poll返回后,需要对pollfd中的每个元素检查其revents值,来得指事件是否发生。

3.直到Linux2.6才出现了由内核直接支持的实现方法,那就是epoll,被公认为Linux2.6下性能最好的多路I/O就绪通知方法。epoll可以同时支持水平触发和边缘触发(Edge Triggered,只告诉进程哪些文件描述符刚刚变为就绪状态,它只说一遍,如果我们没有采取行动,那么它将不会再次告知,这种方式称为边缘触发),理论上边缘触发的性能要更高一些,但是代码实现相当复杂。epoll同样只告知那些就绪的文件描述符,而且当我们调用epoll_wait()获得就绪文件描述符时,返回的不是实际的描述符,而是一个代表就绪描述符数量的值,你只需要去epoll指定的一个数组中依次取得相应数量的文件描述符即可,这里也使用了内存映射(mmap)技术,这样便彻底省掉了这些文件描述符在系统调用时复制的开销。另一个本质的改进在于epoll采用基于事件的就绪通知方式。在select/<span style="color: #000000;">poll中,进程只有在调用一定的方法后,内核才对所有监视的文件描述符进行扫描,而epoll事先通过epoll_ctl()来注册一个文件描述符,一旦基于某个文件描述符就绪时,内核会采用类似callback的回调机制,迅速激活这个文件描述符,当进程调用epoll_wait()时便得到通知。

epoll既然是对select和poll的改进,就应该能避免上述的三个缺点。那epoll都是怎么解决的呢?在此之前,我们先看一下epoll 和select和poll的调用接口上的不同,select和poll都只提供了一个函数——select或者poll函数。而epoll提供了三个函 数,epoll_create,epoll_ctl和epoll_wait,epoll_create是创建一个epoll句柄;epoll_ctl是注 册要监听的事件类型;epoll_wait则是等待事件的产生。

  对于第一个缺点,epoll的解决方案在epoll_ctl函数中。每次注册新的事件到epoll句柄中时(在epoll_ctl中指定 EPOLL_CTL_ADD),会把所有的fd拷贝进内核,而不是在epoll_wait的时候重复拷贝。epoll保证了每个fd在整个过程中只会拷贝 一次。

  对于第二个缺点,epoll的解决方案不像select或poll一样每次都把current轮流加入fd对应的设备等待队列中,而只在 epoll_ctl时把current挂一遍(这一遍必不可少)并为每个fd指定一个回调函数,当设备就绪,唤醒等待队列上的等待者时,就会调用这个回调 函数,而这个回调函数会把就绪的fd加入一个就绪链表)。epoll_wait的工作实际上就是在这个就绪链表中查看有没有就绪的fd(利用 schedule_timeout()实现睡一会,判断一会的效果,和select实现中的第7步是类似的)。

  对于第三个缺点,epoll没有这个限制,它所支持的FD上限是最大可以打开文件的数目,这个数字一般远大于2048,举个例子,在1GB内存的机器上大约是10万左右,具体数目可以cat /proc/sys/fs/file-<span style="color: #000000;">max察看,一般来说这个数目和系统内存关系很大。

总结:

(1<span style="color: #000000;">)select,poll实现需要自己不断轮询所有fd集合,直到设备就绪,期间可能要睡眠和唤醒多次交替。而epoll其实也需要调用 epoll_wait不断轮询就绪链表,期间也可能多次睡眠和唤醒交替,但是它是设备就绪时,调用回调函数,把就绪fd放入就绪链表中,并唤醒在 epoll_wait中进入睡眠的进程。虽然都要睡眠和交替,但是select和poll在“醒着”的时候要遍历整个fd集合,而epoll在“醒着”的 时候只要判断一下就绪链表是否为空就行了,这节省了大量的CPU时间,这就是回调机制带来的性能提升。

(2)select,poll每次调用都要把fd集合从用户态往内核态拷贝一次,并且要把current往设备等待队列中挂一次,而epoll只要 一次拷贝,而且把current往等待队列上挂也只挂一次(在epoll_wait的开始,注意这里的等待队列并不是设备等待队列,只是一个epoll内 部定义的等待队列),这也能节省不少的开销。

这三种IO多路复用模型在不同的平台有着不同的支持,而epoll在windows下就不支持,好在我们有selectors模块,帮我们默认选择当前平台下最合适的

socket * sel=<span style="color: #000000;">selectors.DefaultSelector()
<span style="color: #0000ff;">def
<span style="color: #000000;"> accept(server_fileobj,mask):
conn,addr
=<span style="color: #000000;">server_fileobj.accept()
sel.register(conn,selectors.EVENT_READ,read)

<span style="color: #0000ff;">def<span style="color: #000000;"> read(conn,mask):
<span style="color: #0000ff;">try<span style="color: #000000;">:
data=conn.recv(1024<span style="color: #000000;">)
<span style="color: #0000ff;">if <span style="color: #0000ff;">not<span style="color: #000000;"> data:
<span style="color: #0000ff;">print(<span style="color: #800000;">'<span style="color: #800000;">closing<span style="color: #800000;">'<span style="color: #000000;">,conn)
sel.unregister(conn)
conn.close()
<span style="color: #0000ff;">return<span style="color: #000000;">
conn.send(data.upper()+b<span style="color: #800000;">'<span style="color: #800000;">_SB<span style="color: #800000;">'<span style="color: #000000;">)
<span style="color: #0000ff;">except<span style="color: #000000;"> Exception:
<span style="color: #0000ff;">print(<span style="color: #800000;">'<span style="color: #800000;">closing<span style="color: #800000;">'<span style="color: #000000;">,conn)
sel.unregister(conn)
conn.close()

server_fileobj=<span style="color: #000000;">socket(AF_INET,SOCK_STREAM)
server_fileobj.setsockopt(SOL_SOCKET,1<span style="color: #000000;">)
server_fileobj.bind((<span style="color: #800000;">'<span style="color: #800000;">127.0.0.1<span style="color: #800000;">',8088<span style="color: #000000;">))
server_fileobj.listen(5<span style="color: #000000;">)
server_fileobj.setblocking(False) <span style="color: #008000;">#<span style="color: #008000;">设置socket的接口为非阻塞
sel.register(server_fileobj,accept) <span style="color: #008000;">#<span style="color: #008000;">相当于网select的读列表里append了一个文件句柄server_fileobj,并且绑定了一个回调函数accept

<span style="color: #0000ff;">while<span style="color: #000000;"> True:
events=sel.select() <span style="color: #008000;">#<span style="color: #008000;">检测所有的fileobj,是否有完成wait data的
<span style="color: #0000ff;">for sel_obj,mask <span style="color: #0000ff;">in<span style="color: #000000;"> events:
callback=sel_obj.data <span style="color: #008000;">#<span style="color: #008000;">callback=accpet
callback(sel_obj.fileobj,mask) <span style="color: #008000;">#<span style="color: #008000;">accpet(server_fileobj,1)

<span style="color: #008000;">#<span style="color: #008000;"> 客户端
<span style="color: #0000ff;">from socket <span style="color: #0000ff;">import *<span style="color: #000000;">
c=<span style="color: #000000;">socket(AF_INET,8088<span style="color: #000000;">))

<span style="color: #0000ff;">while<span style="color: #000000;"> True:
msg=input(<span style="color: #800000;">'<span style="color: #800000;">>>: <span style="color: #800000;">'<span style="color: #000000;">)
<span style="color: #0000ff;">if <span style="color: #0000ff;">not msg:<span style="color: #0000ff;">continue<span style="color: #000000;">
c.send(msg.encode(<span style="color: #800000;">'<span style="color: #800000;">utf-8<span style="color: #800000;">'<span style="color: #000000;">))
data=c.recv(1024<span style="color: #000000;">)
<span style="color: #0000ff;">print(data.decode(<span style="color: #800000;">'<span style="color: #800000;">utf-8<span style="color: #800000;">'))

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读