Linux 阻塞与非阻塞
网络编程 常见 同步Sync /异步Async 阻塞Block/非阻塞Unblock四种调用方式
同步
在发出一个功能调用时 没有得到结果之前 该调用就不返回 也就是 事一件一件做 一件做完了才 做下一件事异步
调用者不能立刻得到结果 处理这个调用的部件在完成后 通过状态 通知和回调来通知调用者ajax请求 异步 请求通过事件触发->服务器处理(这是浏览器仍然可以作其他事情)->处理完毕
阻塞
调用结果返回之前 当前线程会被挂起(线程进入非可执行状态 cpu不会给线程分配时间片 即线程暂停运行) 函数只有在得到结果之后才会返回非阻塞
在不能立刻得到结果之前 该函数不会阻塞当前线程 而会立刻返回对象的阻塞模式和阻塞函数调用
对象是否处于阻塞模式和函数是不是阻塞调用有很强的相关性 阻塞对象上可以有非阻塞的调用方式
可以通过一定的API去轮询状态 在适当的时候调用阻塞函数 就可以避免阻塞
而对于非阻塞对象 调用特殊的函数也可以进入阻塞调用 函数select就是这样的一个例子
1 同步 调用一个功能 该功能没有结束前 我死等结果
2 异步 调用一个功能 不需要知道该功能结果 该功能有结果后通知我(回调通知)
3 阻塞 函数 没有接收完数据或者没有得到结果之前 我不会返回
4 非阻塞 函数 立即返回 通过select通知调用者
同步IO和异步IO 区别 数据拷贝 的时候进程是否 阻塞
阻塞IO和非阻塞IO 区别 应用程序的调用是否立即返回
Linux下的五种I/O模型
阻塞I/O(blocking I/O)非阻塞I/O (nonblocking I/O)
I/O复用(select 和poll) (I/O multiplexing)
信号驱动I/O (signal driven I/O (SIGIO))
异步I/O (asynchronous I/O (the POSIX aio_functions))
前四种都是同步 只有最后一种才是异步IO
阻塞I/O模型
阻塞I/O模型 在调用recv()/recvfrom()函数时 发生在内核中等待数据和复制数据的过程调用recv()函数时 系统首先查是否有准备好的数据 如果数据没有准备好 那么系统就处于等待状态 当数据准备好后 将数据从系统缓冲区复制到用户 空间 然后该函数返回 在套接应用程序中 调用recv()函数时 未必用户空间就已经存在数据 那么此时recv()函数就会处于等待状态
使用socket()函数和WSASocket()函数创建套接字时 默认的套接字都是阻塞的
这意味着当调用Windows Sockets API不能立即完成时 线程处于等待状态 直到操作完成
并不是所有Windows Sockets API以阻塞套接字为参数调用都会发生阻塞
例如 以阻塞模式的套接字为参数调用bind() listen()函数时 函数会立即返回 将可能阻塞套接字的Windows Sockets
API调用分为以下四种
1 输入 recv() recvfrom() WSARecv()和WSARecvfrom()函数 阻塞套接字 为参数调用该函数 接收数据 套接字缓冲区内没有数据可读 则调用线程在数据到来前一直睡眠2 输出 send() sendto() WSASend()和WSASendto()函数 以阻塞套接字 为参数调用该函数 发送数据 套接字缓冲区没 可用空间 线程 一直睡眠 直到有空间
3 接受连接 accept()和WSAAcept()函数 以阻塞套接字 为参数调用该函数 等 接受对方 连接请求 如果此时没有连接请求 线程就会进入睡眠状态
4 外出连接 connect()和WSAConnect()函数 对于TCP连接 客户端以阻塞套接字为参数 调用该函数向服务器发起连接 该函数在收到服务器的应答前 不会返回
TCP连接总会等待至少到服务器的一次往返时间
阻塞模式的套接字 网络程序 简单 易实现 当希望能 立即发送和接收数据 且处理的套接字数量比较少 阻塞模式 开发网络程序 较合适
不足表现
大量建好的 套接字线程间 通信 比较困难 使用 生产者-消费者 模型开发网络程序 为每个套接字 分别分配 读线程 处理数据线程和 同步的事件 会加大系统开销
最大缺点是 同时处理大量套接字 无从下手 扩展性 差
非阻塞IO模型
通过进程反复调用IO函数(多次系统调用 并马上返回)在数据拷贝的过程中 进程是阻塞的把 SOCKET接口设置为 非阻塞 就是告诉内核 当所请求的I/O操作无法完成时 不要将进程睡眠 而是返回一个错误
这样 的I/O操作函数将 不断的测试数据是否已经准备好 如果没有准备好 继续测试 直到数据准备好为止 在这个不断测试的过程中 会大量的占用CPU的时间
把SOCKET设置为 非阻塞模式 即通知系统内核在调用Windows Sockets API时 不要让线程睡眠 而应该让函数立即返回 在返回时 该函数返回一个错误代码
一个非阻塞模式套接字多次调用recv()函数的过程 前 三次调用recv()函数时 内核数据还没有准备好 因此 该函数立即返回WSAEWOULDBLOCK错误代码
第四次调用recv()函数时 数据已 经准备好 被复制到应用程序的缓冲区中 recv()函数返回成功指示 应用程序开始处理数据
当使用socket()函数和WSASocket()函数 创建套接字 时 默认 是阻塞的
在创建套接字之后 通过调用 ioctlsocket()函数 将该套接字设置为非阻塞模式 Linux下 函数 fcntl()
套接字设置为非阻塞模式后 在调用Windows Sockets API函数时 调用函数会立即返回 大多数情况下 这些函数调用都会调用“失败”
并返回WSAEWOULDBLOCK错误代码 说明请求的操作在调用期 间内没有时间完成 通常 应用程序需要重复调用该函数 直到获得成功返回代码
并非所有的Windows Sockets API在非阻塞模式下调用 都会返回WSAEWOULDBLOCK错误
例如 以非阻塞模式的套接字为参数调用bind()函数时 就不会返回该错误代 码
当然 在调用WSAStartup()函数时更不会返回该错误代码
因为该函数是应用程序第一调用的函数 当然不会返回这样的错误代码
要将套接字设置为非阻塞模式 除了使用ioctlsocket()函数之外 还可以使用WSAAsyncselect()和WSAEventselect()函数
当调用该函数时 套接字会自动地设置为非阻塞方式
由于使用非阻塞套接字在调用函数时 会经常返回 WSAEWOULDBLOCK错误 所以应仔细检查返回代码并作好对 失败 的准备 应用程序连续不断地调用这个函数 直到它返回成功指示 为止 上面的程序清单中 在While循环体内不断地调用recv()函数 以读入1024个字节的数据 这种做法很浪费系统资源
要完成这样的操作 较好的做法是 使用套接字的 I/O模型 来判断非阻塞套接字是否可读可写
非阻塞模式套接字与阻塞模式套接字相比 不容易使用 使用非阻塞模式套接字 需要编写更多的代码 以便在每个Windows Sockets API函数调用中 对收到的WSAEWOULDBLOCK错误进行处理 因此 非阻塞套接字便显得有些难于使用
但是 非阻塞套接字 在控制建立的多个连接 在数据的收发量不均 时间不定时 明显具有优势 这种套接字在使用上存在一定难度 但只要排除了这些困难 它在 功能上还是非常强大的 通常情况下 可考虑使用套接字的“I/O模型” 它有助于应用程序通过异步方式 同时对一个或多个套接字的通信加以管理
IO复用模型
主要是select和epoll 对一个IO端口 两次调用 两次返回 比阻塞IO并没有什么优越性 关键是能实现同时对多个IO端口进行监听I/O复用模型 用到select poll epoll函数 这几个函数 会使进程阻塞 但是和阻塞I/O所不同 这两个函数可以同时阻塞多个I/O操作 且 同时对多个读操作 多个写操作的I/O函数进行检测 直到有数据可读或可写时 才真正调用I/O操作函数
信号驱动IO
两次调用 两次返回允许套接口进行信号驱动I/O 安装一个信号 处理函数 进程继续运行 不阻塞 当数据准备好 进程会收到一个SIGIO信号 在信号处理函数 调用I/O操作函数处理数据
异步IO模型
数据拷贝时 进程无需阻塞 当 异步过程调用 发出后 调用者不能立刻得到结果 实际处理这个调用的部件在完成后 通过状态 通知和回调 调用者的输入输出操作同步IO引起进程阻塞 直至IO操作完成 异步IO不会引起进程阻塞 IO复用是先通过 select调用阻塞
5个I/O模型的比较
select poll epoll简介epoll 跟 select 提供多路I/O复用 解决方案 Linux内核里 支持 epoll是Linux所特有 而select 应该是POSIX所规定 一般操作系统均 实现
select 本质 是通过设置或者检查存放fd标志位的数据结构 进行下一步处理
缺点是
1 单个进程可监视 fd数量被限制 即能监听端口的大小有限 这个数目和系统内存关系很大 具体数目 cat /proc/sys/fs/file-max察看 32位机默认 1024个 64位机默认是2048
2 对socket 扫描时 是线性扫描 即采用轮询的方法 效率低 套接字 多的时候 每次select()都要通过遍历FD_SETSIZE个Socket来完成调度 不管哪个Socket是活跃的 都遍历一遍 浪费很多CPU时间 如果能给套接字注册 回调函数 当他们活跃时 自动完成相关操作 就避免了轮询 是epoll与kqueue做的
3 需要维护一个用来存放大量fd的数据结构 使得用户空间 和 内核空间 在传递该结构时复制开销大
如果遍历完所有fd后没有发现就绪设备 则挂起当前进程 直到设备就绪或者主动超时 被唤醒后它又要再次遍历fd 这个过程经历了多次无谓的遍历
它没有最大连接数的限制 原因是它是基于链表来存储的
同样有缺点
1 大量的fd的数组被整体复制于用户态和内核地址空间之 间 不管复制是不是有意义
2 poll还有一个特点是“水平触发” 如果报告了fd后 没有被处理 那么下次poll 会再次报告该fd
epoll
支持水平触发和边缘触发 最大的特点在于边缘触发 它只告诉进程哪些fd刚刚变为就需态 并且只会通知一次 还有一个特点是 epoll使用“事件”的就绪通知方式 通过epoll_ctl注册fd 一旦该fd就绪 内核就会采用类似callback的回调机制来激活该fd epoll_wait便可以收 到通知
epoll的优点
1 没有最大并发连接的限制 能打开的FD的上限远大于1024(1G的内存上能监听约10万个端口)
2 效率提升 不是轮询的方式 不会随着FD数目的增加效率下降 只有活跃可用的FD才会调用callback函数
即Epoll最大的优点就在于它只管你“活跃”的连接 而跟连接总数无关 因此在实际的网络环境中 Epoll的效率就会远远高于select和poll
3 内存拷贝 利用mmap()文件映射内存加速与内核空间的消息传递;即epoll使用mmap减少复制开销
select poll epoll 区别总结
1 支持一个进程所能打开的最大连接数
select 单个进程 能打开的最大连接数 有FD_SETSIZE宏定 义 其大小是32个整数的大小(在32位的机器上 大小就是32*32 64位机器 FD_SETSIZE为32*64) 可以 进行修改 然后重新编译内核 但是性能可能会受到影响 这需要进一步的测试
poll poll本质上和select没有区别 但是它没有最大连接数的限制 原因是它是基于链表来存储的
epoll 虽然连接数有上限 但是很大 1G内存的机器上可以打开10万左右的连接 2G内存的机器可以打开20万左右的连接
2 FD剧增后带来的IO效率问题
select 因为每次调用时都会对连接进行线性遍历 所以随着FD的增加会造成遍历速度慢的“线性下降性能问题”
poll 同上
epoll 因为epoll内核中实现是根据每个fd上的 callback函数来实现的 只有活跃的socket才会主动调用callback 所以在活跃socket较少的情况下 使用epoll没有前面两者 的线性下降的性能问题 但是所有socket都很活跃的情况下 可能会有性能问题
3 消息传递方式
select 内核需要将消息传递到用户空间 都需要内核拷贝动作
poll 同上
epoll epoll通过内核和用户空间共享一块内存来实现的
在选择select poll epoll时要根据具体的使用场合以及这三种方式的自身特点
1 表面上看epoll的性能最好 但是在连接数少并且连接都十分活跃的情况下 select和poll的性能可能比epoll好 毕竟epoll的通知机制需要很多函数回调
2 select低效是因为每次它都需要轮询 但低效也是相对的 视情况而定 也可通过良好的设计改善
尊贵的董事大人
英文标题不为空时 视为本栏投稿
需要关键字 描述 英文标题