转自:http://www.cnblogs.com/fanzhidongyzby/p/4098546.html
服务器端编程经常需要构造高性能的io模型,常见的io模型有四种:
(1)同步阻塞io(blocking io):即传统的io模型。
(2)同步非阻塞io(non-blocking io):默认创建的socket都是阻塞的,非阻塞io要求socket被设置为nonblock。注意这里所说的nio并非java的nio(new io)库。
(3)io多路复用(io multiplexing):即经典的reactor设计模式,有时也称为异步阻塞io,java中的selector和linux中的epoll都是这种模型。
(4)异步io(asynchronous io):即经典的proactor设计模式,也称为异步非阻塞io。
同步和异步的概念描述的是用户线程与内核的交互方式:同步是指用户线程发起io请求后需要等待或者轮询内核io操作完成后才能继续执行;而异步是指用户线程发起io请求后仍继续执行,当内核io操作完成后会通知用户线程,或者调用用户线程注册的回调函数。
阻塞和非阻塞的概念描述的是用户线程调用内核io操作的方式:阻塞是指io操作需要彻底完成后才返回到用户空间;而非阻塞是指io操作被调用后立即返回给用户一个状态值,无需等到io操作彻底完成。
另外,richard stevens 在《unix 网络编程》卷1中提到的基于信号驱动的io(signal driven io)模型,由于该模型并不常用,本文不作涉及。接下来,我们详细分析四种常见的io模型的实现原理。为了方便描述,我们统一使用io的读操作作为示例。
一、同步阻塞io
同步阻塞io模型是最简单的io模型,用户线程在内核进行io操作时被阻塞。
图1 同步阻塞io
如图1所示,用户线程通过系统调用read发起io读操作,由用户空间转到内核空间。内核等到数据包到达后,然后将接收的数据拷贝到用户空间,完成read操作。
用户线程使用同步阻塞io模型的伪代码描述为:
即用户需要等待read将socket中的数据读取到buffer后,才继续处理接收的数据。整个io请求的过程中,用户线程是被阻塞的,这导致用户在发起io请求时,不能做任何事情,对cpu的资源利用率不够。
二、同步非阻塞io
同步非阻塞io是在同步阻塞io的基础上,将socket设置为nonblock。这样做用户线程可以在发起io请求后可以立即返回。
图2 同步非阻塞io
如图2所示,由于socket是非阻塞的方式,因此用户线程发起io请求时立即返回。但并未读取到任何数据,用户线程需要不断地发起io请求,直到数据到达后,才真正读取到数据,继续执行。
用户线程使用同步非阻塞io模型的伪代码描述为:
即 用户需要不断地调用read,尝试读取socket中的数据,直到读取成功后,才继续处理接收的数据。整个io请求的过程中,虽然用户线程每次发起io请 求后可以立即返回,但是为了等到数据,仍需要不断地轮询、重复请求,消耗了大量的cpu的资源。一般很少直接使用这种模型,而是在其他io模型中使用非阻 塞io这一特性。
三、io多路复用
io多路复用模型是建立在内核提供的多路分离函数select基础之上的,使用select函数可以避免同步非阻塞io模型中轮询等待的问题。
图3 多路分离函数select
如图3所示,用户首先将需要进行io操作的socket添加到select中,然后阻塞等待select系统调用返回。当数据到达时,socket被激活,select函数返回。用户线程正式发起read请求,读取数据并继续执行。
从 流程上来看,使用select函数进行io请求和同步阻塞模型没有太大的区别,甚至还多了添加监视socket,以及调用select函数的额外操作,效 率更差。但是,使用select以后最大的优势是用户可以在一个线程内同时处理多个socket的io请求。用户可以注册多个socket,然后不断地调 用select读取被激活的socket,即可达到在同一个线程内同时处理多个io请求的目的。而在同步阻塞模型中,必须通过多线程的方式才能达到这个目的。
用户线程使用select函数的伪代码描述为:
其中while循环前将socket添加到select监视中,然后在while内一直调用select获取被激活的socket,一旦socket可读,便调用read函数将socket中的数据读取出来。
然 而,使用select函数的优点并不仅限于此。虽然上述方式允许单线程内处理多个io请求,但是每个io请求的过程还是阻塞的(在select函数上阻 塞),平均时间甚至比同步阻塞io模型还要长。如果用户线程只注册自己感兴趣的socket或者io请求,然后去做自己的事情,等到数据到来时再进行处 理,则可以提高cpu的利用率。
io多路复用模型使用了reactor设计模式实现了这一机制。
图4 reactor设计模式
如 图4所示,eventhandler抽象类表示io事件处理器,它拥有io文件句柄handle(通过get_handle获取),以及对handle的 操作handle_event(读/写等)。继承于eventhandler的子类可以对事件处理器的行为进行定制。reactor类用于管理 eventhandler(注册、删除等),并使用handle_events实现事件循环,不断调用同步事件多路分离器(一般是内核)的多路分离函数 select,只要某个文件句柄被激活(可读/写等),select就返回(阻塞),handle_events就会调用与文件句柄关联的事件处理器的 handle_event进行相关操作。
图5 io多路复用
如 图5所示,通过reactor的方式,可以将用户线程轮询io操作状态的工作统一交给handle_events事件循环进行处理。用户线程注册事件处理 器之后可以继续执行做其他的工作(异步),而reactor线程负责调用内核的select函数检查socket状态。当有socket被激活时,则通知 相应的用户线程(或执行用户线程的回调函数),执行handle_event进行数据读取、处理的工作。由于select函数是阻塞的,因此多路io复用 模型也被称为异步阻塞io模型。注意,这里的所说的阻塞是指select函数执行时线程被阻塞,而不是指socket。一般在使用io多路复用模型 时,socket都是设置为nonblock的,不过这并不会产生影响,因为用户发起io请求时,数据已经到达了,用户线程一定不会被阻塞。
用户线程使用io多路复用模型的伪代码描述为:
用户需要重写eventhandler的handle_event函数进行读取数据、处理数据的工作,用户线程只需要将自己的eventhandler注册到reactor即可。reactor中handle_events事件循环的伪代码大致如下。
事件循环不断地调用select获取被激活的socket,然后根据获取socket对应的eventhandler,执行器handle_event函数即可。
io多路复用是最常使用的io模型,但是其异步程度还不够“彻底”,因为它使用了会阻塞线程的select系统调用。因此io多路复用只能称为异步阻塞io,而非真正的异步io。
四、异步io
“真 正”的异步io需要操作系统更强的支持。在io多路复用模型中,事件循环将文件句柄的状态事件通知给用户线程,由用户线程自行读取数据、处理数据。而在异 步io模型中,当用户线程收到通知时,数据已经被内核读取完毕,并放在了用户线程指定的缓冲区内,内核在io完成后通知用户线程直接使用即可。
异步io模型使用了proactor设计模式实现了这一机制。
图6 proactor设计模式
如 图6,proactor模式和reactor模式在结构上比较相似,不过在用户(client)使用方式上差别较大。reactor模式中,用户线程通过 向reactor对象注册感兴趣的事件监听,然后事件触发时调用事件处理函数。而proactor模式中,用户线程将 asynchronousoperation(读/写等)、proactor以及操作完成时的completionhandler注册到 asynchronousoperationprocessor。asynchronousoperationprocessor使用facade模式提 供了一组异步操作api(读/写等)供用户使用,当用户线程调用异步api后,便继续执行自己的任务。 asynchronousoperationprocessor 会开启独立的内核线程执行异步操作,实现真正的异步。当异步io操作完成 时,asynchronousoperationprocessor将用户线程与asynchronousoperation一起注册的proactor 和completionhandler取出,然后将completionhandler与io操作的结果数据一起转发给 proactor,proactor负责回调每一个异步操作的事件完成处理函数handle_event。虽然proactor模式中每个异步操作都可以 绑定一个proactor对象,但是一般在操作系统中,proactor被实现为singleton模式,以便于集中化分发操作完成事件。
图7 异步io
如 图7所示,异步io模型中,用户线程直接使用内核提供的异步io api发起read请求,且发起后立即返回,继续执行用户线程代码。不过此时用户线程已 经将调用的asynchronousoperation和completionhandler注册到内核,然后操作系统开启独立的内核线程去处理io操 作。当read请求的数据到达时,由内核负责读取socket中的数据,并写入用户指定的缓冲区中。最后内核将read的数据和用户线程注册的 completionhandler分发给内部proactor,proactor将io完成的信息通知给用户线程(一般通过调用用户线程注册的完成事件 处理函数),完成异步io。
用户线程使用异步io模型的伪代码描述为:
用户需要重写completionhandler的handle_event函数进行处理数据的工作,参数buffer表示proactor已经准备好的数据,用户线程直接调用内核提供的异步io api,并将重写的completionhandler注册即可。
相 比于io多路复用模型,异步io并不十分常用,不少高性能并发服务程序使用io多路复用模型 多线程任务处理的架构基本可以满足需求。况且目前操作系统对 异步io的支持并非特别完善,更多的是采用io多路复用模型模拟异步io的方式(io事件触发时不直接通知用户线程,而是将数据读写完毕后放到用户指定的 缓冲区中)。java7之后已经支持了异步io,感兴趣的读者可以尝试使用。
本文从基本概念、工作流程和代码示 例三个层次简要描述了常见的四种高性能io模型的结构和原理,理清了同步、异步、阻塞、非阻塞这些容易混淆的概念。通过对高性能io模型的理解,可以在服 务端程序的开发中选择更符合实际业务特点的io模型,提高服务质量。希望本文对你有所帮助。
相似的:
http://www.cnblogs.com/nufangrensheng/p/3588690.html
http://www.ibm.com/developerworks/cn/linux/l-async/
在响应返回给客户端之前,有时候也需要做一些预处理再返回:
| nfs | local |
1 writer, 11m | 443ms | 238ms |
1 writer, 101m | 2793ms | 992ms |
10 writers, 11m | ~4400ms | ~950ms |
10 writers, 101m | ~30157ms | ~5500ms |
说了那么多,其实对互斥锁很简单,只需要一个标记位,如果该标记位为0,表示没有被占用,因而直接获得锁,然后把该标记位置为1,此时其他线程发现该标记位已经是1,因而需要等待。这里对这个标记位的比较并设值必须是原子操作,而在jdk5以后提供的atomic包里的工具类可以很方便的提供这个原子操作。然而上面的四个准则应该漏了一点,即释放锁的线程(进程)和得到锁的线程(进程)应该是同一个,就像一把钥匙对应一把锁(理想的),所以一个非常简单的lock类可以这么实现:
一个简单的测试方法:
然而这个spinlock其实并不需要state这个字段,因为owner的赋值与否也是一种状态,因而可以用它作为一种互斥状态:
这在操作系统中被定义为整形信号量,然而整形信号量如果没拿到锁会一直处于“忙等”状态(没有遵循有限等待和让权等待的准则),因而这种锁也叫spin lock,在短暂的等待中它可以提升性能,因为可以减少线程的切换,concurrent包中的atomic大部分都采用这种机制实现,然而如果需要长时间的等待,“忙等”会占用不必要的cpu时间,从而性能会变的很差,这个时候就需要将没有拿到锁的线程放到等待列表中,这种方式在操作系统中也叫记录型信号量,它遵循了让权等待准则(当前没有实现有限等待准则)。在jdk6以后提供了locksupport.park()/locksupport.unpark()操作,可以将当前线程放入一个等待列表或将一个线程从这个等待列表中唤醒。然而这个park/unpark的等待列表是一个全局的等待列表,在unpartk的时候还是需要提供需要唤醒的thread对象,因而我们需要维护自己的等待列表,但是如果我们可以用jdk提供的工具类concurrentlinkedqueue,就非常容易实现,如locksupport文档中给出来的:
在该代码事例中,有一个线程等待队列和锁标记字段,每次调用lock时先将当前线程放入这个等待队列中,然后拿出队列头线程对象,如果该线程对象正好是当前线程,并且成功
使用cas方式设置locked字段(这里需要两个同时满足,因为可能出现一个线程已经从队列中移除了但还没有unlock,此时另一个线程调用lock方法,此时队列头的线程就是第二个线程,然而由于第一个线程还没有unlock或者正在unlock,因而需要使用cas原子操作来判断是否要park),表示该线程竞争成功,获得锁,否则将当前线程park,这里之所以要放在
while循环中,因为park操作可能无理由返回(spuriously),如文档中给出的描述:
简单起见,队列头是一个起点的placeholder,每个调用lock的线程都先将自己竞争放入这个队列尾,每个队列头后一个线程(node)即是获得锁的线程,所以我们需要有head node字段用以快速获取队列头的后一个node,而tail node字段用来快速插入新的node,所以关键在于如何线程安全的构建这个队列,方法还是一样的,使用cas操作,即cas方法将自己设置成tail值,然后重新构建这个列表:
在当前线程node以线程安全的方式放入这个队列后,lock实现相对就比较简单了,如果当前node是的前驱是head,该线程获得锁,否则park当前线程,处理park无理由返回的问题,因而将park放入while循环中(该实现是一个不可重入的实现):
unlock的实现需要考虑多种情况,如果当前node(head.next)有后驱,那么直接unpark该后驱即可;如果没有,表示当前已经没有其他线程在等待队列中,然而在这个判断过程中可能会有其他线程进入,因而需要用cas的方式设置tail,如果设置失败,表示此时有其他线程进入,因而需要将该新进入的线程unpark从而该新进入的线程在调用park后可以立即返回(这里的cas和enqueue的cas都是对tail操作,因而能保证状态一致):
具体的代码和测试类可以参考查看。
其实直到自己写完这个类后才直到者其实这是一个mcs锁的变种,因而这个实现每个线程park在自身对应的node上,而由前一个线程unpark它;而abstractqueuedsynchronizer是clh锁,因为它的park由前驱状态决定,虽然它也是由前一个线程unpark它。具体可以参考。