上善若水
in general the oo style is to use a lot of little objects with a lot of little methods that give us a lot of plug points for overriding and variation. to do is to be -nietzsche, to bei is to do -kant, do be do be do -sinatra
posts - 146,comments - 147,trackbacks - 0
学习在遇到解决问题中深入,经验在分析问题中成长。 ——引言

问题现象

当前项目是基于gemfire集群开发,然而我们偶尔会遇到一个节点掉出集群的情况。在分析问题过程中,我们发现在该节点(n1)掉出去之前发生了如下事件。
首先,n1最后的log时间在2015/07/23 06:25:35.544,并且直到2015/07/23 06:31:44.624(6分钟以后)在开始出现下一个log,接收到primary locator发出的机群中新的节点视图,处理primary locator给他的消息说它“failed to respond within ack-wait-threshold”。此时它想再向n2发起连接并发送数据时,虽然重连成功,但是n2已经认为它已经不在集群中了,因而拒绝它的请求,所以它自己退出了集群:
[warning 2015/07/23 06:31:46.872 edt #node1 name# #node2# shared=true ordered=true uid=27> tid=0x127] attempting tcp/ip reconnect to  #node2#
[info 2015/07/23 06:31:46.977 edt #node1 name# #node2# shared=true ordered=true uid=27> tid=0x127] successfully reconnected to member #node2#
[severe 2015/07/23 06:31:47.007 edt #node1 name# tid=0x4052] membership service failure: channel closed: com.gemstone.gemfire.forceddisconnectexception: this member has been forced out of the distributed system.  reason='this member is no longer in the view but is initiating connections'

而在这6分钟期间,n2和primary locator之间进行了如下交互:
在2015/07/23 06:27:07.587,primary locator发现n1在12,437ms内没有相应它的ack(view_ack_collection_timeout,默认12,437ms):
[warning 2015/07/23 06:27:07.587 edt #locator name# tid=0xc2] failed to collect all acks (22) for view [#primary locator#] after 12,437ms, missing acks from [#node1#]
并且在1分钟后,n2向primary locator报告n1没有响应了,因为n1在180s(ack-wait-threshold)内没有相应):
[info 2015/07/23 06:28:53.131 edt #locator name# tid=0x1f] received suspect notification for member(s) [#node1#] from #node2#.  reason=failed to respond within ack-wait-threshold
此时primary locator向n1发送一个are-you-dead验证消息,检查它是否真的没有响应了,并且在5127ms内n1还是没有响应,因而primary locator认为n1已经离开了集群:
[info 2015/07/23 06:28:58.389 edt #locator name# tid=0x2356] no suspect verification response received from #node1# in 5127 milliseconds: i believe it is gone.
此时primary locator向集群中的其他节点发送新的节点视图,并报告n1已经crash,并且把它从jgroup view中移除:
[info 2015/07/23 06:28:58.678 edt #locator name# tid=0xc2] membership: sending new view [[#primary locator#] [...,#node2#,...] crashed mbrs: [#node1#]] (21 mbrs)
[info 2015/07/23 06:28:58.781 edt #locator name#  tid=0x2e] member at #node1# unexpectedly left the distributed cache: departed jgroups view
而在n1开始有相应的时候,primary locator收到其他节点的消息说n1向他们发起连接,但是它依然向他们发起了连接,所以让primary locator把它移除:
[warning 2015/07/23 06:31:45.015 edt #locator name# tid=0x1f] membership: received request to remove #node1# from #node3#  reason=this member is no longer in the view but is initiating connections.
[warning 2015/07/23 06:31:45.108 edt #locator name# tid=0x1f] membership: received request to remove #node1# from #node4#  reason=this member is no longer in the view but is initiating connections.

问题分析

开始我们一直觉得这是网络的问题,因为n1不可能在3分钟内没有给n2响应,并且当locator向它询问are-you-dead的时候它还是没有相应,而在当前这个case下,它竟然有6分钟没有相应,那么长的时间里这个节点会处理什么事情呢?因而我们用了各种工具查网络在出问题的那个点上的情况,有没有中断、包丢失之类的,然而一无所获,直到我们从gc的日志中找到了这句话:
2015-07-23t06:25:43.548-0400: [gc [parnew (promotion failed): 943744k->943744k(943744k), 3.9544520 secs][cms2015-07-23t06:31:11.405-0400: [cms-concurrent-sweep: 327.407/334.829 secs] [times: user=8.42 sys=1.77, real=334.78 secs]
(concurrent mode failure): 8881917k->1234174k(9437184k), 357.1201510 secs] 9645662k->1234174k(10380928k), [cms perm : 67582k->63968k(111848k)], 361.0747320 secs] [times: user=10.25 sys=1.59, real=361.02 secs]

要不是亲眼所见,我真不敢相信gc会用掉6分多钟的时间!!自己之前也有看过gc相关的书籍,但是一直觉得gc很快(估计是看的不够多),因而并没有引起很大的重视,然后我去翻了一下以前gc的日志,发现我们它不是一个可以随便忽略的操作,即使是parnew gc都有可能花费7s的时间!!而且平时也一般都在二三十毫秒的数量级(这是我们的测试环境,生产环境的性能要好很多,基本在几个毫秒的级别)。
2015-07-23t05:47:05.774-0400: [gc [parnew: 943744k->75951k(943744k), 7.4119250 secs] 8202594k->7383241k(10380928k), 7.4120460 secs] [times: user=0.31 sys=0.06, real=7.41 secs
2015-07-23t05:51:54.529-0400: [gc [parnew: 914863k->80478k(943744k), 0.0272180 secs] 8222153k->7387768k(10380928k), 0.0273280 secs] [times: user=0.13 sys=0.00, real=0.02 secs] 
2015-07-23t05:59:54.278-0400: [gc [parnew: 919390k->53806k(943744k), 0.0572200 secs] 8226680k->7361097k(10380928k), 0.0573110 secs] [times: user=0.19 sys=0.00, real=0.06 secs] 
2015-07-23t06:07:41.663-0400: [gc [parnew: 892718k->42574k(943744k), 1.8347990 secs] 8200009k->7387109k(10380928k), 1.8348970 secs] [times: user=0.30 sys=0.06, real=1.84 secs
而cms的cms-concurrent-sweep gc经常要花费10s 的时间,虽然这不是一个stw(stop the world)操作,但是这个时间也是已经很长了,会影响整体性能(它需要耗费cpu,我们当前设置4个cpu做gc)。

问题解决

要减少gc的停顿时间,我觉得可以从三个方向入手:

  1. 最直观的当然是减少一个进程的总内存大小。
  2. 调节jvm的参数,减少gc的停顿时间,避免full gc。
  3. 减少类的创建,进而减少gc次数,避免full gc。

然而在我们的系统中gc花费那么长的时间,当然是和我们的内存大小设置有关系,因为我们的数据节点每个内存大小10g,其中young gen:1g,perm gen:200m,old gen:~9g,因而做一次full gc当然是比较费时间的。所以一种最简单的做法当然是减少内存,然而减少一个数据节点的内存意味着我们需要增加节点的个数,不然无法保证gemfire集群能存下所有的数据,而增加节点个数又会带来新的问题,如增加运帷难度,节点出错的概率提高,提高集群的通信成本,增加metadata的存储空间等,因而这个目前不是好的方向。所以我们只能寻求2和3的方案。

调节jvm的参数

当前gemfire节点退出集群问题的直接原因是因为parnew gc promotion失败,从而引起cms gc,然而cms gc又产生concurrent mode failure,进而引起stw(stop the world)的full gc引起的,因而比较直接的方案就是调节jvm的参数,以减少gc停顿时间,并且尽量避免full gc,即方案2。对jvm参数调节首先可以从选择不同的gc收集器开始,如对young gen的serial、parnew、parallel scavenge,对old gen的cms、serial old(msc)、parallel old,或者是直接用g1,我们目前使用parnew cms,已经使用多年,而且老板属于保守型,这条路也基本走不通,因而这里只介绍parnew cms的gc。

parnew收集器调节

对parnew收集器,它是serial收集器的多线程版本,使用复制算法,由于每次gc的存活对象很少,因而它使用两个survivor和一个eden实现,默认情况下survivor和eden的比例是1:8,因而这里可以调节的参数有young gen的总大小(-xx:newsize=1024m -xx:maxnewsize=1024m),survivor和eden的比例(-xx:survivorratio=8),收集线程数(-xx:parallelgcthreads,默认与cpu数量相同),对对象大小超过一定数值的直接晋升到老年代(-xx:pretenuresizethreshold,无默认值),设置晋升到老年代的年龄(-xx:maxtenuringthreshold,默认15),开启promotion失败的担保(-xx: handlepromotionfailure,1.6默认开启)。在我们的设置中,young gen的总大小和最大大小设置为一样(1g)以减少动态分配的开销,然而在观察中发现102.4m的survivor大小有些时候并不足以存放所有的存活对象,因而可以适当增加young gen的大小:
2015-07-23t05:25:57.260-0400: [gc [parnew: 932867k->104832k(943744k), 0.3366410 secs] 7881112k->7169555k(10380928k), 0.3367350 secs] [times: user=0.59 sys=0.01, real=0.34 secs] 
如该gc日志显示有young gen内存从932867k降到104832k(102.375m),减少828035k,然而实际内存从7881112k下降到7169555k,只减少了711557k,即有116478k的对象直接晋升到了old gen(这些对象有部分可能是已经到了晋升的年龄,然而由于minor gc后survivor几乎满了,因而基本可以确定有部分对象并没有到达晋升年龄而直接晋升了)。
在观察parnew gc的日志后,我发现大部分情况user和real的时间保持在1:1到5:1之间,然而其实我们有8个cpu,即8个cpu并没有很好的发生作用,反而因为线程交互开销而影响了它的性能,因而可以设置4个线程来回收;另外,通过日志我还发现有些时候real的时间要远远超过user的时间:
2015-07-23t05:47:05.774-0400: [gc [parnew: 943744k->75951k(943744k), 7.4119250 secs] 8202594k->7383241k(10380928k), 7.4120460 secs] [times: user=0.31 sys=0.06, real=7.41 secs
2015-07-23t06:21:44.474-0400: [gc [parnew: 897098k->87972k(943744k), 0.0572610 secs] 8806476k->7997350k(10380928k), 0.0573410 secs] [times: user=0.33 sys=0.00, real=0.05 secs] 
2015-07-23t06:21:45.974-0400: [gc [parnew: 926884k->104832k(943744k), 2.4767030 secs] 8836262k->8033953k(10380928k), 2.4767970 secs] [times: user=0.66 sys=0.06, real=2.47 secs] 
2015-07-23t06:21:49.870-0400: [gc [parnew: 943744k->104832k(943744k), 4.4340200 secs] 8872865k->8058383k(10380928k), 4.4341130 secs] [times: user=0.52 sys=0.06, real=4.44 secs
2015-07-23t06:21:55.408-0400: [gc [parnew: 943744k->104832k(943744k), 3.3951690 secs] 8897295k->8084732k(10380928k), 3.3952610 secs] [times: user=0.78 sys=0.09, real=3.39 secs] 
2015-07-23t06:21:59.836-0400: [gc [parnew: 943744k->104832k(943744k), 8.0761790 secs] 8923644k->8137862k(10380928k), 8.0762750 secs] [times: user=0.73 sys=0.10, real=8.07 secs] 
2015-07-23t06:22:09.037-0400: [gc [parnew: 943744k->104832k(943744k), 14.2921950 secs] 8976774k->8205723k(10380928k), 14.2923060 secs] [times: user=1.54 sys=0.12, real=14.29 secs
2015-07-23t06:22:24.289-0400: [gc [parnew: 943744k->104832k(943744k), 3.4770350 secs] 9044635k->8223741k(10380928k), 3.4771560 secs] [times: user=0.26 sys=0.05, real=3.47 secs] 
2015-07-23t06:22:38.464-0400: [gc [parnew: 943744k->104832k(943744k), 0.8620630 secs] 9062653k->8225897k(10380928k), 0.8621870 secs] [times: user=0.21 sys=0.01, real=0.86 secs] 
2015-07-23t06:22:40.993-0400: [gc [parnew: 943744k->60810k(943744k), 0.0665070 secs] 9064809k->8181875k(10380928k), 0.0665910 secs] [times: user=0.25 sys=0.00, real=0.06 secs] 
这里大部分survivor不足以存放所有的存活对象,然而并不是所有的,如第一条就不是,对这个我一直很纳闷,在网上也没有找到非常可能的答案,但是大概看起来比较靠谱,简单来说,就是当时有很多page faults,这个也符合我们当时的情况,因为这台机器原本内存不是那么足,因而偶尔会出现内存swap,而且在这种情况下,所有的sys时间相对都比较长,也是一个佐证;另外也有人解释说parnew在,因而需要等待到达safepoint,这个貌似不太像我们遇到的情况,因为我们没有使用外部的jni,如果内部自己的jni应该不至于有那么大的影响(但是这个点正好说明我们使用jni的时候要非常小心,如果有函数运行时间太长会影响jvm的稳定性,甚至让jvm没有响应,因为它在gc的时候要等这个长时间的jni方法结束,或到达safepoint。更正:对safepoint有这样的解释:a point during program execution at which all gc roots are known and all heap object contents are consistent. from a global point of view, all threads must block at a safepoint before the gc can run. (as a special case, threads running jni code can continue to run, because they use only handles. during a safepoint they must block instead of loading the contents of the handle.) from a local point of view, a safepoint is a distinguished point in a block of code where the executing thread may block for the gc. most call sites qualify as safepoints. there are strong invariants which hold true at every safepoint, which may be disregarded at non-safepoints. both compiled java code and c/c code be optimized between safepoints, but less so across safepoints. the jit compiler emits a gc map at each safepoint. c/c code in the vm uses stylized macro-based conventions (e.g., traps) to mark potential safepoints.,所以看起来这个论断是有问题的)。parnew暂停的时间都比较短,而且在大部分情况下,或者在其他内存够用的集群中我们没有遇到那么久的gc时间,因而基本不需要过多调节,所以其他都保持了它的默认值。
更正:前几天我们再次发现parnew gc用去186.63s:
2015-08-07t14:57:22.317 0100: [gc[parnew: 845794k->88289k(943744k), 186.6537260 secs] 6808480k->6087745k(10380928k), 186.6540490 secs][times: user=1703.17 sys=194.13, real=186.63 secs]
通过一些系统工具,我们发现在问题发生的时候,当时那台机器有26%左右的swap内存,并且有很高的page fault,因而我们基本能肯定这是内存数据被换出到swap然后在gc的时候产生page fault引起的。并且在还提及到了swap中每4kb数据会增加10ms的gc时间:
a very high sys time suggests the os is struggling with the application. i would make sure there is no chance the application has been partially swapped to disk as it must be completely in main memory for the gc to run is a reasonable time. every 4 kb swapped to disk and add 10 ms to the gc time.
因而我们基本能肯定发生那么长的时间就是因为内存swap引起的,据说在cassandra调优时有些直接把虚拟内存禁掉,以防出现类似的问题。

cms收集器调节

重点当然是要调节cms收集器,即要避免它在收集时停顿过长,更要避免产生promotion failed和concurrent mode failure的情况,因为这两种情况发生后都会引起cms做stop-the-world gc,其中第二中情况在做gc时还会做整理(compact),因而会有更久的停顿,而我们这次是两种情况同时遇到了。要避免这两种情况的发生需要先理解为什么会发生这两种情况。

首先,我们来看看promotion failed发生的情况:
我们知道当对象到一定的年龄,或者在某次回收过程中一个survivor无法装下所有存活的对象,或者一个对象的大小超过-xx:pretenuresizethreshold设置的值,就会被promote到old gen中,而在promote过程中如果old gen无法装下所有的内存时就会产生promotion failed(说cms是根据预估的值:modern cms collector estimates size of objects to be promoted using statistics from previous collections. if old space does not have enough free bytes to hold estimated promotion amount, concurrent mode failure will be raise.但是我的理解是这是parnew做的gc,为什么由cms来预估?所以应该是parnew把需要promote的对象传递给cms,然后cms做预估决定是否有足够多的内存存放这些新promote的对象),此时就会先做一遍cms gc,然后将新promote的对象存放到old gen中,由于这属于parnew gc的范围,因而这次的cms gc依然处于stw状态,因而这会花比较久的时间。如这次的parnew gc,花费5.75s:
2015-07-20t08:23:00.028-0400: [gc [parnew (promotion failed): 844305k->841244k(943744k), 0.2358120 secs][cms: 6282619k->1891959k(9437184k), 5.5098940 secs] 7126660k->1891959k(10380928k), [cms perm : 67716k->66078k(112860k)], 5.7458460 secs] [times: user=4.77 sys=0.02, real=5.75 secs]

2015-07-20t08:23:06.532-0400: [gc [parnew: 838912k->7606k(943744k), 0.0063650 secs] 2730871k->1899566k(10380928k), 0.0065380 secs] [times: user=0.03 sys=0.00, real=0.01 secs]

我们当前的设置:-xx:cmsinitiatingoccupancyfraction=79 -xx: usecmsinitiatingoccupancyonly,也就是只有到old gen占用79%后才会触发cms gc,这里只占66.57%,因而还没能触发cms gc,然而此时parnew gc只回收了3061k的对象,还有841244k的对象存活,而一个survivor只有104857.6k大小,此时需要promote大概736386.4k大小的数据到old gen中,此时old gen还有(9437184k-6282619k=3154565k)大小的内存,虽然远远大于被promote的对象,但是我们知道cms采用标记-清除(mark-sweep)算法,而不主动整理(compact),但是它在每次回收时会合并相邻的内存空间,然而跑久了难免会产生内存碎片,也就是说此时内存碎片已经很多了,无法容纳新promote的对象,要不就是新promote的对象大小太大,或者碎片太小,因而需要出发一次cms gc来释放一些空间(此时发生的cms是不是已经退化成serial old收集器算法了?即在收集的过程还是整理?),以保证能存放下所有新promote出的对象。这里gc日志中并没有显示出什么这次parnew gc后,young gen还剩下多少内存,但是根据下一次parnew gc的初始大小是838912k,小于之前存活下来的对象(841244k),因而我们可以确定这次gc的结果是把多余的对象promtoe到old gen中了。
所以根据分析,我们可以从两个方向调节参数:
1. 降低cms gc的阈值。
2. 提前减少old gen中的碎片,即让cms gc做整理。
对降低cms gc阈值,我们可以调节参数:-xx:cmsinitiatingoccupancyfraction,默认大小68,我们可以将它设置成60。对提前减少old gen的碎片,这个比较麻烦,我们不想每次cms gc都做整理(compact),因而这会比较浪费,会增加gc总体的时间以及停顿的时间,而且也比较危险,因为万一某次整理时间太长会引起集群的不稳定(可以设置-xx:usecmscompactatfullcollection来实现这个功能)。还有一种办法是设置每经历n次cms后做一次整理,通过-xx:cmsfullgcsbeforecompaction=来设置,这个相对可以接受一些。当然如果能找到一个相对空闲的时间手动触发一次full gc,并且确保让它能触发整理(这个目前还没有找到合适的方法,jconsole提供的gc按钮是一个可选项,但是不确定。我做了一下尝试:

2015-07-31t16:04:49.183 0800: [full gc (system) [cms: 3861443k->1072505k(9437184k), 2.9535440 secs] 4458634k->1072505k(10380928k), [cms perm : 68183k->67112k(112880k)], 2.9537000 secs] [times: user=2.94 sys=0.00, real=2.95 secs]
看起来是减少了不少内存,按日志的格式,看起来像是serial old的算法?另外,使用这个功能要确保-xx:-disableexplicitgc是关闭的,虽然这就是默认值)。

值得注意的是,promotion failed的情况也可以产生很长的停顿,这里我们看到总的时间是378.38s,user的时间只有5.56s,而sys的时间高达1.80s,看起来和parnew长时间停顿的情况类似,即产生了对象换出到虚拟内存了?
2015-07-22t08:20:04.712-0400: [gc [parnew (promotion failed): 842147k->839927k(943744k), 0.2343990 secs][cms: 7382737k->1921345k(9437184k), 378.2061130 secs] 8224802k->1921345k(10380928k), [cms perm : 67406k->66061k(112260k)], 378.4406520 secs] [times: user=5.56 sys=1.80, real=378.38 secs]


关于产生promotion failed,还有更详细的解释,如涉及到plab(promotion local allocation buffer)的介绍等,以及这里是对它的。值得注意的是,cms在管理内存中使用空闲列表的方式,然而这种方式可能会存在某些问题,如这句话所说(具体就不展开了):
cms memory manager is using separate free lists for different size of chunks. using these free lists, it can effectively fill small holes in fragmented memory space with objects of exact size. this technique is known to be fairly effective (and widely used in c/c memory managers). but, surprisingly, it doesn't seems to work well for jvm in many real live situations.


然后,再来看看concurrent mode failure的情况:
依然是,作者说concurrent mode failure是在young gc发生前,它会预估old gen是否有足够的空间存放从young gen中promote上来的对象,cms收集器根据之前统计来预估这些对象的大小,如果old gen没有足够的空间存放这个预估的值,就会发生concurrent mode failure。此时不一定会产生full gc,有些时候jvm只是等待当前并行收集完成,但是用户程序此时还是会stw直到这次收集技术。
at beginning  of each young gc, collector should ensure that there is enough free memory in old space to promote aged objects from young space. modern cms collector estimates size of objects to be promoted using statistics from previous collections. if old space does not have enough free bytes to hold estimated promotion amount, concurrent mode failure will be raise. concurrent mode failure doesn't necessary lead to full gc, in certain cases jvm will just wait for concurrent collection cycle to finish, but application will remain in stw pause until young collection will be finished.

然而根据我的观察,concurrent mode failure都是发生在cms已经开始,但是在中间阶段,出现parnew的promotion failed。
如这是发生在cms-concurrent-abortable-preclean阶段

2015-07-19t06:17:04.919-0400: [gc [1 cms-initial-mark: 7612366k(9437184k)] 7726317k(10380928k), 0.0208180 secs] [times: user=0.02 sys=0.01, real=0.02 secs] 
2015-07-19t06:17:05.275-0400: [cms-concurrent-mark: 0.334/0.334 secs] [times: user=1.62 sys=0.02, real=0.33 secs] 
2015-07-19t06:17:05.294-0400: [cms-concurrent-preclean: 0.019/0.019 secs] [times: user=0.04 sys=0.00, real=0.02 secs] 
2015-07-19t06:17:05.936-0400: [gc [parnew (promotion failed): 943744k->943744k(943744k), 0.2429280 secs][cms2015-07-19t06:17:06.239-0400: [cms-concurrent-abortable-preclean: 0.493/0.945 secs] [times: user=1.54 sys=0.06, real=0.95 secs] 
 (concurrent mode failure): 7747387k->1603792k(9437184k), 5.4145810 secs] 8556110k->1603792k(10380928k), [cms perm : 65203k->63169k(108704k)], 5.6576200 secs] [times: user=4.66 sys=0.01, real=5.66 secs] 
这是parnew发生时,cms-concurrent-preclean结束不久,此时parnew花费0.2429280s完成,想premote一些对象而失败,因而cms在06:17:06.239完成步骤:cms-concurrent-abortable-preclean,然而这个步骤结束后,依然无法容纳promote上来的对象,所以需要做一个full gc,完成以后old gen内存从7747387k下降到1603792k,总内存从8556110k下降到1603792k,即将所有young gen中存活的对象放到了old gen中了。

这是发生在cms-concurrent-sweep阶段

2015-07-23t06:25:36.290-0400: [cms-concurrent-preclean: 19.091/174.559 secs] [times: user=53.37 sys=3.66, real=174.53 secs] 
2015-07-23t06:25:36.525-0400: [cms-concurrent-abortable-preclean: 0.133/0.235 secs] [times: user=0.37 sys=0.00, real=0.24 secs] 
2015-07-23t06:25:36.526-0400: [gc[yg occupancy: 719822 k (943744 k)][rescan (parallel) , 0.0487460 secs][weak refs processing, 0.0002160 secs] [1 cms-remark: 8636790k(9437184k)] 9356613k(10380928k), 0.0490460 secs] [times: user=0.32 sys=0.00, real=0.05 secs] 
2015-07-23t06:25:38.022-0400: [gc [parnew: 942035k->104832k(943744k), 3.4626740 secs] 9571668k->8831757k(10380928k), 3.4627820 secs] [times: user=0.35 sys=0.07, real=3.47 secs] 
2015-07-23t06:25:43.548-0400: [gc [parnew (promotion failed): 943744k->943744k(943744k), 3.9544520 secs][cms2015-07-23t06:31:11.405-0400: [cms-concurrent-sweep: 327.407/334.829 secs] [times: user=8.42 sys=1.77, real=334.78 secs] 
 (concurrent mode failure): 8881917k->1234174k(9437184k), 357.1201510 secs] 9645662k->1234174k(10380928k), [cms perm : 67582k->63968k(111848k)], 361.0747320 secs] [times: user=10.25 sys=1.59, real=361.02 secs] 

这里基本和上面类似,parnew在06:25:43.548结束,花费3.9544520s发现promotion failed,启动cms gc,但在327.407s(从parnew开始算起)完成cms-concurrent-sweep后还是无法存放promote上来的对象,而发生concurrent mode failure,然后开始整理以容纳promote的对象,花费20s左右时间,最后做perm gc,花费4s左右。这里cms-concurrent-sweep之所以要花费327.407s的时间,应该还是和page faults相关吧?

这是发生在cms-concurrent-mark阶段:

2015-07-17t03:21:28.701-0400: [gc [1 cms-initial-mark: 7598316k(9437184k)] 7703150k(10380928k), 1.5896460 secs] [times: user=0.02 sys=0.00, real=1.59 secs] 
2015-07-17t03:22:16.910-0400: [gc [parnew (promotion failed): 943744k->943744k(943744k), 7.5542170 secs][cms2015-07-17t03:22:26.210-0400: [cms-concurrent-mark: 32.098/55.919 secs] [times: user=32.19 sys=1.54, real=55.91 secs] 
 (concurrent mode failure): 8270889k->1474450k(9437184k), 27.2265650 secs] 9074498k->1474450k(10380928k), [cms perm : 64992k->63114k(108020k)], 34.7809080 secs] [times: user=6.10 sys=0.21, real=34.78 secs] 

这里的问题类似,不赘述。

这是另一种情况下发生在cms-concurrent-abortable-preclean阶段:
2015-07-23t06:24:47.450-0400: [gc [1 cms-initial-mark: 3938781k(5973632k)] 3998846k(6126976k), 0.0030340 secs] [times: user=0.00 sys=0.00, real=0.00 secs] 
2015-07-23t06:24:47.546-0400: [cms-concurrent-mark: 0.093/0.093 secs] [times: user=0.27 sys=0.01, real=0.09 secs] 
2015-07-23t06:24:47.559-0400: [cms-concurrent-preclean: 0.013/0.013 secs] [times: user=0.03 sys=0.00, real=0.02 secs] 
2015-07-23t06:24:47.665-0400: [gc [parnew2015-07-23t06:24:47.675-0400: [cms-concurrent-abortable-preclean: 0.012/0.116 secs] [times: user=0.16 sys=0.02, real=0.11 secs] 
 (promotion failed): 133502k->140562k(153344k), 0.0393600 secs][cms (concurrent mode failure): 3948765k->479672k(5973632k), 1.9491860 secs] 4072283k->479672k(6126976k), [cms perm : 62974k->62509k(108776k)], 1.9886830 secs] [times: user=0.62 sys=0.00, real=1.99 secs] 

这里parnew发生时正在执行cms-concurrent-abortable-preclean,而在结束时发生promotion failed,同时因为碎片问题发生concurrent mode failure,因而出现full gc。


concurrent mode failure除了和promotion failed同时发生,我在想会不会出现这样的场景:cms整个生命周期分成多个步骤,在这个过程中由于有其他新增的内存需要分配,但是没有足够多的空间分配,因而产生concurrent mode failure的情况呢?这个在之前出现oom的时候找到过一个类似的,虽然它之前是因为parnew promotion failed,产生full gc,然后在full gc过程中发生的。即如果是这种情况,一般代表内存不够用,需要增加内存空间。
2015-07-30t11:12:38.469 0900: [gc [parnew (promotion failed): 941415k->941415k(943744k), 0.0385590 secs] 9771224k->9867504k(10380928k), 0.0387350 secs] [times: user=0.38 sys=0.00, real=0.04 secs]
gc locker: trying a full collection because scavenge failed
2015-07-30t11:12:38.508 0900: [full gc [cms2015-07-30t11:12:38.685 0900: [cms-concurrent-sweep: 0.863/0.911 secs] [times: user=5.14 sys=0.32, real=0.91 secs]
 (concurrent mode failure): 8926088k->8485034k(9437184k), 5.7188070 secs] 9867504k->8485034k(10380928k), [cms perm : 65574k->65559k(110780k)], 5.7189380 secs] [times: user=5.70 sys=0.00, real=5.71 secs]


虽然分析了那么多,还有一个疑问没能解决,对这个问题的调节方法还是一样的:1. 降低cms gc的阈值;2. 提前减少old gen中的碎片,即让cms gc做整理。这里不再赘述。

最后,我们可以看看其他的调节方式:
1. 我们知道cms收集器很多过程是并发进行的,因而我们可以控制并发线程的个数:-xx:parallelcmsthreads=4,我们采用的值是4,和parnew相同。cms默认的回收线程数是(cpu个数 3)/4。
2. 在历史上还出现过增量式并发收集器(incremental concurrent mark sweep,i-cms)。因为对少于4个cpu的时候,如果gc占用一般左右的cpu资源,会影响用户线程的吞吐量,因而增量式并发收集器的思想是在并发标记和并发清理时让用户线程和gc线程交替运行以减少gc占用太多的资源,特别是在只有一个cpu的情况下,即使在cms并发阶段,还是会产生stw的现象,因而可以使用i-cms来避免这种情况。然而i-cms已经不再推荐使用,具体可以参考。大概的原因是现在已经很少只有一个cpu的硬件了,而且i-cms在线程切换时会花费更多的资源和时间,它更加复杂,有更多的参数,难以调节,会产生更多的碎片。

3. 可以简单介绍一下cms的整个过程(还可以参考,或者,虽然这里用的例子是1.4.2的版本,我用的是1.6.30,会有一些区别)。以一个正常的cms为例:

2015-07-21t22:17:20.667-0400: [gc [1 cms-initial-mark: 7462216k(9437184k)] 7583692k(10380928k), 0.0223830 secs] [times: user=0.02 sys=0.00, real=0.03 secs] 
2015-07-21t22:17:21.055-0400: [cms-concurrent-mark: 0.365/0.365 secs] [times: user=1.75 sys=0.03, real=0.36 secs] 
2015-07-21t22:17:21.075-0400: [cms-concurrent-preclean: 0.020/0.020 secs] [times: user=0.04 sys=0.00, real=0.02 secs] 
2015-07-21t22:17:23.851-0400: [cms-concurrent-abortable-preclean: 1.586/2.776 secs] [times: user=5.60 sys=0.10, real=2.78 secs] 
2015-07-21t22:17:23.852-0400: [gc[yg occupancy: 679011 k (943744 k)][rescan (parallel) , 0.1319540 secs][weak refs processing, 0.0001560 secs] [1 cms-remark: 7511697k(9437184k)] 8190709k(10380928k), 0.1321850 secs] [times: user=0.46 sys=0.01, real=0.13 secs] 
2015-07-21t22:17:30.242-0400: [cms-concurrent-sweep: 6.004/6.258 secs] [times: user=11.89 sys=0.17, real=6.26 secs] 
2015-07-21t22:17:30.261-0400: [cms-concurrent-reset: 0.018/0.018 secs] [times: user=0.04 sys=0.00, real=0.02 secs] 

1 cms-initial-mark:初始标记标记阶段,stw,cms起始点,标记所有root对象直接可达的对象,7462216k是cms触发时old gen的内存大小,7583692k是old gen+young gen的内存大小。
cms-concurrent-mark:重新标记阶段,和用户线程同时处理,遍历初始标记出来的对象的所有直接或间接可达对象。cpu时间0.365s,总共0.365s(wall time)。这里times时间不是那么准确,因为起于该阶段的开始,但是中间可能包含其他的事情,如用户线程的执行影响等

cms-concurrent-preclean:preclean阶段,这个阶段依然和用户线程同时处理,它会继续查看在重新标记阶段新产生的对象:从young gen promote上来的对象,新分配的对象,或被修改的对象。这个阶段主要用于减少下一次重新标记(remark)的时间,因为重新标记会stw。cpu时间0.020s,总共0.020s(wall time)。
cms-concurrent-abortable-preclean:可中断的preclean阶段,和用户线程同时处理,当preclean已经结束的时候就可以开始remark了,然而如果这样设计,由于cms-concurrent-preclean和用户线程一起运行,当它结束的时候,young gen已经使用了很多了,但是这里面有很多是可以回收的,为了提升效率就可以先parnew gc回收掉多余的对象,然后就会接着执行remark,就可以减少remark的时间;而如果young gen使用的很少,就可以立即启动remark过程;而如果介于之间,就可以先等待一会让eden占用一些空间后再启动remark,从而将parnew gc的stw和remark的stw错分开。因而cms的设计者就想出remark的执行时机还依赖于eden的使用情况(因为新对象总是先分配到eden空间),即通过两个变量来控制:cmsscheduleremarkedensize和cmsscheduleremarkedenpenetration,它们的默认值分别是2m和50%,表示在cms-concurrent-preclean结束后,如果eden只使用了少于2m,则直接启动remark;如果超过2m,但没有超过50%,则先启动cms-concurrent-abortable-preclean,直到eden的使用率超过了50%,然后启动remark过程,这样就保证了remark和parnew gc中间会有一定的时间间隔;如果已经超过了50%,就等待下次parnew gc完成,然后再做remark?貌似只有这样才能解释的通这些日志,当remark阶段准备好后它可以随时被中断,它的中断不是错。如这种日志:

2015-06-16t03:15:21.471-0400: [cms-concurrent-preclean: 0.030/0.031 secs] [times: user=0.05 sys=0.00, real=0.03 secs] 
 cms: abort preclean due to time 2015-06-16t03:15:26.659-0400: [cms-concurrent-abortable-preclean: 3.351/5.187 secs] [times: user=3.50 sys=0.04, real=5.19 secs] 
2015-06-16t03:15:26.659-0400: [gc[yg occupancy: 561249 k (943744 k)][rescan (parallel) , 0.1650010 secs][weak refs processing, 0.0000680 secs] [1 cms-remark: 7465008k(9437184k)] 8026257k(10380928k), 0.1651410 secs] [times: user=0.52 sys=0.00, real=0.16 secs] 

这个日志表示preclean结束后,eden的空间在2m和50%之间,因而启动abortable-preclean阶段,直到4.84s后才因为eden超过50%后中断cms-concurrent-abortable-preclean,并开始remark,实际使用0.16s。

2015-07-03t08:15:21.840-0400: [cms-concurrent-preclean: 0.019/0.019 secs] [times: user=0.04 sys=0.00, real=0.02 secs] 
2015-07-03t08:15:22.605-0400: [gc [parnew2015-07-03t08:15:22.636-0400: [cms-concurrent-abortable-preclean: 0.693/0.795 secs] [times: user=1.30 sys=0.06, real=0.79 secs] 
: 943744k->104832k(943744k), 0.2089320 secs] 8446030k->7838840k(10380928k), 0.2090220 secs] [times: user=0.60 sys=0.01, real=0.21 secs] 
2015-07-03t08:15:22.815-0400: [gc[yg occupancy: 120239 k (943744 k)][rescan (parallel) , 0.0289020 secs][weak refs processing, 0.0001000 secs] [1 cms-remark: 7734008k(9437184k)] 7854247k(10380928k), 0.0290690 secs] [times: user=0.13 sys=0.00, real=0.03 secs] 

这个日志表示在cms-concurrent-preclean结束后,eden使用空间已经超过50%,所以启动abortable-preclean,并在155ms后启动parnew gc,在parnew停止31ms后停止cms-concurrent-abortable-preclean,而remark随后开始,经历30ms结束。

2015-07-30t12:06:22.199 0900: [cms-concurrent-preclean: 0.007/0.007 secs] [times: user=0.00 sys=0.00, real=0.01 secs]
2015-07-30t12:06:22.199 0900: [gc[yg occupancy: 2534 k (19136 k)][rescan (parallel) , 0.0016670 secs][weak refs processing, 0.0000110 secs] [1 cms-remark: 1984060k(3050752k)] 1986594k(3069888k), 0.0017300 secs] [times: user=0.03 sys=0.00, real=0.00 secs]

这个日志表示preclean结束后eden使用少于2m,因而跳过abortable-preclean,直接开始remark阶段。

1 cms-remark:重新标记阶段,stw,这里yg occupancy表示该阶段开始时young gen的大小,因为这个阶段的时间长短部分依赖于young gen的大小;rescan用于多线程扫描程序停止时存活的对象,花费0.1319540s;weak refs processing用于处理weak reference的情况,花费0.0001s,如果这个阶段花费太长时间,可以打开开关:-xx: parallelrefprocenabled来调节;然后开始重新标记,即重新从root对象遍历标记存活对象。
cms-concurrent-sweep:并发清理,和其他线程同时执行,做真正的清理工作,如把可以回收的内存放回空闲列表,合并相邻内存空间等。

cms-concurrent-reset:重置cms的状态用于下一次执行。

减少类的创建

减少类的创建就需要改代码,还要分析项目的特点,但是总体上可以有三个方向:

  1. 实实在在的减少不必要的类创建,如是否可以字段来缓存一个对象而不是每次在调用时都新建一个类,设置可以考虑用一些静态方法而不是实例类等。
  2. 将某些常用的对象缓存起来,每次都从缓存中拿对象而不是新建一个对象,甚至有些时候我们已经新创建了一个对象也要替换成缓存中的对象,这样新创建的对象就可以直接被回收,而在缓存中的对象很多时候会留在old gen中而不需要被回收。很多开源的项目中就有使用这个技术,如string的intern方式就是类似的设计,记得有些面试提会问new string("abc")创建了几个string对象,以及"abc"==string.valueof("abc")的问题等,但是有多少人直到这种现象的设计意图和内部原理呢?
  3. 自己管理对象的创建,即自己维护一个或多个buffer,然后自己管理和使用这些buffer,如jetty中的buffercache的实现。

后记

这篇博客写了一个多星期了,终于快收尾了。对于gc,所实话自己以前关注的并不多,一直觉得自己了解到的东西已经够用了,直到这次一个同事把我们项目中gemfire节点调出和gc的停顿时间联系起来,然后我突然感觉很多问题豁然开朗了。因而这一周潜心读了很多相关文章来完成这篇博客。其实还有很多可以说的,或者自己不了解的,这些只能留待以后慢慢补充,但是经历这个事件后,发现自己对gc的了解和一些设计思想提升了一个档次,记之。

参考:

《深入理解java虚拟机-jvm高级特性与最佳实践》
promotion failed/concurrent mode failure explain:
http://blog.ragozin.info/2011/10/java-cg-hotspots-cms-and-heap.html
promotion buffers explain: http://blog.ragozin.info/2011/11/java-gc-hotspots-cms-promotion-buffers.html
i-cms not recommended: https://blogs.oracle.com/jonthecollector/entry/really_icms_really
jvm options: http://stas-blogspot.blogspot.hk/2011/07/most-complete-list-of-xx-options-for.html
jvm options: http://www.oracle.com/technetwork/articles/java/vmoptions-jsp-140102.html
cms gc log(jdk 1.8.0-ea): https://blogs.oracle.com/jonthecollector/entry/the_unspoken_cms_and_printgcdetails
cms gc log(jdk 1.4.2): https://blogs.oracle.com/poonam/entry/understanding_cms_gc_logs
gc log parser code:https://java.net/projects/gchisto
cms介绍:https://docs.oracle.com/javase/8/docs/technotes/guides/vm/gctuning/cms.html
jvm调优的“标准参数”的各种陷阱:http://hllvm.group.iteye.com/group/topic/27945
hotspot glossary: http://openjdk.java.net/groups/hotspot/docs/hotspotglossary.html

其他相关或不相关的:
https://blogs.oracle.com/jonthecollector/entry/when_the_sum_of_the
https://plumbr.eu/blog/garbage-collection/minor-gc-vs-major-gc-vs-full-gc
https://blogs.oracle.com/poonam/entry/troubleshooting_long_gc_pauses
http://blog.sokolenko.me/2014/11/javavm-options-production.html
http://hllvm.group.iteye.com/group/topic/42365
http://www.blogjava.net/chhbjh/archive/2012/01/28/368936.html
http://wenku.baidu.com/view/c8eb5f67caaedd3383c4d376.html
http://wenku.baidu.com/view/02b2c71255270722192ef7b8.html
http://wenku.baidu.com/view/cda7b606bed5b9f3f90f1cc6.html
posted on 2015-08-01 03:02 dlevin 阅读(9669) 评论(0)     所属分类: 经验积累gcgemfire

只有注册用户后才能发表评论。


网站导航:
              
 
网站地图