blogjava-凯发k8网页登录http://www.blogjava.net/paulwong/category/49903.htmlzh-cnwed, 02 dec 2020 14:18:27 gmtwed, 02 dec 2020 14:18:27 gmt60java的bio和nio很难懂?用代码实践给你看,再不懂我转行!http://www.blogjava.net/paulwong/archive/2020/12/02/435737.htmlpaulwongpaulwongwed, 02 dec 2020 00:52:00 gmthttp://www.blogjava.net/paulwong/archive/2020/12/02/435737.htmlhttp://www.blogjava.net/paulwong/comments/435737.htmlhttp://www.blogjava.net/paulwong/archive/2020/12/02/435737.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/435737.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/435737.htmlhttp://www.52im.net/thread-2846-1-1.html



paulwong 2020-12-02 08:52
]]>
各种获取jvm dump的方法http://www.blogjava.net/paulwong/archive/2020/02/24/435157.htmlpaulwongpaulwongmon, 24 feb 2020 14:03:00 gmthttp://www.blogjava.net/paulwong/archive/2020/02/24/435157.htmlhttp://www.blogjava.net/paulwong/comments/435157.htmlhttp://www.blogjava.net/paulwong/archive/2020/02/24/435157.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/435157.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/435157.htmljvm 的线程堆栈 dump 也称 core dump,内容为文本,主要包含当时 jvm 的线程堆栈,堆 dump 也称 heap dump,内容为二进制格式,主要包含当时 jvm 堆内存中的内容。由于各个操作系统、各个 jvm 实现不同,即使同一 jvm 实现,各个版本也有差异,本文描述的方法都基于 64 位 linux 操作系统环境,java 8 oracle hotspot jvm 实现。

堆栈和堆的内容在定位问题的时候,都是非常重要的信息。线程堆栈 dump 可以了解当时 jvm 中所有线程的运行情况,比如线程的状态和当前正在运行的代码行。堆 dump 可以了解当时堆的使用情况,各个类实例的数量及各个实例所占用的空间大小。

blogjava-凯发k8网页登录

使用 jstack

jstack 是 jdk 自带的工具,用于 dump 指定进程 id(pid)的 jvm 的线程堆栈信息。

# 打印堆栈信息到标准输出 jstack pid  
# 打印堆栈信息到标准输出,会打印关于锁的信息 jstack -l pid  
强制打印堆栈信息到标准输出,如果使用 jstack pid 没有响应的情况下(此时 jvm 进程可能挂起),
加 -f 参数 jstack -f pid 

使用 jcmd

jcmd 是 jdk 自带的工具,用于向 jvm 进程发送命令,根据命令的不同,可以代替或部分代替 jstack、jmap 等。可以发送命令 thread.print 来打印出 jvm 的线程堆栈信息。

# 下面的命令同等于 jstack pid 
jcmd pid thread.print  

# 同等于 jstack -l pid 
jcmd pid thread.print -l 

使用 kill -3

kill 可以向特定的进程发送信号(signal),缺省情况是发送终止(term) 的信号 ,即 kill pid 与 kill -15 pid 或 kill -term pid 是等价的。jvm 进程会监听 quit 信号(其值为 3),当收到这个信号时,会打印出当时的线程堆栈和堆内存使用概要,相比 jstack,此时多了堆内存的使用概要情况。但 jstack 可以指定 -l 参数,打印锁的信息。

kill -3 pid 
# 或 kill -quit pid 

-xx: heapdumponoutofmemoryerror

添加 jvm 参数 -xx: heapdumponoutofmemoryerror 后,当发生 oom(outofmemory)时,自动堆 dump。缺省情况下,jvm 会创建一个名称为 java_pidpid.hprof 的堆 dump 文件在 jvm 的工作目录下。但可以使用参数 -xx:heapdumppath=path 来指定 dump 文件的保存位置。

# jvm 发生 oom 时,会自动在 /var/log/abc 目录下产生堆 dump 文件 java_pidpid.hprof 
java -xx: heapdumponoutofmemoryerror -xx:heapdumppath=/var/log/abc/ 

jmap

jmap 也是 jdk 自带的工具,主要用于获取堆相关的信息。

堆 dump

# 将 jvm 的堆 dump 到指定文件,如果堆中对象较多,需要的时间会较长,子参数 format 只支持 b,
即二进制格式
jmap -dump:format=b,file=file_with_path

# 如果 jvm 进程未响应命令,可以加上参数 -f 尝试
jmap -f -dump:format=b,file=file_with_path

# 可以只 dump 堆中的存活对象,加上 live 子参数,但使用 -f 时不支持 live
jmap -dump:live,format=b,file=file_with_path

获取堆概要信息

# -heap 参数用于查看指定 jvm 进程的堆的信息,包括堆的各个参数的值,堆中新生代、年老代的内存大小、使用率等 
jmap -heap pid  

# 同样,如果 jvm 进程未响应命令,可以加上参数 -f 尝试 
jmap -f -heap pid 

一个实例输出如下:

attaching to process id 68322, please wait
debugger attached successfully.
server compiler detected.
jvm version is 25.112-b16

using thread-local object allocation.
parallel gc with 4 thread(s)

heap configuration:
   minheapfreeratio         = 0
   maxheapfreeratio         = 100
   maxheapsize              = 268435456 (256.0mb)
   newsize                  = 8388608 (8.0mb)
   maxnewsize               = 89128960 (85.0mb)
   oldsize                  = 16777216 (16.0mb)
   newratio                 = 2
   survivorratio            = 8
   metaspacesize            = 21807104 (20.796875mb)
   compressedclassspacesize = 1073741824 (1024.0mb)
   maxmetaspacesize         = 17592186044415 mb
   g1heapregionsize         = 0 (0.0mb)

heap usage:
ps young generation
eden space:
   capacity = 41943040 (40.0mb)
   used     = 1701504 (1.6226806640625mb)
   free     = 40241536 (38.3773193359375mb)
   4.05670166015625% used
from space:
   capacity = 4194304 (4.0mb)
   used     = 0 (0.0mb)
   free     = 4194304 (4.0mb)
   0.0% used
to space:
   capacity = 5242880 (5.0mb)
   used     = 0 (0.0mb)
   free     = 5242880 (5.0mb)
   0.0% used
ps old generation
   capacity = 30408704 (29.0mb)
   used     = 12129856 (11.56793212890625mb)
   free     = 18278848 (17.43206787109375mb)
   39.889421134159484% used

16658 interned strings occupying 1428472 bytes.

获取堆中的类实例统计
# 打印 jvm 堆中的类实例统计信息,以占用内存的大小排序,同样,如果 jvm 未响应命令,也可以使用 -f 参数 
jmap -histo pid  

# 也可以只统计堆中的存活对象,加上 live 子参数,但使用 -f 时不支持 live 
jmap -histo:live pid 

使用 jcmd

# 等同 jmap -dump:live,format=b,file=file_with_path
jcmd pid gc.heap_dump file_with_path

# 等同 jmap -dump:format=b,file=file_with_path
jcmd pid gc.heap_dump -all file_with_path

# 等同 jmap -histo:live pid
jcmd pid gc.class_histogram

# 等同 jmap -histo pid
jcmd pid gc.class_histogram -all


paulwong 2020-02-24 22:03
]]>
采用 jstatd 监控服务器http://www.blogjava.net/paulwong/archive/2020/02/21/435144.htmlpaulwongpaulwongfri, 21 feb 2020 09:08:00 gmthttp://www.blogjava.net/paulwong/archive/2020/02/21/435144.htmlhttp://www.blogjava.net/paulwong/comments/435144.htmlhttp://www.blogjava.net/paulwong/archive/2020/02/21/435144.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/435144.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/435144.html


paulwong 2020-02-21 17:08
]]>
java进程无故退出而没有留下log?http://www.blogjava.net/paulwong/archive/2020/02/20/435136.htmlpaulwongpaulwongthu, 20 feb 2020 07:57:00 gmthttp://www.blogjava.net/paulwong/archive/2020/02/20/435136.htmlhttp://www.blogjava.net/paulwong/comments/435136.htmlhttp://www.blogjava.net/paulwong/archive/2020/02/20/435136.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/435136.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/435136.html
#less /tmp/messages
feb 20 03:55:09 ip kernel: out of memory: kill process 5974 (java) score 494 or sacrifice child
feb 20 03:55:09 ip kernel: killed process 5974 (java), uid 1001, total-vm:23674020kb, anon-rss:17503912kb, file-rss:0kb, shmem-rss:0kb

那如何屏蔽呢?

#/etc/cron.d/oom_disable
*/1**** root pgrep -f "java" | while read pid;do echo -17 > /proc/$pid/oom_adj;done

参考文档:
linux内核oom机制的详细分析





paulwong 2020-02-20 15:57
]]>
!!21 most important java 8 vm options for servershttp://www.blogjava.net/paulwong/archive/2020/02/16/435118.htmlpaulwongpaulwongsun, 16 feb 2020 14:30:00 gmthttp://www.blogjava.net/paulwong/archive/2020/02/16/435118.htmlhttp://www.blogjava.net/paulwong/comments/435118.htmlhttp://www.blogjava.net/paulwong/archive/2020/02/16/435118.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/435118.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/435118.html
  

in this video i explain some 21 jvm parameters which are suited for most server applications. if you have any questions, you can read those links below for more information or just ask in the comments section.

i run several java enterprise server applications. i often wondered – what are the best „default“ jvm settings for a server application to start with in production? i read a lot on the web and tried several things myself and wanted to share what i found out, so far. links containing more information about jvm optimization can be found here:

http://blog.sokolenko.me/2014/11/javavm-options-production.html

http://www.petefreitag.com/articles/gctuning/

http://stas-blogspot.blogspot.de/2011/07/most-complete-list-of-xx-options-for.html

 

so let’s start:

-server

use „-server“: all 64-bit jvms use the server vm as default anyway. this setting generally optimizes the jvm for long running server applications instead of startup time. the jvm will collect more data about the java byte code during program execution and generate the most efficient machine code via jit.

-xms=[g|m|k] -xmx=[g|m|k]

the „-xmx/-xms“ settings specify the maximum and minimum values for the jvm heap memory. for servers, both params should have the same value to avoid heap resizing during runtime. i’ve applications running with 16gb heap sizes without an issue.

depending on your application, you will have to try out how much memory will be best suited for your use case.

-xx:maxmetaspacesize=[g|m|k]

java 8 has no „permanent generation“ (permgen) anymore but requires additional „metaspace“ memory instead. this memory is used, in addition to the heap memory we specified before, for storing class meta data information.

the default size will be unlimited – i tend to limit maxmetaspacesize with a somewhat high value. just in case something goes wrong with the application, the jvm will not hog all the memory of the server.

i suggest: let your application run for a couple of days to get a feeling for how much metaspace size it uses normally. upon next restart of the application set the limit to e.g. double the value.

-xx: cmsclassunloadingenabled

additionally, you might want to allow the jvm to unload classes which are held in memory but no code is pointing to them any more. if your application generates lots of dynamic classes, this is what you want.

-xx: useconcmarksweepgc

this option makes the jvm use the concurrentmarksweepgc – it can do much work in parallel to program execution but in some circumstances a „full gc“ with a „stw pause“ might still occur. i’ve read many articles and came to the conclusion that this gc is still the best one for server workloads.

-xx: cmsparallelremarkenabled

the option cmsparallelremarkenabled means the remarking is done in parallel to program execution – which is what you want if your server has many cores (and most servers do).

 -xx: usecmsinitiatingoccupancyonly  -xx:cmsinitiatingoccupancyfraction=

normally the gc will use heuristics to know when it’s time to clear memory. gc might kick in too late with default settings (causing full-gcs).
some sources say it might be a good idea to disable heuristics altogether and just use generation occupancy to start a cms collection cycle. setting values around 70% worked fine for all of my applications and use cases.

-xx: scavengebeforefullgc

the first option tells the gc to first free memory by clearing out the „young generation“ or fairly new objects before doing a full gc.

-xx: cmsscavengebeforeremark

cmsscavengebeforeremark does attempt a minor collection before the cms remark phase – thus keeping the remark pause afterwards short.

-xx: cmsclassunloadingenabled

the option „-xx: cmsclassunloadingenabled“ here tells the jvm to unload classes, which are not needed any more by the running application. if you deploy war files to an application server like wildfly, tomcat or glassfish without restarting the server after the deployment, this flag is for you.

-xx: explicitgcinvokesconcurrentandunloadsclasses

the option „-xx: explicitgcinvokesconcurrentandunloadsclasses“ is especially important if your application uses rmi (remote method invocation). the usage of rmi will cause the jvm to do a full-gc every hour! this might be a very bad idea for large heap sizes because the full-gc pause might take up to several seconds. it would be better to do a concurrent gc and try to unload unused classes to free up more memory – which is exactly what the second option does.

-xx: printgcdatestamps -verbose:gc -xx: printgcdetails -xloggc:""

these options shown here will write out all gc related information to a specified log file. you can see how well your gc configuration works by looking into it.

i personally prefer to use the „visual gc“ plug in for the „visual vm“ tool to monitor the general jvm and gc behavior.

-xx: heapdumponoutofmemoryerror -xx:heapdumppath=`date`.hprof

when your jvm runs out of memory, you will want to know why. since the oom error might be hard to reproduce and you want to get your production server up and running again – you should specify a path for a heap dump. when things have settled down, you can analyze the dump afterwards.

-djava.rmi.server.hostname= -dcom.sun.management.jmxremote.port=

these options will help you to specify an ip and port for jmx – you will need those ports open to connect remotely to a jvm running on a server for tools like visualvm. you can gain deep insights over cpu and memory usage, gc behaviour, class loading, thread count and usage of your application this way.


lastly, i would like to recommend to you the visualvm tool which is bundled with the java 8 jdk. you can use it to gain more insights about your specific application behaviour on the jvm – like cpu and memory usage, thread utilisation and much more.

visualvm can be extended with a plug in called „visual gc“. it will briefly show you very detailed information about the usage of the young and old generation object spaces. you can easily spot problems with garbage collection simply by analyzing these graphs during application runtime.

thank you very much for watching! if you liked the video you might consider giving it a „thumbs up“. if you have any questions – just put them in the comments section. i will reply as quickly as possible.

-------------------------------------------------------

-xx: usecompressedoops [if max heap allocation is less than 32gb]
this can save a significant amount of memory and this option should already be enabled by default on recent java 8 versions. this option allowes object references to be stored as 32-bit values instead of 64-bit on 64-bit jvms. this leads to before mentioned memory savings.

-xx: aggressiveopts
this option will enable performance options which are hoped to become enabled by default in upcoming released of the jvm. this option sets some performance settings but is marked as experimental! so you should only enable it, when you have to possibility to test your application thoroughly before enabling this flag on an production server.

-xx: usestringdeduplication
since java 8 update 20 you can use this option to reduce the memory usage of your application. the jvm will spot identical strings in memory, remove the duplicated and point all references to the remaining, single instance of the string.

-xx: useg1gc
will tell the jvm to use the most recent g1 garbage collector. you are trading better application response times (due to shorter gc times with g1) against lower throughput (compared against good old concmarksweepgc / cms). if your application can deliver more value through short gc times, then g1 is definately better suited. otherwise on java 8, i’d recommend sticking with cms.

concerning your tomcat 8 question, i’d suggest you have a look into it with the „visualvm“ tool. look at memory usage, gc times (visual gc plugin), pull and analyse stack traces or thread dumps to find the weak spot. you might also consider attaching a debugger to tomcat to find the bug.





paulwong 2020-02-16 22:30
]]>
[转]巅峰对决 - 框架的性能比较http://www.blogjava.net/paulwong/archive/2016/05/03/430327.htmlpaulwongpaulwongtue, 03 may 2016 06:36:00 gmthttp://www.blogjava.net/paulwong/archive/2016/05/03/430327.htmlhttp://www.blogjava.net/paulwong/comments/430327.htmlhttp://www.blogjava.net/paulwong/archive/2016/05/03/430327.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/430327.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/430327.html转自:
这句话也可以应用在软件开发上,"无快不破"强调的是软件的性能。我陆陆续续写了多篇各种框架的文章,也在github上开了多个性能比较的开源项目,本文做一个汇总,以备将来的查找。


    paulwong 2016-05-03 14:36
    ]]>
    深度技术揭秘,支付宝,财付通,到底每天都是怎样工作的?http://www.blogjava.net/paulwong/archive/2015/09/09/427233.htmlpaulwongpaulwongwed, 09 sep 2015 15:09:00 gmthttp://www.blogjava.net/paulwong/archive/2015/09/09/427233.htmlhttp://www.blogjava.net/paulwong/comments/427233.htmlhttp://www.blogjava.net/paulwong/archive/2015/09/09/427233.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/427233.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/427233.html为了可以更好地解释支付结算系统对账过程,我们先把业务从头到尾串起来描述一下场景,帮助大家理解:一个可能得不能再可能的场景,请大家深刻理解里面每个角色做了什么,获取了哪些信息:  某日阳光灿烂,支付宝用户小明在淘宝上看中了暖脚器一只,价格100元。犹豫再三后小明使用支付宝网银完成了支付,支付宝显示支付成功,淘宝卖家通知他已发货,最近几日注意查收。
      小明:持卡人,消费者,淘宝和支付宝的注册会员,完成了支付动作,自己的银行账户资金减少,交易成功。
      银行:收单银行,接受来自支付宝的名为“支付宝bbb”的100元订单,并引导持卡人小明支付成功,扣除小明银行卡账户余额后返回给支付宝成功通知,并告诉支付宝这笔交易在银行流水号为“银行ccc”
      支付宝:支付公司,接收到淘宝发来的订单号为“淘宝aaa”的商户订单号,并形成支付系统唯一流水号:“支付宝bbb”发往银行系统。然后获得银行回复的支付成功信息,顺带银行流水号“银行ccc”
      淘宝:我们支付公司称淘宝这类电商为商户,是支付系统的客户。淘宝向支付系统发送了一笔交易收单请求,金额为100,订单号为:“淘宝aaa”,支付系统最后反馈给淘宝这笔支付流水号为“支付bbb”
      以上流程貌似大家都达到了预期效果,但实际上仍然还有一个问题:
      对支付公司(支付宝)而言,虽然银行通知了它支付成功,但资金实际还要t 1后结算到它银行账户,所以目前只是一个信息流,资金流还没过来。
      tips:插一句话,对支付系统内部账务来说,由于资金没有能够实时到账,所以此时小明的这笔100元交易资金并没有直接记入到系统资产类科目下的“银行存款”科目中,而是挂在“应收账款”或者“待清算科目”中。大白话就是,这100元虽然答应给我了,我也记下来了,但还没收到,我挂在那里。
      对商户(淘宝)而言,虽然支付公司通知了它支付成功,他也发货了,但资金按照合同也是t 1到账。如果不对账确认一下,恐怕也会不安。
      倒是对消费者(小明)而言:反正钱付了,你们也显示成功了,等暖脚器呀等暖脚器~
      基于支付公司和商户的困惑,我们的支付结算系统需要进行两件事情:一是资金渠道对账,通称对银行帐;二是商户对账,俗称对客户帐。对客户帐又分为对公客户和对私客户,通常对公客户会对对账文件格式、对账周期、系统对接方案有特殊需求,而对私客户也就是我们一般的消费者只需要可以后台查询交易记录和支付历史流水就可以了。
      我们先聊银行资金渠道对账,由于支付公司的资金真正落地在商业银行,所以资金渠道的对账显得尤为重要。
      在一个银行会计日结束后,银行系统会先进行自己内部扎帐,完成无误后进行数据的清分和资金的结算,将支付公司当日应入账的资金结算到支付公司账户中。于此同时,目前多数银行已经支持直接系统对接的方式发送对账文件。于是,在某日临晨4点,支付宝系统收到来自银行发来的前一会计日对账文件。根据数据格式解析正确后和前日支付宝的所有交易数据进行匹配,理想情况是一一匹配成功无误,然后将这些交易的对账状态勾对为“已对账”。
      tips:此时,对账完成的交易,会将该笔资金从“应收账款”或者“待清算账款”科目中移动到“银行存款”科目中,以示该交易真正资金到账。
      以上太理想了,都那么理想就不要对账了。所以通常都会出一些差错,那么我总结了一下常见的差错情况:
      1.支付时提交到银行后没有反馈,但对账时该交易状态为支付成功
      这种情况很正常,因为我们在信息传输过程中,难免会出现掉包和信息不通畅。消费者在银行端完成了支付行为,银行的通知信息却被堵塞了,如此支付公司也不知道结果,商户也不知道结果。如果信息一直没法通知到支付公司这边,那么这条支付结果就只能在日终对账文件中体现了。这时支付公司系统需要对这笔交易进行补单操作,将交易置为成功并完成记账规则,有必要还要通知到商户。
      此时的小明:估计急的跳起来了……付了钱怎么不给说支付成功呢!坑爹!
      tips:通常银行系统会开放一个支付结果查询接口。支付公司会对提交到银行但没有回复结果的交易进行间隔查询,以确保支付结果信息的实时传达。所以以上情况出现的概率已经很少了。
      2.我方支付系统记录银行反馈支付成功,金额为100,银行对账金额不为100
      这种情况已经不太常见了,差错不管是长款和短款都不是我们想要的结果。通常双方系统通讯都是可作为纠纷凭证的,如果银行在支付结果返回时确认是100元,对账时金额不一致,可以要求银行进行协调处理。而这笔账在支付系统中通常也会做对应的挂账处理,直到纠纷解决。
      3.我方支付系统记录银行反馈支付成功,但对账文件中压根不存在
      这种情况也经常见到,因为跨交易会计日的系统时间不同,所以会出现我们认为交易是23点59分完成的,银行认为是第二天凌晨0点1分完成。对于这种情况我们通常会继续挂账,直到再下一日的对账文件送达后进行对账匹配。
      如果这笔交易一直没有找到,那么就和第二种情况一样,是一种短款,需要和银行追究。
      以上情况针对的是一家银行资金渠道所作的流程,实际情况中,支付公司会在不同银行开立不同银行账户,用以收单结算(成本会降低),所以真实情况极有可能是:
      临晨1点,工行对账文件丢过来(支行a)
      临晨1点01分,工行又丢一个文件过来(支行b)
      临晨1点15分,农行对账文件丢过来
      。 。 。
      临晨5点,兴业银行文件丢过来
      。。。
      不管什么时候,中国银行都必须通过我方业务员下载对账文件再上传的方式进行对账,所以系统接收到中行文件一般都是早上9点05分……
      对系统来说,每天都要处理大量并发的对账数据,如果在交易高峰时段进行,会引起客户交互的延迟和交易的失败,这是万万行不得的所以通常支付公司不会用那么傻的方式处理数据,而是在一个会计日结束后,通常也是临晨时段,将前一日交易增量备份到专用对账服务器中,在物理隔绝环境下进行统一的对账行为,杜绝硬件资源的抢占。
      以上是银行资金渠道入款的对账,出款基本原理一致,不过出款渠道在实际业务过程中还有一些特别之处,由于大家不是要建设系统,我就不赘述了。
      谈完了资金渠道的对账,我们再来看看对客户帐。
      前面提到了,由于资金落在银行,所以对支付公司来说,对银行帐非常重要。那么同理,由于资金落在支付公司,所以对商户来说,对支付公司账也一样重要。能否提供高品质甚至定制化的服务,是目前支付公司走差异化路线的一个主要竞争点。
      之前说过,银行与支付公司之间的通讯都是可以作为纠纷凭证的。原理是对支付报文的关键信息进行密钥加签 md5处理,以确保往来报文“不可篡改,不可抵赖”。
      同理,支付公司和商户之间也会有类似机制保证报文的可追溯性,由此我们可以知道,一旦我方支付系统通知商户支付结果,那么我们就要为此承担责任。由此我们再推断一个结论:
      即便某支付订单银行方面出错导致资金未能到账,一旦我们支付系统通知商户该笔交易成功,那么根据协议该结算的资金还是要结算给这个商户。自然,我们回去追究银行的问题,把账款追回。
      没经过排版的小知识点---------------------------------------------------
      一、对支付系统而言,最基本的对账功能是供商户在其后台查询下载某一时间段内的支付数据文件,以供商户自己进行对账。
      这个功能应该是个支付公司就有,如果没有就别混了。
      二、对大多数支付系统而言,目前已经可以做到对账文件的主动投送功能。
      这个功能方便了商户系统和支付系统的对接,商户的结算人员无须登录支付平台后台下载文件进行对账,省去了人工操作的麻烦和风险。
      对大型支付系统而言,商户如果跨时间区域很大,反复查询该区域内的数据并下载,会对服务器造成比较大的压力。各位看官别笑,觉得查个数据怎么就有压力了。实际上为了这个查询,我最早就职的一家支付公司重新优化了所有sql语句,并且因为查询压力过大服务器瘫痪过好几次。
      现在比较主流的做法是把商户短期内查询过、或者经常要查询的数据做缓存。实在不行就干脆实时备份,两分钟同步一次数据到专用数据库供商户查询,以避免硬件资源占用。甚至……大多数支付公司都会对查询范围跨度和历史事件进行限制,比如最多只能查一个月跨度内,不超过24个月前的数据……以避免服务嗝屁。
      对账这块大致就这样了,再往细的说就说不完了,
      风险控制,在各行各业都尤其重要。
      金融即风险,控制好风险,才有利润。
      虽然第三方支付严格意义上说并非属于金融行业,但由于涉及资金的清分和结算,业务主体又是资金的收付,所以风险控制一样非常重要。
      对支付公司来说,风控主要分为合规政策风控以及交易风控两种。
      前者主要针对特定业务开展,特定产品形态进行法规层面的风险规避,通常由公司法务和风控部门一起合作进行。例如,一家公司要开展第三方支付业务,现在要获得由人民银行颁发的“支付业务许可证”。遵守中国对于金融管制的所有条规,帮助人行监控洗钱行为……这些法规合规风险,虽然条条框框,甚至显得文绉绉,但如果没人解读没人公关,业务都会无法开展。
      当然,这块也不是本题所关注的重点,提问者关注的,应当是业务进行过程中的交易风控环节。
      现在随着各支付公司风险控制意识的加强,风控系统渐渐被重视起来。除了上述提到的合规风控相关功能,风控系统最讲技术含量,最讲业务水平,最考究数据分析的业务就是交易风控环节。
      对一笔支付交易而言,在它发生之前、发生过程中及发生过程后,都会被风控系统严密监控,以确保支付及客户资产安全。而所有的所有秘密,都归结到一个词头上:规则。风控系统是一系列规则的集合,任何再智能的风控方案,都绕不开规则二字。
      我们先看看,哪些情况是交易风控需要监控处理的:
      1.钓鱼网站
      什么是钓鱼呢?
      用我的说法,就是利用技术手段蒙蔽消费者,当消费者想付款给a的时候,替换掉a的支付页面,将钱付给b,以达成非法占用资金的目的。
      还有更低级的,直接就是发小广告,里面带一个类似的网址,打开后和淘宝页面一摸一样,上当客户直接付款给假冒网站主。
      第一种情况风控系统是可以通过规则进行简单判定的,虽然有误杀,但不会多。
      通常使用的规则是判断提交订单的ip地址和银行实际支付完成的ip地址是否一致,如果不一致,则判断为钓鱼网站风险交易,进入待确认订单。
      但第二种情况,亲爹亲娘了,支付公司真的没办法。当然遇到客户投诉后可能会事后补救,但交易是无法阻止了。
      2.盗卡组织利用盗卡进行交易
      大家都知道,信用卡信息是不能随便公布给别人的,国内大多信用卡虽然都设置了密码,但银行仍然会开放无磁无密支付接口给到商户进行快速支付之用。
      所谓无磁无密,就是不需要磁道信息,不需要密码就可以进行支付的通道。只需要获取到客户的cvv,有效期,卡号三个核心信息,而这三个信息是在卡上直接有的,所以大家不要随便把卡交给别人哦~
      碰到类似的这种交易,风控系统就不会像钓鱼网站这样简单判断了。
      过去我们所有的历史交易,都会存库,不仅会存支付相关信息,更会利用网页上的控件(对,恶心的activex或者目前用的比较多的flash控件)抓取支付者的硬件信息,存储在数据库中。
      当一笔交易信息带着能够搜集到的硬件信息一同提交给风控系统时,风控系统会进行多种规则判定。
      例如:当天该卡是否交易超过3次
      当天该ip是否交易超过3次
      该主机cpu的序列号是否在黑名单之列
      等等等等,一批规则跑完后,风控系统会给该交易进行加权评分,标示其风险系数,然后根据评分给出处理结果。
      通过硬件信息采集以及历史交易记录回溯,我们可以建立很多交易风控规则来进行监控。所以规则样式的好坏,规则系数的调整,就是非常重要的用以区别风控系统档次高低的标准。
      例如,我听说著名的风控厂商red,有一个“神经网络”机制,灰常牛逼。
       
      其中有一个规则我到现在还记忆犹新:
      某人早上八点在加利福尼亚进行了信用卡支付,到了下午一点,他在东亚某小国家发起了信用卡支付申请。系统判断两者距离过长,不是短短5小时内能够到达的,故判定交易无效,支付请求拒绝。
      规则非常重要,当然,数据也一样重要。我们不仅需要从自己的历史记录中整合数据,同时还要联合卡组织、银行、风控机构,购买他们的数据和风控服务用来增加自己的风控实力。
      so,风控是一个不断积累数据、分析数据、运营数据、积累数据的循环过程。
      好的风控规则和参数,需要经过无数次的规则修改和调整,是一个漫长的过程。
      不知道大家做互联网,有没有利用ga做过ab测试,同样的,风控系统也需要反复地做类似ab测试的实验,以保证理论和实际的匹配。
      最后给大家说一个小小的概念:
      所谓风控,是指风险控制,不是风险杜绝。
      风控的目标一定不是把所有风险全部杜绝。
      合理的风控,目标一定是:利润最大化,而不是风险最小化
      过于严格的风控规则,反而会伤害公司利益(看看销售和风控经常打架就知道了)
      不光是交易的风控,我们日常制定规则,法规,公司流程,也一定要秉着这个出发点进行规划。

    paulwong 2015-09-09 23:09
    ]]>
    高并发情况下怎样尽量实现无锁编程http://www.blogjava.net/paulwong/archive/2015/07/13/426201.htmlpaulwongpaulwongmon, 13 jul 2015 10:20:00 gmthttp://www.blogjava.net/paulwong/archive/2015/07/13/426201.htmlhttp://www.blogjava.net/paulwong/comments/426201.htmlhttp://www.blogjava.net/paulwong/archive/2015/07/13/426201.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/426201.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/426201.html  一个在线2k的游戏,每秒钟并发都吓死人。传统的hibernate直接插库基本上是不可行的。我就一步步推导出一个无锁的数据库操作。



      1. 并发中如何无锁。

      一个很简单的思路,把并发转化成为单线程。java的disruptor就是一个很好的例子。如果用java的concurrentcollection类去做,原理就是启动一个线程,跑一个queue,并发的时候,任务压入queue,线程轮训读取这个queue,然后一个个顺序执行。

      在这个设计模式下,任何并发都会变成了单线程操作,而且速度非常快。现在的node.js, 或者比较普通的arpg服务端都是这个设计,“大循环”架构。

      这样,我们原来的系统就有了2个环境:并发环境 ”大循环“环境

      并发环境就是我们传统的有锁环境,性能低下。

      ”大循环“环境是我们使用disruptor开辟出来的单线程无锁环境,性能强大。



      2. ”大循环“环境 中如何提升处理性能。

      一旦并发转成单线程,那么其中一个线程一旦出现性能问题,必然整个处理都会放慢。所以在单线程中的任何操作绝对不能涉及到io处理。那数据库操作怎么办?

      增加缓存。这个思路很简单,直接从内存读取,必然会快。至于写、更新操作,采用类似的思路,把操作提交给一个queue,然后单独跑一个thread去一个个获取插库。这样保证了“大循环”中不涉及到io操作。



      问题再次出现:

      如果我们的游戏只有个大循环还容易解决,因为里面提供了完美的同步无锁。

      但是实际上的游戏环境是并发和“大循环”并存的,即上文的2种环境。那么无论我们怎么设计,必然会发现在缓存这块上要出现锁。



      3. 并发与“大循环”如何共处,消除锁?

      我们知道如果在“大循环”中要避免锁操作,那么就用“异步”,把操作交给线程处理。结合这2个特点,我稍微改下数据库架构。

      原本的缓存层,必然会存在着锁,例如:

    public tablecache
    {
      private hashmap caches = new concurrenthashmap();
    }

      这个结构是必然的了,保证了在并发的环境下能够准确的操作缓存。但是”大循环“却不能直接操作这个缓存进行修改,所以必须启动一个线程去更新缓存,例如:

      private static final executorservice executor = executors.newsinglethreadexecutor();

      executor.execute(new latencyprocessor(logs));

      class latencyprocessor implements runnable
      {
          public void run()
         {
           // 这里可以任意的去修改内存数据。采用了异步。
        }
      }

      ok,看起来很漂亮。但是又有个问题出现了。在高速存取的过程中,非常有可能缓存还没有被更新,就被其他请求再次获取,得到了旧的数据。



      4. 如何保证并发环境下缓存数据的唯一正确?

      我们知道,如果只有读操作,没有写操作,那么这个行为是不需要加锁的。

      我使用这个技巧,在缓存的上层,再加一层缓存,成为”一级缓存“,原来的就自然成为”二级缓存“。有点像cpu了对不?

      一级缓存只能被”大循环“修改,但是可以被并发、”大循环“同时获取,所以是不需要锁的。

      当发生数据库变动,分2种情况:

      1)并发环境下的数据库变动,我们是允许有锁的存在,所以直接操作二级缓存,没有问题。

      2)”大循环“环境下数据库变动,首先我们把变动数据存储在一级缓存,然后交给异步修正二级缓存,修正后删除一级缓存。

      这样,无论在哪个环境下读取数据,首先判断一级缓存,没有再判断二级缓存。

      这个架构就保证了内存数据的绝对准确。

      而且重要的是:我们有了一个高效的无锁空间,去实现我们任意的业务逻辑。



      最后,还有一些小技巧提升性能。

      1. 既然我们的数据库操作已经被异步处理,那么某个时间,需要插库的数据可能很多,通过对表、主键、操作类型的排序,我们可以删除一些无效操作。例如:

      a)同一个表同一个主键的多次update,取最后一次。

      b)同一个表同一个主键,只要出现delete,前面所有操作无效。

      2. 既然我们要对操作排序,必然会存在一个根据时间排序,如何保证无锁呢?使用

         private final static atomiclong _seq = new atomiclong(0);

      即可保证无锁又全局唯一自增,作为时间序列。

    paulwong 2015-07-13 18:20
    ]]>
    jvm监控与调优http://www.blogjava.net/paulwong/archive/2015/05/14/425064.htmlpaulwongpaulwongthu, 14 may 2015 01:44:00 gmthttp://www.blogjava.net/paulwong/archive/2015/05/14/425064.htmlhttp://www.blogjava.net/paulwong/comments/425064.htmlhttp://www.blogjava.net/paulwong/archive/2015/05/14/425064.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/425064.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/425064.html阅读全文

    paulwong 2015-05-14 09:44
    ]]>
    spring cache之concurrentmapcachemanager改造http://www.blogjava.net/paulwong/archive/2015/02/25/423034.htmlpaulwongpaulwongwed, 25 feb 2015 08:34:00 gmthttp://www.blogjava.net/paulwong/archive/2015/02/25/423034.htmlhttp://www.blogjava.net/paulwong/comments/423034.htmlhttp://www.blogjava.net/paulwong/archive/2015/02/25/423034.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/423034.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/423034.html
    1. pom.xml中加入依赖包
              <dependency>
                  <groupid>com.google.guavagroupid>
                  <artifactid>guavaartifactid>
                  <version>18.0version>
              dependency>

    2. 改造cachemanager,myconcurrentmapcachemanager
      package com.paul.common.cache;
      /*
       * 凯发天生赢家一触即发官网 copyright 2002-2014 the original author or authors.
       *
       * licensed under the apache license, version 2.0 (the "license");
       * you may not use this file except in compliance with the license.
       * you may obtain a copy of the license at
       *
       *      
      http://www.apache.org/licenses/license-2.0
       *
       * unless required by applicable law or agreed to in writing, software
       * distributed under the license is distributed on an "as is" basis,
       * without warranties or conditions of any kind, either express or implied.
       * see the license for the specific language governing permissions and
       * limitations under the license.
       
      */

      import java.util.collection;
      import java.util.collections;
      import java.util.map;
      import java.util.concurrent.concurrenthashmap;
      import java.util.concurrent.concurrentmap;
      import java.util.concurrent.timeunit;

      import org.springframework.cache.cache;
      import org.springframework.cache.cachemanager;
      import org.springframework.cache.concurrent.concurrentmapcache;

      import com.google.common.cache.cachebuilder;

      /**
       * {
      @link cachemanager} implementation that lazily builds {@link concurrentmapcache}
       * instances for each {
      @link #getcache} request. also supports a 'static' mode where
       * the set of cache names is pre-defined through {
      @link #setcachenames}, with no
       * dynamic creation of further cache regions at runtime.
       *
       * 

      note: this is by no means a sophisticated cachemanager; it comes with no
       * cache configuration options. however, it may be useful for testing or simple
       * caching scenarios. for advanced local caching needs, consider
       * {@link org.springframework.cache.guava.guavacachemanager} or
       * {
      @link org.springframework.cache.ehcache.ehcachecachemanager}.
       *
       * 
      @author juergen hoeller
       * 
      @since 3.1
       * 
      @see concurrentmapcache
       
      */
      public class myconcurrentmapcachemanager implements cachemanager {

          private final concurrentmap cachemap = new concurrenthashmap(16);

          private boolean dynamic = true;

          private boolean allownullvalues = true;
          
          private long expiretime = 30;
          
          private long maximumsize = 100;


          /**
           * construct a dynamic concurrentmapcachemanager,
           * lazily creating cache instances as they are being requested.
           
      */
          public myconcurrentmapcachemanager() {
          }

          /**
           * construct a static concurrentmapcachemanager,
           * managing caches for the specified cache names only.
           
      */
          public myconcurrentmapcachemanager(long expiretime, long maximumsize) {
              if(expiretime > 0)
                  this.expiretime = expiretime;
              if(maximumsize > 0)
                  this.maximumsize = maximumsize;
          }


          /**
           * specify the set of cache names for this cachemanager's 'static' mode.
           * 

      the number of caches and their names will be fixed after a call to this method,
           * with no creation of further cache regions at runtime.
           * 

      calling this with a {@code null} collection argument resets the
           * mode to 'dynamic', allowing for further creation of caches again.
           
      */
          public void setcachenames(collection cachenames) {
              if (cachenames != null) {
                  for (string name : cachenames) {
                      this.cachemap.put(name, createconcurrentmapcache(name));
                  }
                  this.dynamic = false;
              }
              else {
                  this.dynamic = true;
              }
          }

          /**
           * specify whether to accept and convert {
      @code null} values for all caches
           * in this cache manager.
           * 

      default is "true", despite concurrenthashmap itself not supporting {@code null}
           * values. an internal holder object will be used to store user-level {
      @code null}s.
           * 

      note: a change of the null-value setting will reset all existing caches,
           * if any, to reconfigure them with the new null-value requirement.
           */
          public void setallownullvalues(boolean allownullvalues) {
              if (allownullvalues != this.allownullvalues) {
                  this.allownullvalues = allownullvalues;
                  // need to recreate all cache instances with the new null-value configuration
                  for (map.entry entry : this.cachemap.entryset()) {
                      entry.setvalue(createconcurrentmapcache(entry.getkey()));
                  }
              }
          }

          /**
           * return whether this cache manager accepts and converts {
      @code null} values
           * for all of its caches.
           
      */
          public boolean isallownullvalues() {
              return this.allownullvalues;
          }


          @override
          public collection getcachenames() {
              return collections.unmodifiableset(this.cachemap.keyset());
          }

          @override
          public cache getcache(string name) {
              cache cache = this.cachemap.get(name);
              if (cache == null && this.dynamic) {
                  synchronized (this.cachemap) {
                      cache = this.cachemap.get(name);
                      if (cache == null) {
                          cache = createconcurrentmapcache(name);
                          this.cachemap.put(name, cache);
                      }
                  }
              }
              return cache;
          }

          /**
           * create a new concurrentmapcache instance for the specified cache name.
           * 
      @param name the name of the cache
           * 
      @return the concurrentmapcache (or a decorator thereof)
           
      */
          protected cache createconcurrentmapcache(string name) {
              //return new concurrentmapcache(name, isallownullvalues());
              //此处改用google guava的构造manager方式
              return new concurrentmapcache(name,
                                              cachebuilder.newbuilder()
                                                          .expireafterwrite(this.expiretime, timeunit.minutes)
                                                          .maximumsize(this.maximumsize)
                                                          .build()
                                                          .asmap(), 
                                              isallownullvalues());
          }

      }



    3. 配置想着bean, cache-concurrentmap-applicationcontext.xml
      xml version="1.0" encoding="utf-8"?>
      <beans xmlns="http://www.springframework.org/schema/beans"
          xmlns:xsi
      ="http://www.w3.org/2001/xmlschema-instance" xmlns:context="http://www.springframework.org/schema/context"
          xmlns:cache
      ="http://www.springframework.org/schema/cache"
          xmlns:p
      ="http://www.springframework.org/schema/p"
          xmlns:c
      ="http://www.springframework.org/schema/c"
          xmlns:jee
      ="http://www.springframework.org/schema/jee"
          xmlns:util
      ="http://www.springframework.org/schema/util"
          xsi:schemalocation
      ="http://www.springframework.org/schema/context
                http://www.springframework.org/schema/context/spring-context-3.0.xsd
                http://www.springframework.org/schema/beans
                http://www.springframework.org/schema/beans/spring-beans-3.0.xsd
                http://www.springframework.org/schema/cache
                http://www.springframework.org/schema/cache/spring-cache.xsd
                http://www.springframework.org/schema/jee 
                http://www.springframework.org/schema/jee/spring-jee.xsd
                http://www.springframework.org/schema/util
                http://www.springframework.org/schema/util/spring-util.xsd"
      >

          <cache:annotation-driven />

          
          
          <bean id="cachemanager"
              class
      ="com.paul.common.cache.myconcurrentmapcachemanager">
              <constructor-arg index="0" value="1" />
              <constructor-arg index="1" value="5000" />
          bean>    
          
      beans>


    4. 通过注释进行使用
      /*
       * jboss, home of professional open source
       * 凯发天生赢家一触即发官网 copyright 2014, red hat, inc. and/or its affiliates, and individual
       * contributors by the @authors tag. see the 凯发天生赢家一触即发官网 copyright.txt in the
       * distribution for a full listing of individual contributors.
       *
       * licensed under the apache license, version 2.0 (the "license");
       * you may not use this file except in compliance with the license.
       * you may obtain a copy of the license at
       * 
      http://www.apache.org/licenses/license-2.0
       * unless required by applicable law or agreed to in writing, software
       * distributed under the license is distributed on an "as is" basis,
       * without warranties or conditions of any kind, either express or implied.
       * see the license for the specific language governing permissions and
       * limitations under the license.
       
      */
      package com.paul.springmvc.data;

      import java.util.list;

      import javax.persistence.entitymanager;
      import javax.persistence.criteria.criteriabuilder;
      import javax.persistence.criteria.criteriaquery;
      import javax.persistence.criteria.root;

      import org.springframework.beans.factory.annotation.autowired;
      import org.springframework.cache.annotation.cacheevict;
      import org.springframework.cache.annotation.cacheable;
      import org.springframework.stereotype.repository;
      import org.springframework.transaction.annotation.transactional;

      import com.paul.springmvc.model.member;

      @repository
      @transactional
      public class memberdaoimpl implements memberdao {
          @autowired
          private entitymanager em;

          @cacheable(value = "my-local-cache", key = "#id")
          public member findbyid(long id) {
              system.out.println("memberdaoimpl no cache");
              return em.find(member.class, id);
          }

          public member findbyemail(string email) {
              criteriabuilder cb = em.getcriteriabuilder();
              criteriaquery criteria = cb.createquery(member.class);
              root member = criteria.from(member.class);

              /*
               * swap criteria statements if you would like to try out type-safe criteria queries, a new
               * feature in jpa 2.0 criteria.select(member).orderby(cb.asc(member.get(member_.name)));
               
      */

              criteria.select(member).where(cb.equal(member.get("email"), email));
              return em.createquery(criteria).getsingleresult();
          }

          public list findallorderedbyname() {
              criteriabuilder cb = em.getcriteriabuilder();
              criteriaquery criteria = cb.createquery(member.class);
              root member = criteria.from(member.class);

              /*
               * swap criteria statements if you would like to try out type-safe criteria queries, a new
               * feature in jpa 2.0 criteria.select(member).orderby(cb.asc(member.get(member_.name)));
               
      */

              criteria.select(member).orderby(cb.asc(member.get("name")));
              return em.createquery(criteria).getresultlist();
          }

          @cacheevict(value="my-local-cache",allentries=true,beforeinvocation=true)//清空所有缓存
          public void register(member member) {
              em.persist(member);
              return;
          }
      }


    paulwong 2015-02-25 16:34
    ]]>
    spring cache资源http://www.blogjava.net/paulwong/archive/2015/02/25/423032.htmlpaulwongpaulwongwed, 25 feb 2015 08:04:00 gmthttp://www.blogjava.net/paulwong/archive/2015/02/25/423032.htmlhttp://www.blogjava.net/paulwong/comments/423032.htmlhttp://www.blogjava.net/paulwong/archive/2015/02/25/423032.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/423032.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/423032.html
    http://docs.spring.io/spring/docs/3.2.x/spring-framework-reference/htmlsingle/#cache

    spring concurrentmap manager加过期策略


    组合key


    spring cache抽象详解


    注释驱动的 spring cache 缓存介绍




    paulwong 2015-02-25 16:04
    ]]>
    使用wildfly中的分布式缓存infishpanhttp://www.blogjava.net/paulwong/archive/2015/02/23/422998.htmlpaulwongpaulwongmon, 23 feb 2015 05:40:00 gmthttp://www.blogjava.net/paulwong/archive/2015/02/23/422998.htmlhttp://www.blogjava.net/paulwong/comments/422998.htmlhttp://www.blogjava.net/paulwong/archive/2015/02/23/422998.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/422998.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/422998.html
  1. 通过http://127.0.0.1:9991/console/app.html#infinispan添加cache
    <cache-container name="tickets" default-cache="default" jndi-name="java:jboss/infinispan/tickets">
           <local-cache name="default" batching="true">
                  <locking isolation="repeatable_read"/>
           local-cache>
    cache-container>

  2. pom.xml添加依赖包
            <dependency>
                <groupid>org.infinispangroupid>
                <artifactid>infinispan-coreartifactid>
                <scope>providedscope>
            dependency>
            
            <dependency>
                <groupid>org.infinispangroupid>
                <artifactid>infinispan-client-hotrodartifactid>
                <scope>providedscope>
            dependency>

        <dependency>
            <groupid>org.jgroupsgroupid>
            <artifactid>jgroupsartifactid>
            <scope>providedscope>
        dependency>

            <dependency>
                <groupid>org.infinispangroupid>
                <artifactid>infinispan-springartifactid>
                <version>6.0.2.finalversion>
            dependency>
            
            <dependency>
                <groupid>org.infinispangroupid>
                <artifactid>infinispan-jcacheartifactid>
                <version>6.0.2.finalversion>
            dependency>

  3. 添加拦截器,web-inf/beans.xml
    xml version="1.0"?>
    <beans xmlns="http://java.sun.com/xml/ns/javaee" xmlns:xsi="http://www.w3.org/2001/xmlschema-instance"
        xsi:schemalocation
    ="http://java.sun.com/xml/ns/javaee http://jboss.org/schema/cdi/beans_1_0.xsd">
        <interceptors>
            <class>org.infinispan.jcache.annotation.cacheresultinterceptorclass>
            <class>org.infinispan.jcache.annotation.cacheputinterceptorclass>
            <class>org.infinispan.jcache.annotation.cacheremoveentryinterceptorclass>
            <class>org.infinispan.jcache.annotation.cacheremoveallinterceptorclass>
        interceptors>
    beans>

  4. 添加项目的全局依赖,web-inf/jboss-deployment-structure.xml
    xml version="1.0" encoding="utf-8"?>
    <jboss-deployment-structure>
        <deployment>
            <dependencies>
                <module name="org.jboss.xnio" />
                <module name="org.infinispan" export="true"/>
                <module name="org.infinispan.commons" export="true"/>
                <module name="org.infinispan.client.hotrod" export="true"/>
            dependencies>
        deployment>
    jboss-deployment-structure>

  5. 在cdi bean中使用cache
    package com.paul.myejb;

    import javax.annotation.resource;
    import javax.cache.annotation.cacheresult;
    import javax.ejb.remote;
    import javax.ejb.stateless;
    import javax.interceptor.interceptors;

    import org.infinispan.cache;
    import org.infinispan.manager.embeddedcachemanager;
    //import org.springframework.cache.annotation.cacheable;
    import org.springframework.ejb.interceptor.springbeanautowiringinterceptor;

    /**
     * session bean implementation class helloworldbean
     
    */
    @stateless
    //@local(helloworld.class)
    @remote(helloworld.class)
    @interceptors(springbeanautowiringinterceptor.class)
    //@rolesallowed({roles.admin})
    public class helloworldbean implements helloworld {
        
        @resource(lookup = "java:jboss/infinispan/tickets")
        private embeddedcachemanager container;
        
        
        /**
         * default constructor. 
         
    */
        public helloworldbean() {
        }

    //    @transactional
    //    @cacheable(value = "books", key = "#name")
        @cacheresult
        public string sayhello(string name) {
            system.out.println("no cache");
            string result = "hello "   name   ", i am helloworldbean.";
            cache cache = this.container.getcache();
            cache.put(name, result);
            return result;
        }

    }


  6. 修改modules/system/layers/base/org/infinispan/client/hotrod/main/modules.xml
    xml version="1.0" encoding="utf-8"?>

    <module xmlns="urn:jboss:module:1.3" name="org.infinispan.client.hotrod">
        <properties>
            <property name="jboss.api" value="private"/>
        properties>

        <resources>
            <resource-root path="infinispan-client-hotrod-6.0.2.final.jar"/>
        resources>

        <dependencies>
            <module name="javax.api"/>
            
            
            <module name="org.apache.commons.pool"/>
            <module name="org.infinispan.commons"/>
            <module name="org.infinispan.query.dsl"/>
            <module name="org.jboss.logging"/>
        dependencies>
    module>

  7. 以下是spring版本
    1. 添加依赖的spring bean
      xml version="1.0" encoding="utf-8"?>
      <beans xmlns="http://www.springframework.org/schema/beans"
          xmlns:xsi
      ="http://www.w3.org/2001/xmlschema-instance" xmlns:context="http://www.springframework.org/schema/context"
          xmlns:cache
      ="http://www.springframework.org/schema/cache"
          xmlns:p
      ="http://www.springframework.org/schema/p"
          xmlns:jee
      ="http://www.springframework.org/schema/jee"
          xsi:schemalocation
      ="http://www.springframework.org/schema/context
                http://www.springframework.org/schema/context/spring-context-3.0.xsd
                http://www.springframework.org/schema/beans
                http://www.springframework.org/schema/beans/spring-beans-3.0.xsd
                http://www.springframework.org/schema/cache
                http://www.springframework.org/schema/cache/spring-cache.xsd
                http://www.springframework.org/schema/jee 
                http://www.springframework.org/schema/jee/spring-jee.xsd"
      >

          <cache:annotation-driven />
          
          <bean id="cachemanager"
                class
      ="org.infinispan.spring.provider.containercachemanagerfactorybean">
                <constructor-arg ref="cachecontainer"  />
          bean>
          
          <jee:jndi-lookup id="cachecontainer" jndi-name="java:jboss/infinispan/tickets" > 
          jee:jndi-lookup>
          
          
          
      beans>

    2. 使用cache
      package com.paul.myejb.spring;

      import org.springframework.beans.factory.annotation.autowired;
      import org.springframework.cache.cachemanager;
      import org.springframework.cache.annotation.cacheable;
      import org.springframework.stereotype.component;

      @component
      public class myspringbean {
          
          @autowired
          private cachemanager cachemanager;
          
          @cacheable(value = "my-local-cache", key = "#name")
          public string sayhello(string name)
          {
              system.out.println("myspringbean no cache");
              string result = "hi "   name   ", i am spring!";
              org.springframework.cache.cache springcache = this.cachemanager.getcache("my-local-cache");
              system.out.println(springcache.get(name) == null ? "null" : springcache.get(name).get());
              springcache.put(name, result);
              return result;
          }

      }




    paulwong 2015-02-23 13:40
    ]]>
    infinispan资源http://www.blogjava.net/paulwong/archive/2015/02/22/422993.htmlpaulwongpaulwongsun, 22 feb 2015 06:03:00 gmthttp://www.blogjava.net/paulwong/archive/2015/02/22/422993.htmlhttp://www.blogjava.net/paulwong/comments/422993.htmlhttp://www.blogjava.net/paulwong/archive/2015/02/22/422993.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/422993.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/422993.html 使用时最好与spring结合,用在dao层。
    以某方法参数作为key,返回的对象作为value保存到缓存中。
    add/edit/remove方法被执行时则清除所有的缓存。

    infinispan的运行模式有两种:
    1、嵌入式
    先启动一个进程,再在此进程中启动infinispan的cache manager。
    2、client/server
    直接运行startserver.sh来启动。

    两者区别
    嵌入式:
    1、infinispan和启动进程是在同一个进程里,如jboss中的infinispan
    2、要使用infinispan的cache,必须将应用部署到此进程中,如将war应用部署到jboss中
    3、如有多台机以此模式运行,则互相可以通讯

    client/server:
    1、infinispan单独一个进程
    2、通过sdk,以memchaed,rhq等协议访问cache
    3、如有多台机以此模式运行,互相不可以通讯

    jboss中的infinispan肯定是嵌入式,要访问infinispan的cache必须部署到jboss才能访问,没有远程模式。

    infinispan中的cache有两种模式:本地缓存和集群缓存。

    本地缓存是单机版。
    集群缓存是多机网络版,又分为三种:
    1、分布式:网络中的每个节点只保存部份缓存条目,所有的节点合起来保存全部缓存条目
    当本机无此条目时,要通过网络去到别的机器上取
    2、复制式:网络中的每个节点都保存全部缓存条目,但缓存条目有更新时,所有节点一并更新
    当本机无此条目时,不用到别的节点取,但缓存条目有更新时,所有节点都会执行更新本地缓存操作
    3、无效式:网络中的每个节点互不通讯,但缓存条目有更新时,节点收到失效通知,各自处理本机的缓存条目

    编程使用方法
    1、通过程序使用,即在代码中写cache的存取。
    2、通过注释使用,这各注释是通过截面拦截方法方式实现,即如果在缓存中有此缓存条目,则方法不会被执行,直接返回结果。
    又细分两种:
    通过spring实现,通过java ee的cdi实现。










    infinispan integrate with spring based application



    java缓存新标准(javax.cache)




    paulwong 2015-02-22 14:03
    ]]>
    几大nosql数据库性能比较http://www.blogjava.net/paulwong/archive/2015/01/30/422565.htmlpaulwongpaulwongthu, 29 jan 2015 16:16:00 gmthttp://www.blogjava.net/paulwong/archive/2015/01/30/422565.htmlhttp://www.blogjava.net/paulwong/comments/422565.htmlhttp://www.blogjava.net/paulwong/archive/2015/01/30/422565.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/422565.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/422565.html

    nosql benchmarking





    how many requests per second can i get out of redis?


    redis性能测试,测试并发性能


    paulwong 2015-01-30 00:16
    ]]>
    apache自带的压力测试工具——ab初体验http://www.blogjava.net/paulwong/archive/2015/01/08/422139.htmlpaulwongpaulwongthu, 08 jan 2015 11:02:00 gmthttp://www.blogjava.net/paulwong/archive/2015/01/08/422139.htmlhttp://www.blogjava.net/paulwong/comments/422139.htmlhttp://www.blogjava.net/paulwong/archive/2015/01/08/422139.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/422139.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/422139.html阅读全文

    paulwong 2015-01-08 19:02
    ]]>
    ab --- apache自带的压力测试工具 (apache benchmark )http://www.blogjava.net/paulwong/archive/2015/01/08/422138.htmlpaulwongpaulwongthu, 08 jan 2015 10:38:00 gmthttp://www.blogjava.net/paulwong/archive/2015/01/08/422138.htmlhttp://www.blogjava.net/paulwong/comments/422138.htmlhttp://www.blogjava.net/paulwong/archive/2015/01/08/422138.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/422138.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/422138.html简介
    ab的全称是apachebench apache 附带的一个小工具专门用于 http server benchmark testing可以同时模拟多个并发请求。前段时间看到公司的开发人员也在用它作一些测试,看起来也不错,很简单,也很容易使用,所以今天花一点时间看了一下。
    通过下面的一个简单的例子和注释,相信大家可以更容易理解这个工具的使用。
    一个简单的例子
    /*在这个例子的一开始,我执行了这样一个命令 ab -n 10 -c 10 这个命令的意思是启动 ab ,向  发送10个请求(-n 10) ,并每次发送10个请求(-c 10)——也就是说一次都发过去了。跟着下面的是 ab 输出的测试报告,红色部分是我添加的注释。*/
    c:\program files\apache software foundation\apache2.2\bin>ab -n 10 -c 10 http
    ://www.google.com/
    this is apachebench, version 2.0.40-dev <$revision: 1.146 $> apache-2.0
    凯发天生赢家一触即发官网 copyright 1996 adam twiss, zeus technology ltd, http://www.zeustech.net/
    凯发天生赢家一触即发官网 copyright 1997-2005 the apache software foundation, http://www.apache.org/
    benchmarking www.google.com (be patient).....done
    server software:        gws/2.1
    server hostname:        www.google.com
    server port:            80
    document path:          /
    document length:        230 bytes
    concurrency level:      10
    /*整个测试持续的时间*/
    time taken for tests:   3.234651 seconds
    /*完成的请求数量*/
    complete requests:      10
    /*失败的请求数量*/
    failed requests:        0
    write errors:           0
    non-2xx responses:      10
    keep-alive requests:    10
    /*整个场景中的网络传输量*/
    total transferred:      6020 bytes
    /*整个场景中的html内容传输量*/
    html transferred:       2300 bytes
    /*大家最关心的指标之一,相当于 lr 中的 每秒事务数 ,后面括号中的 mean 表示这是一个平均值*
    requests per second:    3.09 [#/sec] (mean)
    /*大家最关心的指标之二,相当于 lr 中的 平均事务响应时间 ,后面括号中的 mean 表示这是一个平均值*/
    time per request:       3234.651 [ms] (mean)
    /*每个事物的响应时间 */
    time per request:       323.465 [ms] (mean, across all concurrent requests)
    /*平均每秒网络上的流量,可以帮助排除是否存在网络流量过大导致响应时间延长的问题*/
    transfer rate:          1.55 [kbytes/sec] received
    /*网络上消耗的时间的分解,各项数据的具体算法还不是很清楚*/
    connection times (ms)
                  min mean[ /-sd] median   max
    connect:       20 318 926.1     30    2954
    processing:    40 2160 1462.0   3034    3154
    waiting:       40 2160 1462.0   3034    3154
    total:         60 2479 1276.4   3064    3184
    /*下面的内容为整个场景中所有请求的响应情况。在场景中每个请求都有一个响应时间,其中 50 的用户响应时间小于 3064 毫秒,60  的用户响应时间小于 3094 毫秒,最大的响应时间小于 3184 毫秒*/
    percentage of the requests served within a certain time (ms)
    50%   3064
    66%   3094
    75%   3124
    80%   3154
    90%   3184
    95%   3184
    98%   3184
    99%   3184
    100%   3184 (longest request)
    参数详解
    ab is a tool for benchmarking your apache hypertext transfer protocol(http) server. it is designed to give you an impression of how your current apache installation performs. this especially shows you how many requests per second your apache installation is capable of serving.
    ab是apache超文本传输协议(http)的性能测试工具。 其设计意图是描绘当前所的apache的执行性能, 主要是显示你安装的apache每秒可以处理多少个请求。
    options
    -a auth-username:password
    supply basic authentication credentials to the server. the user name and password are separated by a single : and sent on the wire base64 encoded. the string is sent regardless of whether the server needs it (i.e., has sent an 401 authentication needed).
    对服务器提供basic认证信任。 用户名和密码由一个:隔开,并以base64编码形式发送。 无论服务器是否需要(即, 是否发送了401认证需求代码),此字符串都会被发送。
    -c concurrency
    number of multiple requests to perform at a time. default is one request at a time.
    一次产生的请求个数。默认是一次一个。
    -c cookie-name=value
    add a cookie: line to the request. the argument is typically in the form of a name=value pair. this field is repeatable.
    对请求附加一个cookie:行。 其典型形式是name=value的一个参数对。 此参数可以重复。
    -d do not display the "percentage served within xx [ms] table".
    (legacy support).
    不显示"percentage served within xx [ms] table"的消息(为以前的版本提供支持)。
    -e csv-file
    write a comma separated value (csv) file which contains for each percentage (from 1% to 100%) the time (in milliseconds) it took to serve that percentage of the requests. this is usually more useful than the 'gnuplot' file; as the results are already 'binned'.
    产生一个以逗号分隔的(csv)文件, 其中包含了处理每个相应百分比的请求所需要(从1%到100%)的相应百分比的(以毫秒为单位)时间。 由于这种格式已经“二进制化”,所以比'gnuplot'格式更有用。
    -g gnuplot-file
    write all measured values out as a 'gnuplot' or tsv (tab separate values) file. this file can easily be imported into  like gnuplot, idl, mathematica, igor or even excel. the labels are on the first line of the file.
    把所有测试结果写入一个'gnuplot'或者tsv (以tab分隔的)文件。 此文件可以方便地导入到gnuplot, idl, mathematica, igor甚至excel中。 其中的第一行为标题。
    -h display usage information.
    显示方法。
    -h custom-header
    append extra headers to the request. the argument is typically in the form of a valid header line, containing a colon-separated field-value pair (i.e., "accept-encoding: zip/zop;8bit").
    对请求附加额外的头信息。 此参数的典型形式是一个有效的头信息行,其中包含了以冒号分隔的字段和值的对 (如, "accept-encoding: zip/zop;8bit").
    -i do head requests instead of get.
    执行head请求,而不是get。
    -k enable the http keepalive feature, i.e., perform multiple
    requests within one http session. default is no keepalive.
    启用http keepalive功能,即, 在一个http会话中执行多个请求。 默认是不启用keepalive功能.
    -n requests
    number of requests to perform for the benchmarking session. the default is to just perform a single request which usually leads to non-representative enchmarking results.
    在测试会话中所执行的请求个数。 默认时,仅执行一个请求,但通常其结果不具有代表意义。
    -p post-file
    file containing data to post.
    包含了需要post的数据的文件.
    -p proxy-auth-username:password
    supply basic authentication credentials to a proxy en-route. the username and password are separated by a single : and sent on the wire base64 encoded. the string is sent regardless of whether the proxy needs it (i.e., has sent an 407 proxy authentication needed).
    对一个中转提供basic认证信任。 用户名和密码由一个:隔开,并以base64编码形式发送。 无论服务器是否需要(即, 是否发送了401认证需求代码),此字符串都会被发送。
    -q when processing more than 150 requests, ab outputs a progress count on stderr every 10% or 100 requests or so. the -q flag will suppress these messages.
    如果处理的请求数大于150, ab每处理大约10%或者100个请求时,会在stderr输出一个进度计数。 此-q标记可以抑制这些信息。
    -s when compiled in (ab -h will show you) use the ssl protected https rather than the http protocol. this feature is experimental and very rudimentary. you probably do not want to use it.
    用于编译中(ab -h会显示相关信息)使用了ssl的受保护的https, 而不是http协议的时候。此功能是实验性的,也是很简陋的。最好不要用。
    -s do not display the median and standard deviation values, nor display the warning/error messages when the average and median are more than one or two times the standard deviation apart. and default to the min/avg/max values. (legacy support).
    不显示中值和标准背离值, 而且在均值和中值为标准背离值的1到2倍时,也不显示警告或出错信息。 默认时,会显示 最小值/均值/最大值等数值。(为以前的版本提供支持).
    -t timelimit
    maximum number of seconds to spend for benchmarking. this implies a -n 50000 internally. use this to benchmark the server within a fixed total amount of time. per default there is no timelimit.
    测试所进行的最大秒数。其内部隐含值是-n 50000。 它可以使对服务器的测试限制在一个固定的总时间以内。默认时,没有时间限制。
    -t content-type
    content-type header to use for post data.
    post数据所使用的content-type头信息。
    -v verbosity
    set verbosity level - 4 and above prints information on headers, 3 and above prints response codes (404, 200, etc.), 2 and above prints warnings and info.
    设置显示信息的详细程度 - 4或更大值会显示头信息, 3或更大值可以显示响应代码(404, 200等), 2或更大值可以显示警告和其他信息。
    -v display version number and exit.
    显示版本号并退出。
    -w print out results in html tables. default table is two columns wide, with a white background.
    以html表的格式输出结果。默认时,它是白色背景的两列宽度的一张表。
    -x -attributes
    string to use as attributes for
    . attributes are inserted
    .
    设置
    属性的字符串。 此属性被填入.
    -x proxy[:port]
    use a proxy server for the requests.
    对请求使用代理服务器。
    -y
    -attributes
    string to use as attributes for .
    设置属性的字符串.
    -z
    -attributes
    string to use as attributes for
    .
    设置
    属性的字符串.
    bugs
    there are various statically declared buffers of fixed length. combined with the lazy parsing of the command line arguments, the response headers from the server and other external inputs, this might bite you. it does not implement http/1.x fully; only accepts some 'expected' forms of responses. the rather heavy use of strstr(3) shows up  in profile, which might indicate a performance problem; i.e., you would measure the ab performance rather than the server's.
    程序中有各种静态声明的固定长度的缓冲区。另外,对命令行参数、服务器的响应头和其他外部输入的解析也很简单,这可能会有不良后果。它没有完整地实现http/1.x; 仅接受某些'预想'的响应格式。strstr(3)的频繁使用可能会带来性能问题,即, 你可能是在测试ab而不是服务器的性能。

    paulwong 2015-01-08 18:38
    ]]>mongodb 查询性能的事情http://www.blogjava.net/paulwong/archive/2015/01/06/422096.htmlpaulwongpaulwongtue, 06 jan 2015 15:39:00 gmthttp://www.blogjava.net/paulwong/archive/2015/01/06/422096.htmlhttp://www.blogjava.net/paulwong/comments/422096.htmlhttp://www.blogjava.net/paulwong/archive/2015/01/06/422096.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/422096.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/422096.html
    但是这个测试都是在百万级别,我的场景在 kw 级别。所以还要对 mongodb 在 kw 级别下测试效果。

    我测试环境是 4g 内存(有好些内存被其它程序占用),2kw 数据,查询随机生成 id(一次查询 20 个id)。

    在这样的环境中测试不理想,比较失望。平均一次查询 500ms(比 mysql 还差,特别是在并发查询下,性能较差。很底的吞吐量)。查看其索引大小(用 db.mycoll.stats() 可以查询):2kw 数据中有 1.1g 左右的索引,存储的数据在 11g 左右。

    测试过程中发现 iowait 占 50% 左右,看来还是 io 的瓶颈。还看到 mongodb 使用的内存不多(小于索引的大小,看来这机器不足够来测试)。

    换了个有可用 6g 内存的机器。在 50 个并发下,可以达到平均 100 ms 左右,算比较满意,但是并发好像能力不够强。但这个性能不能由我控制,还由机器的可用内存控制。原因就是 mongodb 没有指定可占用的内存大小,它把所有空闲内存当缓存使用,既是优点也是缺点:优点--可以最大限度提升性能;缺点--容易受其它程序干扰(占用了它的缓存)。由我测试来看,它抢占内存的能力不强。mongodb 是用内存映射文件 vmm,官方的说明:

    memory mapped storage engine

    this is the current storage engine for mongodb, and it uses memory-mapped files for all disk i/o. using this strategy, the operating system's virtual memory manager is in charge of caching. this has several implications:

    there is no redundancy between file system cache and database cache: they are one and the same.
    mongodb can use all free memory on the server for cache space automatically without any configuration of a cache size.
    virtual memory size and resident size will appear to be very large for the mongod process. this is benign: virtual memory space will be just larger than the size of the datafiles open and mapped; resident size will vary depending on the amount of memory not used by other processes on the machine.
    caching behavior (such as lru'ing out of pages, and laziness of page writes) is controlled by the operating system: quality of the vmm implementation will vary by os.
    所以这么来看,我觉得 mongodb 没有指定内存大小来保证正常的缓存是个缺点。应该至少保证索引全部能放到内存中。但这个行为不是由启动程序决定,而是由环境决定(美中不足)。

    官方也有段内容说到索引放到内存中:

    if your queries seem sluggish, you should verify that your indexes are small enough to fit in ram. for instance, if you're running on 4gb ram and you have 3gb of indexes, then your indexes probably aren't fitting in ram. you may need to add ram and/or verify that all the indexes you've created are actually being used.

    还是希望 mongodb 中可以指定内存大小,确保它有足够内存加载索引。

    小结:大数据量下(kw级)mongodb 并发查询不够理想(100-200/s)。写数据很快(我的环境,远程提交近 1w/s,估计达到 1.5w/s 是没问题的,基本不受大数据量的影响)。

    贴个测试数据:

    1 id(内存使用 <1.5g) 10 id(内存使用 2-3g) 20 id(内存使用 >4g)
    1 2 3 1 2 3 1 2 3
    total time 17.136 25.508 17.387 37.138 33.788 25.143 44.75 31.167 30.678
    1 thread thruput 583.5668 392.0339 575.1423 269.266 295.9631 397.725 223.4637 320.8522 325.9665
    total time 24.405 22.664 24.115 41.454 41.889 39.749 56.138 53.713 54.666
    5 thread thruput 2048.76 2206.142 2073.398 1206.156 1193.631 1257.893 890.6623 930.8733 914.6453
    total time 27.567 26.867 28.349 55.672 54.347 50.93 72.978 81.857 75.925
    10 thread thruput 3627.526 3722.038 3527.461 1796.235 1840.028 1963.479 1370.276 1221.643 1317.089
    total time 51.397 57.446 53.81 119.386 118.015 76.405 188.962 188.034 138.839
    20 thread thruput 3891.278 3481.53 3716.781 1675.238 1694.7 2617.63 1058.414 1063.637 1440.517
    total time 160.038 160.808 160.346 343.559 352.732 460.678 610.907 609.986 1411.306
    50 thread thruput 3124.258 3109.298 3118.257 1455.354 1417.507 1085.357 818.4552 819.6909 354.2818
    total time 2165.408 635.887 592.958 1090.264 1034.057 1060.266 1432.296 1466.971 1475.061
    100 thread thruput 461.8067 1572.606 1686.46 917.209 967.0647 943.1595 698.1797 681.6767 677.9381
    上面的测试分别用三种查询(每次 1,10,20 id),在不同并发下测试3次,每次发出 1w 次查询。第一行数据为所有线程累加时间(单位 ms),第二行数据为吞吐量(1w /(total time / thread num))。测试中内存使用慢慢增加,所以后面的数据可能比较高效的(高效的环境)。

    从上表看,10 - 20线程比较高的吞吐量。看到内存使用,前提就是索引加载到内存中,并有些内存作为缓存。

    下面有个索引查询优化的 pdf。

    indexing and query optimizer

    indexing and query optimizer (aaron staple)
    ps:

    默认 mongodb 服务器只有10个并发,如果要提高它的连接数,可以用 --maxconns num 来提高它的接收并发的数据。

    mongodb 的 java 驱动默认最多只有 10 并发连接池。要提高它,可以在 mongo.jar 的环境中加入 mongo.poolsize 系统参数,如 java -dmongo.poolsize=50 ...

    paulwong 2015-01-06 23:39
    ]]>
    关于mongodb最大连接数的查看与修改http://www.blogjava.net/paulwong/archive/2015/01/06/422093.htmlpaulwongpaulwongtue, 06 jan 2015 14:10:00 gmthttp://www.blogjava.net/paulwong/archive/2015/01/06/422093.htmlhttp://www.blogjava.net/paulwong/comments/422093.htmlhttp://www.blogjava.net/paulwong/archive/2015/01/06/422093.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/422093.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/422093.html
    [root@dell113 mongodb-linux-i686-2.4.1]# mongo admin -u root -p password
    mongodb shell version: 2.4.1
    connecting to: 192.168.6.42/admin
    > db.serverstatus().connections
    { "current" : 1, "available" : 818, "totalcreated" : numberlong(1) }

    途中available显示818少了一个,表示空闲的。current表示已经占用了的连接数,两数一加就等于819,如果我现在在连接一个,那么available就是817,current就是2

    [root@dell113 mongodb-linux-i686-2.4.1]# ./bin/mongo 192.168.6.42
    mongodb shell version: 2.4.1
    connecting to: 192.168.6.42/test
    > db.serverstatus().connections
    "current" : 1, "available" : 818, "totalcreated" : numberlong(1) }
    > db.serverstatus().connections
    "current" : 2, "available" : 817, "totalcreated" : numberlong(2) }

    819个连接数对于一般的站点我认为已经够用,并且都是现连现取现断。但这个连接数也可以修改,只要在启动的时候加入--maxconns即可
    服务器启动

    [root@lee mongodb-linux-x86_64-2.4.1]# ./bin/mongod --dbpath=/root/db --maxconns=2000
    wed apr 3 11:06:21.905 [initandlisten] mongodb starting : pid=2812 port=27017 dbpath=/root/db 64-bit host=lee
    wed apr 3 11:06:21.957 [initandlisten] db version v2.4.1
    wed apr 3 11:06:21.957 [initandlisten] git version: 1560959e9ce11a693be8b4d0d160d633eee75110
    wed apr 3 11:06:21.957 [initandlisten] build info: linux ip-10-2-29-40 2.6.21.7-2.ec2.v1.2.fc8xen #1 smp fri nov 20 17:48:28 est 2009 x86_64 boost_lib_version=1_49
    wed apr 3 11:06:21.957 [initandlisten] allocator: tcmalloc
    wed apr 3 11:06:21.957 [initandlisten] options: { dbpath: "/root/db", maxconns: 2000 }
    wed apr 3 11:06:21.982 [initandlisten] journal dir=/root/db/journal
    wed apr 3 11:06:21.982 [initandlisten] recover : no journal files present, no recovery needed
    wed apr 3 11:06:22.297 [initandlisten] preallocateisfaster=true 2.62
    wed apr 3 11:06:22.717 [initandlisten] --maxconns too high, can only handle 819
    wed apr 3 11:06:22.724 [initandlisten] waiting for connections on port 27017
    wed apr 3 11:06:22.725 [websvr] admin web console waiting for connections on port 28017
    wed apr 3 11:06:25.126 [initandlisten] connection accepted from 192.168.4.86:53917 #1 (1 connection now open)

    查询最大连接数

    [root@dell113 mongodb-linux-i686-2.4.1]# ./bin/mongo 192.168.6.42
    mongodb shell version: 2.4.1
    connecting to: 192.168.6.42/test
    > db.serverstatus().connections
    "current" : 1, "available" : 818, "totalcreated" : numberlong(1) }

    发现还是819?其实是linux默认进程能打开最大文件数有关,可以通过ulimit 解决

    [root@lee mongodb-linux-x86_64-2.4.1]# ulimit -n 2500
    [root@lee mongodb-linux-x86_64-2.4.1]# ./bin/mongod --dbpath=/root/db --maxconns=2000
    wed apr 3 11:11:07.013 [initandlisten] mongodb starting : pid=2930 port=27017 dbpath=/root/db 64-bit host=lee
    wed apr 3 11:11:07.013 [initandlisten] db version v2.4.1
    wed apr 3 11:11:07.013 [initandlisten] git version: 1560959e9ce11a693be8b4d0d160d633eee75110
    wed apr 3 11:11:07.013 [initandlisten] build info: linux ip-10-2-29-40 2.6.21.7-2.ec2.v1.2.fc8xen #1 smp fri nov 20 17:48:28 est 2009 x86_64 boost_lib_version=1_49
    wed apr 3 11:11:07.013 [initandlisten] allocator: tcmalloc
    wed apr 3 11:11:07.013 [initandlisten] options: { dbpath: "/root/db", maxconns: 2000 }
    wed apr 3 11:11:07.031 [initandlisten] journal dir=/root/db/journal
    wed apr 3 11:11:07.031 [initandlisten] recover : no journal files present, no recovery needed
    wed apr 3 11:11:07.170 [initandlisten] waiting for connections on port 27017
    wed apr 3 11:11:07.171 [websvr] admin web console waiting for connections on port 28017
    wed apr 3 11:11:10.076 [initandlisten] connection accepted from 192.168.4.86:53161 #1 (1 connection now open)

    再查看最大连接数,搞定

    [root@dell113 mongodb-linux-i686-2.4.1]# ./bin/mongo 192.168.6.42
    mongodb shell version: 2.4.1
    connecting to: 192.168.6.42/test
    > db.serverstatus().connections
    "current" : 1, "available" : 1999, "totalcreated" : numberlong(1) }

    关于ulimit的更多知识大家可以去网上检索检索

    客户端程序通常是通过driver来链接,由于每次建立链接的成本都挺高,因此都用链接池来实现,spring data mongodb中是如下配置
    mongo.dbname=cms
    #线程池的大小
    mongo.connectionsperhost=100
    #这个*mongo.connectionsperhost则是如果链接数大于100的等待xttk数
    mongo.threadsallowedtoblockforconnectionmultiplier=4
    #等待线程的等待时间
    mongo.maxwaittime=1500
    mongo.sockettimeout=1500
    mongo.connecttimeout=1000
    mongo.autoconnectretry=true
    mongo.socketkeepalive=true
    mongo.slaveok=true


    • autoconnectretry simply means the driver will automatically attempt to reconnect to the server(s) after unexpected disconnects. in production environments you usually want this set to true.

    • connectionsperhost are the amount of physical connections a single mongo instance (it's singleton so you usually have one per application) can establish to a mongod/mongos process. at time of writing the java driver will establish this amount of connections eventually even if the actual query throughput is low (in order words you will see the "conn" statistic in mongostat rise until it hits this number per app server).

      there is no need to set this higher than 100 in most cases but this setting is one of those "test it and see" things. do note that you will have to make sure you set this low enough so that the total amount of connections to your server do not exceed

      db.serverstatus().connections.available

      in production we currently have this at 40.

    • connecttimeout. as the name suggest number of milliseconds the driver will wait before a connection attempt is aborted. set timeout to something long (15-30 seconds) unless there's a realistic, expected chance this will be in the way of otherwise succesful connection attempts. normally if a connection attempt takes longer than a couple of seconds your network infrastructure isn't capable of high throughput.

    • maxwaittime. number of ms a thread will wait for a connection to become available on the connection pool, and raises an exception if this does not happen in time. keep default.

    • sockettimeout. standard socket timeout value. set to 60 seconds (60000).

    • threadsallowedtoblockforconnectionmultiplier. multiplier for connectionsperhost that denotes the number of threads that are allowed to wait for connections to become available if the pool is currently exhausted. this is the setting that will cause the "com.mongodb.dbportpool$semaphoresout: out of semaphores to get db connection" exception. it will throw this exception once this thread queue exceeds the threadsallowedtoblockforconnectionmultiplier value. for example, if the connectionsperhost is 10 and this value is 5 up to 50 threads can block before the aforementioned exception is thrown.

      if you expect big peaks in throughput that could cause large queues temporarily increase this value. we have it at 1500 at the moment for exactly that reason. if your query load consistently outpaces the server you should just improve your hardware/scaling situation accordingly.

    • readpreference(updated, 2.8 ) used to determine the default read preference and replaces "slaveok". set up a readpreference through one of the class factory method. a full description of the most common settings can be found at the end of this post

    • w(updated, 2.6 ) this value determines the "safety" of the write. when this value is -1 the write will not report any errors regardless of network or database errors. writeconcern.none is the appropriate predefined writeconcern for this. if w is 0 then network errors will make the write fail but mongo errors will not. this is typically referred to as "fire and forget" writes and should be used when performance is more important than consistency and durability. use writeconcern.normal for this mode.

      if you set w to 1 or higher the write is considered safe. safe writes perform the write and follow it up by a request to the server to make sure the write succeeded or retrieve an error value if it did not (in other words, it sends a getlasterror() command after you write). note that until this getlasterror() command is completed the connection is reserved. as a result of that and the additional command the throughput will be signficantly lower than writes with w <= 0. with a w value of exactly 1 mongodb guarantees the write succeeded (or verifiably failed) on the instance you sent the write to.

      in the case of replica sets you can use higher values for w whcih tell mongodb to send the write to at least "w" members of the replica set before returning (or more accurately, wait for the replication of your write to "w" members). you can also set w to the string "majority" which tells mongodb to perform the write to the majority of replica set members (writeconcern.majority). typicall you should set this to 1 unless you need raw performance (-1 or 0) or replicated writes (>1). values higher than 1 have a considerable impact on write throughput.

    • fsync. durability option that forces mongo to flush to disk after each write when enabled. i've never had any durability issues related to a write backlog so we have this on false (the default) in production.

    • j *(new 2.7 )*. boolean that when set to true forces mongodb to wait for a successful journaling group commit before returning. if you have journaling enabled you can enable this for additional durability. refer to  to see what journaling gets you (and thus why you might want to enable this flag).

    readpreference the readpreference class allows you to configure to what mongod instances queries are routed if you are working with replica sets. the following options are available :

    • readpreference.primary() : all reads go to the repset primary member only. use this if you require all queries to return consistent (the most recently written) data. this is the default.

    • readpreference.primarypreferred() : all reads go to the repset primary member if possible but may query secondary members if the primary node is not available. as such if the primary becomes unavailable reads become eventually consistent, but only if the primary is unavailable.

    • readpreference.secondary() : all reads go to secondary repset members and the primary member is used for writes only. use this only if you can live with eventually consistent reads. additional repset members can be used to scale up read performance although there are limits to the amount of (voting) members a repset can have.

    • readpreference.secondarypreferred() : all reads go to secondary repset members if any of them are available. the primary member is used exclusively for writes unless all secondary members become unavailable. other than the fallback to the primary member for reads this is the same as readpreference.secondary().

    • readpreference.nearest() : reads go to the nearest repset member available to the database client. use only if eventually consistent reads are acceptable. the nearest member is the member with the lowest latency between the client and the various repset members. since busy members will eventually have higher latencies this should also automatically balance read load although in my experience secondary(preferred) seems to do so better if member latencies are relatively consistent.

    note : all of the above have tag enabled versions of the same method which return taggablereadpreference instances instead. a full description of replica set tags can be found here :



    参考网址:



    paulwong 2015-01-06 22:10
    ]]>
    tomcat调优http://www.blogjava.net/paulwong/archive/2015/01/06/422081.htmlpaulwongpaulwongtue, 06 jan 2015 09:40:00 gmthttp://www.blogjava.net/paulwong/archive/2015/01/06/422081.htmlhttp://www.blogjava.net/paulwong/comments/422081.htmlhttp://www.blogjava.net/paulwong/archive/2015/01/06/422081.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/422081.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/422081.html
  8. 安装ab
    rpm -ivh http://repo.webtatic.com/yum/centos/5/`uname -i`/webtatic-release-5-0.noarch.rpm
    yum install httpd-tools

  9. 使用ab
    ab -r -n 100000 -c 10000 http://10.120.151.223:8080/
    需加-r,则在收到socket错误的时候不会退出
    这段的意思是发送100000个请求,其中并发是10000个

  10. 修改linux能打开的文件的最大数
    2、  修改目标
    我们的目标是:让每一个用户登录系统后系统打开的最大文件数都是我们设定好的。
    但我这里不得不说的是:非常遗憾,网上很多这方面关于ulimit设置修改资源限制的文章,但没一篇文章管用。
    把这个目标分解为两个目标:

    2.1、设置对root用户登录系统生效
    这个目标可以实现起来不难

    2.2、设置对所有用户生效
    这个就非常麻烦了,弄不好还会把你的系统给整坏,因为要重编译linux的内核才行!
    所以权衡之下,我只实现了第一个目标,因为第二个目标的风险太大,我想如果我之前知道这点,那么我在装系统的时候我会先做这个处理,但现在我觉得已经晚了。

    3、  修改的地方

    3.1、修改/etc/security/limits.conf
    通过 vi /etc/security/limits.conf修改其内容,在文件最后加入(数值也可以自己定义):
    * soft  nofile = 65536
    * hard  nofile = 65536
    root soft nofile 65536
    root hard nofile 65536
    * 表示该配置对所有用户均有效,root用户要特别加两行。

    3.2、修改/etc/profile
    通过vi /etc/profile修改,在最后加入以下内容
    ulimit -n 65536
    然后重新登录即可生效了。
    说明:
    其实只修改/etc/profile就可以生效了,但我还是建议把/etc/security/limits.conf也修改一下。
    最后强调的是,你如果要使得修改对所有用户都生效,那么现在看来你只能重新编译linux的内核才行。


  11. 安装apr,参考:
    $ wget http://apache.fayea.com//apr/apr-1.5.1.tar.gz
    $ cd /path/to/tomcat/bin
    $ tar zxvf tomcat-native.tar.gz
    $ cd tomcat-native-x.y.z-src/jni/native
    $ ./configure --with-apr=/usr/local/apr --with-ssl=/usr/lib64/openssl
    $ make install

  12. 修改server.xml
    <connector port="8080" protocol="org.apache.coyote.http11.http11aprprotocol"
            uriencoding
    ="utf-8"  
                  enablelookups
    ="false" 
                  tcpnodelay
    ="true"
            compression
    ="on" compressionminsize="2048"
            maxthreads
    ="20000" connectiontimeout="-1"
            compressablemimetype
    ="application/json,text/html,text/xml,text/javascript,text/css,text/plain" redirectport="8443"/>


  13. https的也要修改:
    <connector sslenabled="true" clientauth="false"
            port
    ="8443" keystorefile="/root/java/keystore/server.jks" keystorepass="123456"
            protocol
    ="org.apache.coyote.http11.http11nioprotocol" scheme="https"
            secure
    ="true" sslprotocol="tls" 
        uriencoding
    ="utf-8"  minsparethreads="25" maxsparethreads="75"
               enablelookups
    ="false" disableuploadtimeout="true" connectiontimeout="20000"
        acceptcount
    ="1000"  maxthreads="1000" maxprocessors="1000" minprocessors="5"
        useurivalidationhack
    ="false" tcpnodelay="true"
        compression
    ="on" compressionminsize="2048"
        compressablemimetype
    ="application/json,text/html,text/xml,text/javascript,text/css,text/plain" />

  14. jvm启动参数
    java_opts="-server -xms2048m -xmx2048m -xss512k -xx: aggressiveopts -xx: usebiasedlocking -xx:permsize=128m -xx:maxpermsize=256m -xx: disableexplicitgc -xx:maxtenuringthreshold=31 -xx: useconcmarksweepgc -xx: useparnewgc  -xx: cmsparallelremarkenabled -xx: usecmscompactatfullcollection -xx:largepagesizeinbytes=128m  -xx: usefastaccessormethods -xx: usecmsinitiatingoccupancyonly -djava.awt.headless=true "

  15. 参考网址:




    paulwong 2015-01-06 17:40
    ]]>
    redis 集群凯发天生赢家一触即发官网的解决方案 codishttp://www.blogjava.net/paulwong/archive/2014/11/09/419813.htmlpaulwongpaulwongsun, 09 nov 2014 01:28:00 gmthttp://www.blogjava.net/paulwong/archive/2014/11/09/419813.htmlhttp://www.blogjava.net/paulwong/comments/419813.htmlhttp://www.blogjava.net/paulwong/archive/2014/11/09/419813.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/419813.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/419813.html

    codis 是一个分布式  凯发天生赢家一触即发官网的解决方案, 对于上层的应用来说, 连接到 codis proxy 和连接原生的 redis server 没有明显的区别 (不支持的命令列表), 上层应用可以像使用单机的 redis 一样使用, codis 底层会处理请求的转发, 不停机的数据迁移等工作, 所有后边的一切事情, 对于前面的客户端来说是透明的, 可以简单的认为后边连接的是一个内存无限大的 redis 服务.

    codis 由四部分组成:

    • codis proxy   (codis-proxy)

    • codis manager (codis-config)

    • codis redis   (codis-server)

    • zookeeper

    codis-proxy 是客户端连接的 redis 代理服务, codis-proxy 本身实现了 redis 协议, 表现得和一个原生的 redis 没什么区别 (就像 ), 对于一个业务来说, 可以部署多个 codis-proxy, codis-proxy 本身是无状态的.

    codis-config 是 codis 的管理工具, 支持包括, 添加/删除 redis 节点, 添加/删除 proxy 节点, 发起数据迁移等操作. codis-config 本身还自带了一个 http server, 会启动一个 dashboard, 用户可以直接在浏览器上观察 codis 集群的运行状态.

    codis-server 是 codis 项目维护的一个 redis 分支, 基于 2.8.13 开发, 加入了 slot 的支持和原子的数据迁移指令. codis 上层的 codis-proxy 和 codis-config 只能和这个版本的 redis 交互才能正常运行.

    codis 依赖 zookeeper 来存放数据路由表和 codis-proxy 节点的元信息, codis-config 发起的命令都会通过 zookeeper 同步到各个存活的 codis-proxy.

    codis 支持按照 namespace 区分不同的产品, 拥有不同的 product name 的产品, 各项配置都不会冲突.

    目前 codis 已经是稳定阶段,目前已经在使用该系统。

    架构:

    特性:

    • 自动平衡

    • 使用非常简单

    • 图形化的面板和管理工具

    • 支持绝大多数 redis 命令,完全兼容 

    • 支持 redis 原生客户端

    • 安全而且透明的数据移植,可根据需要轻松添加和删除节点

    • 提供命令行接口

    • restful apis

    安装:

    • install go

    • go get github.com/wandoulabs/codis

    • cd codis

    • ./bootstrap.sh

    • make gotest

    • cd sample

    • follow instructions in usage.md

    界面截图:

    dashboard

    migrate

    slots



    paulwong 2014-11-09 09:28
    ]]>
    java并行处理框架 jppfhttp://www.blogjava.net/paulwong/archive/2014/07/19/415998.htmlpaulwongpaulwongsat, 19 jul 2014 01:55:00 gmthttp://www.blogjava.net/paulwong/archive/2014/07/19/415998.htmlhttp://www.blogjava.net/paulwong/comments/415998.htmlhttp://www.blogjava.net/paulwong/archive/2014/07/19/415998.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/415998.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/415998.html


    paulwong 2014-07-19 09:55
    ]]>
    tomcat性能调优http://www.blogjava.net/paulwong/archive/2014/07/17/415915.htmlpaulwongpaulwongthu, 17 jul 2014 00:43:00 gmthttp://www.blogjava.net/paulwong/archive/2014/07/17/415915.htmlhttp://www.blogjava.net/paulwong/comments/415915.htmlhttp://www.blogjava.net/paulwong/archive/2014/07/17/415915.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/415915.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/415915.htmlhttp://my.oschina.net/leejayblog/blog?catalog=517328


    tomcat7.0性能优化-挑战极限完整版



    paulwong 2014-07-17 08:43
    ]]>
    网购狂欢节背后的技术阅兵http://www.blogjava.net/paulwong/archive/2014/07/16/415870.htmlpaulwongpaulwongwed, 16 jul 2014 00:46:00 gmthttp://www.blogjava.net/paulwong/archive/2014/07/16/415870.htmlhttp://www.blogjava.net/paulwong/comments/415870.htmlhttp://www.blogjava.net/paulwong/archive/2014/07/16/415870.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/415870.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/415870.html


    paulwong 2014-07-16 08:46
    ]]>
    图片服务架构演进http://www.blogjava.net/paulwong/archive/2014/07/16/415869.htmlpaulwongpaulwongwed, 16 jul 2014 00:39:00 gmthttp://www.blogjava.net/paulwong/archive/2014/07/16/415869.htmlhttp://www.blogjava.net/paulwong/comments/415869.htmlhttp://www.blogjava.net/paulwong/archive/2014/07/16/415869.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/415869.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/415869.html


    paulwong 2014-07-16 08:39
    ]]>
    腾讯ckv海量分布式存储系统http://www.blogjava.net/paulwong/archive/2014/07/16/415866.htmlpaulwongpaulwongtue, 15 jul 2014 23:58:00 gmthttp://www.blogjava.net/paulwong/archive/2014/07/16/415866.htmlhttp://www.blogjava.net/paulwong/comments/415866.htmlhttp://www.blogjava.net/paulwong/archive/2014/07/16/415866.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/415866.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/415866.html

    paulwong 2014-07-16 07:58
    ]]>
    如何模拟超过 5 万的并发用户http://www.blogjava.net/paulwong/archive/2014/07/02/415355.htmlpaulwongpaulwongwed, 02 jul 2014 01:13:00 gmthttp://www.blogjava.net/paulwong/archive/2014/07/02/415355.htmlhttp://www.blogjava.net/paulwong/comments/415355.htmlhttp://www.blogjava.net/paulwong/archive/2014/07/02/415355.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/415355.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/415355.html

    paulwong 2014-07-02 09:13
    ]]>
    jvm实用参数-6 吞吐量收集器http://www.blogjava.net/paulwong/archive/2014/06/16/414812.htmlpaulwongpaulwongmon, 16 jun 2014 09:26:00 gmthttp://www.blogjava.net/paulwong/archive/2014/06/16/414812.htmlhttp://www.blogjava.net/paulwong/comments/414812.htmlhttp://www.blogjava.net/paulwong/archive/2014/06/16/414812.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/414812.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/414812.html
  16. 吞吐量越高算法越好
  17. 暂停时间越短算法越好
  18. 首先让我们来明确垃圾收集(gc)中的两个术语:吞吐量(throughput)和暂停时间(pause times)。 jvm在专门的线程(gc threads)中执行gc。 只要gc线程是活动的,它们将与应用程序线程(application threads)争用当前可用cpu的时钟周期。 简单点来说,吞吐量是指应用程序线程用时占程序总用时的比例。 例如,吞吐量99/100意味着100秒的程序执行时间应用程序线程运行了99秒, 而在这一时间段内gc线程只运行了1秒。

    术语”暂停时间”是指一个时间段内应用程序线程让与gc线程执行而完全暂停。 例如,gc期间100毫秒的暂停时间意味着在这100毫秒期间内没有应用程序线程是活动的。 如果说一个正在运行的应用程序有100毫秒的“平均暂停时间”,那么就是说该应用程序所有的暂停时间平均长度为100毫秒。 同样,100毫秒的“最大暂停时间”是指该应用程序所有的暂停时间最大不超过100毫秒。


    吞吐量 vs 暂停时间

    高吞吐量最好因为这会让应用程序的最终用户感觉只有应用程序线程在做“生产性”工作。 直觉上,吞吐量越高程序运行越快。 低暂停时间最好因为从最终用户的角度来看不管是gc还是其他原因导致一个应用被挂起始终是不好的。 这取决于应用程序的类型,有时候甚至短暂的200毫秒暂停都可能打断终端用户体验。

    因此,具有低的最大暂停时间是非常重要的,特别是对于一个交互式应用程序。 不幸的是”高吞吐量”和”低暂停时间”是一对相互竞争的目标(矛盾)。这样想想看,为了清晰起见简化一下:gc需要一定的前提条件以便安全地运行。 例如,必须保证应用程序线程在gc线程试图确定哪些对象仍然被引用和哪些没有被引用的时候不修改对象的状态。

    为此,应用程序在gc期间必须停止(或者仅在gc的特定阶段,这取决于所使用的算法)。 然而这会增加额外的线程调度开销:直接开销是上下文切换,间接开销是因为缓存的影响。 加上jvm内部安全措施的开销,这意味着gc及随之而来的不可忽略的开销,将增加gc线程执行实际工作的时间。

    因此我们可以通过尽可能少运行gc来最大化吞吐量,例如,只有在不可避免的时候进行gc,来节省所有与它相关的开销。 然而,仅仅偶尔运行gc意味着每当gc运行时将有许多工作要做,因为在此期间积累在堆中的对象数量很高。 单个gc需要花更多时间来完成, 从而导致更高的平均和最大暂停时间。 因此,考虑到低暂停时间,最好频繁地运行gc以便更快速地完成。 这反过来又增加了开销并导致吞吐量下降,我们又回到了起点。

    综上所述,在设计(或使用)gc算法时​​,我们必须确定我们的目标:一个gc算法​​只可能针对两个目标之一(即只专注于最大吞吐量或最小暂停时间),或尝试找到一个二者的折衷。


    hotspot虚拟机上的垃圾收集

    该系列的第五部分我们已经讨论过年轻代的垃圾收集器。 对于年老代,hotspot虚拟机提供两类垃圾收集算法(除了新的g1垃圾收集算法),第一类算法试图最大限度地提高吞吐量,而第二类算法试图最小化暂停时间。 今天我们的重点是第一类,”面向吞吐量”的垃圾收集算法。

    我们希望把重点放在jvm配置参数上,所以我只会简要概述hotspot提供的面向吞吐量(throughput-oriented)垃圾收集算法。 当年老代中由于缺乏空间导致对象分配失败时会触发垃圾收集器(事实上,”分配”的通常是指从年轻代提升到年老代的对象)。

    从所谓的”gc根”(gc roots)开始,搜索堆中的可达对象并将其标记为活着的,之后,垃圾收集器将活着的对象移到年老代的一块无碎片(non-fragmented)内存块中,并标记剩余的内存空间是空闲的。 也就是说,我们不像复制策略那样移到一个不同的堆区域,像年轻代垃圾收集算法所做的那样。

    相反地,我们把所有的对象放在一个堆区域中,从而对该堆区域进行碎片整理。 垃圾收集器使用一个或多个线程来执行垃圾收集。 当使用多个线程时,算法的不同步骤被分解,使得每个收集线程大多时候工作在自己的区域而不干扰其他线程。 在垃圾收集期间,所有的应用程序线程暂停,只有垃圾收集完成之后才会重新开始。

    现在让我们来看看跟面向吞吐量垃圾收集算法有关的重要jvm配置参数。


    -xx: useserialgc

    我们使用该标志来激活串行垃圾收集器,例如单线程面向吞吐量垃圾收集器。 无论年轻代还是年老代都将只有一个线程执行垃圾收集。 该标志被推荐用于只有单个可用处理器核心的jvm。 在这种情况下,使用多个垃圾收集线程甚至会适得其反,因为这些线程将争用cpu资源,造成同步开销,却从未真正并行运行。


    -xx: useparallelgc

    有了这个标志,我们告诉jvm使用多线程并行执行年轻代垃圾收集。 在我看来,java 6中不应该使用该标志因为-xx: useparalleloldgc显然更合适。 需要注意的是java 7中该情况改变了一点(详见本概述),就是-xx: useparallelgc能达到-xx: useparalleloldgc一样的效果。


    -xx: useparalleloldgc

    该标志的命名有点不巧,因为”老”听起来像”过时”。 然而,”老”实际上是指年老代,这也解释了为什么-xx: useparalleloldgc要优于-xx: useparallelgc:除了激活年轻代并行垃圾收集,也激活了年老代并行垃圾收集。 当期望高吞吐量,并且jvm有两个或更多可用处理器核心时,我建议使用该标志。
    作为旁注,hotspot的并行面向吞吐量垃圾收集算法通常称为”吞吐量收集器”,因为它们旨在通过并行执行来提高吞吐量。


    -xx:parallelgcthreads

    通过-xx:parallelgcthreads=我们可以指定并行垃圾收集的线程数量。 例如,-xx:parallelgcthreads=6表示每次并行垃圾收集将有6个线程执行。 如果不明确设置该标志,虚拟机将使用基于可用(虚拟)处理器数量计算的默认值。 决定因素是由java runtime。availableprocessors()方法的返回值n,如果n<=8,并行垃圾收集器将使用n个垃圾收集线程,如果n>8个可用处理器,垃圾收集线程数量应为3 5n/8。

    当jvm独占地使用系统和处理器时使用默认设置更有意义。 但是,如果有多个jvm(或其他耗cpu的系统)在同一台机器上运行,我们应该使用-xx:parallelgcthreads来减少垃圾收集线程数到一个适当的值。 例如,如果4个以服务器方式运行的jvm同时跑在在一个具有16核处理器的机器上,设置-xx:parallelgcthreads=4是明智的,它能使不同jvm的垃圾收集器不会相互干扰。


    -xx:-useadaptivesizepolicy

    吞吐量垃圾收集器提供了一个有趣的(但常见,至少在现代jvm上)机制以提高垃圾收集配置的用户友好性。 这种机制被看做是hotspot在java 5中引入的”人体工程学”概念的一部分。 通过人体工程学,垃圾收集器能将堆大小动态变动像gc设置一样应用到不同的堆区域,只要有证据表明这些变动将能提高gc性能。 “提高gc性能”的确切含义可以由用户通过-xx:gctimeratio和-xx:maxgcpausemillis(见下文)标记来指定。

    重要的是要知道人体工程学是默认激活的。 这很好,因为自适应行为是jvm最大优势之一。 不过,有时我们需要非常清楚对于特定应用什么样的设置是最合适的,在这些情况下,我们可能不希望jvm混乱我们的设置。 每当我们发现处于这种情况时,我们可以考虑通过-xx:-useadaptivesizepolicy停用一些人体工程学。


    -xx:gctimeratio

    通过-xx:gctimeratio=我们告诉jvm吞吐量要达到的目标值。 更准确地说,-xx:gctimeratio=n指定目标应用程序线程的执行时间(与总的程序执行时间)达到n/(n 1)的目标比值。 例如,通过-xx:gctimeratio=9我们要求应用程序线程在整个执行时间中至少9/10是活动的(因此,gc线程占用其余1/10)。 基于运行时的测量,jvm将会尝试修改堆和gc设置以期达到目标吞吐量。 -xx:gctimeratio的默认值是99,也就是说,应用程序线程应该运行至少99%的总执行时间。


    -xx:maxgcpausemillis

    通过-xx:gctimeratio=告诉jvm最大暂停时间的目标值(以毫秒为单位)。 在运行时,吞吐量收集器计算在暂停期间观察到的统计数据(加权平均和标准偏差)。 如果统计表明正在经历的暂停其时间存在超过目标值的风险时,jvm会修改堆和gc设置以降低它们。 需要注意的是,年轻代和年老代垃圾收集的统计数据是分开计算的,还要注意,默认情况下,最大暂停时间没有被设置。

    如果最大暂停时间和最小吞吐量同时设置了目标值,实现最大暂停时间目标具有更高的优先级。 当然,无法保证jvm将一定能达到任一目标,即使它会努力去做。 最后,一切都取决于手头应用程序的行为。

    当设置最大暂停时间目标时,我们应注意不要选择太小的值。 正如我们现在所知道的,为了保持低暂停时间,jvm需要增加gc次数,那样可能会严重影响可达到的吞吐量。 这就是为什么对于要求低暂停时间作为主要目标的应用程序(大多数是web应用程序),我会建议不要使用吞吐量收集器,而是选择cms收集器。 cms收集器是本系列下一部分的主题。

    paulwong 2014-06-16 17:26
    ]]>
    linux 下 siege 压力测试http://www.blogjava.net/paulwong/archive/2014/02/18/409971.htmlpaulwongpaulwongtue, 18 feb 2014 03:06:00 gmthttp://www.blogjava.net/paulwong/archive/2014/02/18/409971.htmlhttp://www.blogjava.net/paulwong/comments/409971.htmlhttp://www.blogjava.net/paulwong/archive/2014/02/18/409971.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/409971.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/409971.html
    说明

    ab的主要弱点在于它不能让你模拟一个更加真实的请求分布——例如你想通过设置一个请求的列表来在这些列表之间来回测试,而siege就可以。

    安装

    siege需要自己从http://www.joedog.org/上自己下载,然后编译:


    注意在configure的时候,一定要设置mandir参数,否则当你通过 man siege查看siege帮助的时候会看不到他的manual.
    wget http://www.joedog.org/pub/siege/siege-3.0.5.tar.gz
    tar -zxf siege-2.67.tar.gz
    ./configure --prefix=/usr/local/siege --mandir=/usr/local/man
    make
    # 转到超级用户
    make install
    安装完成后,运行bin中的siege_config命令来创建.siege文件之后,你可以通过

    ./siege -c
    命令来查看当前配置

    最简单的使用命令:

    ./siege http://localhost/
    #用来测试本地凯发k8网页登录主页


    参数介绍

    -cnum
    设置并发的用户(连接)数量. 默认的连接数量可以到~/.siegerc中查看,指令为concurrent = x。比如-c10,设置并发10个连接

    -rnum
    (repetitions),重复数量,即每个连接发出的请求数量,设置这个的话,就不需要设置-t了。对应.siegerc配置文件中的reps = x指令

    -tnum
    (time),持续时间,即测试持续时间,在num时间后结束,单位默认为分,比如-t10,那么测试时间为10分钟,-t10s,则测试时间为10秒钟。对应.siegerc中的指令为time = x指令

    -b
    (benchmark),基准测试,如果设置这个参数的话,那么delay时间为0。man siege中有一句话这样说:

    it's not recommanded that you use this option while load testing.

    说明基准测试和load testing 是完全不同的,至于有什么不同,可以阅读benchmarkingvsloadtestingvsperformance.

    -f url.txt
    (file),这是文件。对应.siegerc配置文件中的file = x指令

    其他比较关注的测试方法,比如我想使用keep-alive方式进行测试,可以在.siegerc配置文件中进行修改,将connect = close改为 connect = keep-alive
    另外您还可以通过-h header参数来设置请求header。


    结果说明
    lifting the server siege… done.
    transactions: 3419263 hits //完成419263次处理
    availability: 100.00 % //100.00 % 成功率
    elapsed time: 5999.69 secs //总共用时
    data transferred: 84273.91 mb //共数据传输84273.91 mb
    response time: 0.37 secs //相应用时1.65秒:显示网络连接的速度
    transaction rate: 569.91 trans/sec //均每秒完成 569.91 次处理:表示服务器后
    throughput: 14.05 mb/sec //平均每秒传送数据
    concurrency: 213.42 //实际最高并发数
    successful transactions: 2564081 //成功处理次数
    failed transactions: 11 //失败处理次数
    longest transaction: 29.04 //每次传输所花最长时间
    shortest transaction: 0.00 //每次传输所花最短时间

    paulwong 2014-02-18 11:06
    ]]>
    一些数据切分、缓存、rpc框架、nosql方案资料http://www.blogjava.net/paulwong/archive/2013/10/14/404954.htmlpaulwongpaulwongmon, 14 oct 2013 02:14:00 gmthttp://www.blogjava.net/paulwong/archive/2013/10/14/404954.htmlhttp://www.blogjava.net/paulwong/comments/404954.htmlhttp://www.blogjava.net/paulwong/archive/2013/10/14/404954.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/404954.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/404954.html1、数据切分

            1.1、 

            1.2、

            1.3、

            1.4、

    2、缓存

            2.1、

            2.2、

            2.3、

            2.4、

            2.5、

            2.6、

            2.7、

    3、rpc框架

            3.1、

            3.2、hsf 未开源

            3.3、

    4、nosql

            4.1、



    paulwong 2013-10-14 10:14
    ]]>
    大数据平台架构设计资源http://www.blogjava.net/paulwong/archive/2013/08/18/403001.htmlpaulwongpaulwongsun, 18 aug 2013 10:27:00 gmthttp://www.blogjava.net/paulwong/archive/2013/08/18/403001.htmlhttp://www.blogjava.net/paulwong/comments/403001.htmlhttp://www.blogjava.net/paulwong/archive/2013/08/18/403001.html#feedback0http://www.blogjava.net/paulwong/comments/commentrss/403001.htmlhttp://www.blogjava.net/paulwong/services/trackbacks/403001.html









    paulwong 2013-08-18 18:27
    ]]>
    网站地图