堆栈和堆的内容在定位问题的时候,都是非常重要的信息。线程堆栈 dump 可以了解当时 jvm 中所有线程的运行情况,比如线程的状态和当前正在运行的代码行。堆 dump 可以了解当时堆的使用情况,各个类实例的数量及各个实例所占用的空间大小。
jstack 是 jdk 自带的工具,用于 dump 指定进程 id(pid)的 jvm 的线程堆栈信息。
# 打印堆栈信息到标准输出 jstack pid
# 打印堆栈信息到标准输出,会打印关于锁的信息 jstack -l pid
强制打印堆栈信息到标准输出,如果使用 jstack pid 没有响应的情况下(此时 jvm 进程可能挂起),
加 -f 参数 jstack -f pid
jcmd 是 jdk 自带的工具,用于向 jvm 进程发送命令,根据命令的不同,可以代替或部分代替 jstack、jmap 等。可以发送命令 thread.print
来打印出 jvm 的线程堆栈信息。
# 下面的命令同等于 jstack pid
jcmd pid thread.print
# 同等于 jstack -l pid
jcmd pid thread.print -l
kill 可以向特定的进程发送信号(signal),缺省情况是发送终止(term) 的信号 ,即 kill pid 与 kill -15 pid 或 kill -term pid 是等价的。jvm 进程会监听 quit 信号(其值为 3),当收到这个信号时,会打印出当时的线程堆栈和堆内存使用概要,相比 jstack,此时多了堆内存的使用概要情况。但 jstack 可以指定 -l 参数,打印锁的信息。
kill -3 pid
# 或 kill -quit pid
添加 jvm 参数 -xx: heapdumponoutofmemoryerror 后,当发生 oom(outofmemory)时,自动堆 dump。缺省情况下,jvm 会创建一个名称为 java_pidpid.hprof 的堆 dump 文件在 jvm 的工作目录下。但可以使用参数 -xx:heapdumppath=path 来指定 dump 文件的保存位置。
# jvm 发生 oom 时,会自动在 /var/log/abc 目录下产生堆 dump 文件 java_pidpid.hprof
java -xx: heapdumponoutofmemoryerror -xx:heapdumppath=/var/log/abc/
jmap 也是 jdk 自带的工具,主要用于获取堆相关的信息。
# 将 jvm 的堆 dump 到指定文件,如果堆中对象较多,需要的时间会较长,子参数 format 只支持 b,
即二进制格式
jmap -dump:format=b,file=file_with_path
# 如果 jvm 进程未响应命令,可以加上参数 -f 尝试
jmap -f -dump:format=b,file=file_with_path
# 可以只 dump 堆中的存活对象,加上 live 子参数,但使用 -f 时不支持 live
jmap -dump:live,format=b,file=file_with_path
# -heap 参数用于查看指定 jvm 进程的堆的信息,包括堆的各个参数的值,堆中新生代、年老代的内存大小、使用率等
jmap -heap pid
# 同样,如果 jvm 进程未响应命令,可以加上参数 -f 尝试
jmap -f -heap pid
一个实例输出如下:
attaching to process id 68322, please wait
debugger attached successfully.
server compiler detected.
jvm version is 25.112-b16
using thread-local object allocation.
parallel gc with 4 thread(s)
heap configuration:
minheapfreeratio = 0
maxheapfreeratio = 100
maxheapsize = 268435456 (256.0mb)
newsize = 8388608 (8.0mb)
maxnewsize = 89128960 (85.0mb)
oldsize = 16777216 (16.0mb)
newratio = 2
survivorratio = 8
metaspacesize = 21807104 (20.796875mb)
compressedclassspacesize = 1073741824 (1024.0mb)
maxmetaspacesize = 17592186044415 mb
g1heapregionsize = 0 (0.0mb)
heap usage:
ps young generation
eden space:
capacity = 41943040 (40.0mb)
used = 1701504 (1.6226806640625mb)
free = 40241536 (38.3773193359375mb)
4.05670166015625% used
from space:
capacity = 4194304 (4.0mb)
used = 0 (0.0mb)
free = 4194304 (4.0mb)
0.0% used
to space:
capacity = 5242880 (5.0mb)
used = 0 (0.0mb)
free = 5242880 (5.0mb)
0.0% used
ps old generation
capacity = 30408704 (29.0mb)
used = 12129856 (11.56793212890625mb)
free = 18278848 (17.43206787109375mb)
39.889421134159484% used
16658 interned strings occupying 1428472 bytes.
获取堆中的类实例统计
# 打印 jvm 堆中的类实例统计信息,以占用内存的大小排序,同样,如果 jvm 未响应命令,也可以使用 -f 参数
jmap -histo pid
# 也可以只统计堆中的存活对象,加上 live 子参数,但使用 -f 时不支持 live
jmap -histo:live pid
# 等同 jmap -dump:live,format=b,file=file_with_path
jcmd pid gc.heap_dump file_with_path
# 等同 jmap -dump:format=b,file=file_with_path
jcmd pid gc.heap_dump -all file_with_path
# 等同 jmap -histo:live pid
jcmd pid gc.class_histogram
# 等同 jmap -histo pid
jcmd pid gc.class_histogram -all
in this video i explain some 21 jvm parameters which are suited for most server applications. if you have any questions, you can read those links below for more information or just ask in the comments section.
i run several java enterprise server applications. i often wondered – what are the best „default“ jvm settings for a server application to start with in production? i read a lot on the web and tried several things myself and wanted to share what i found out, so far. links containing more information about jvm optimization can be found here:
http://blog.sokolenko.me/2014/11/javavm-options-production.html
http://www.petefreitag.com/articles/gctuning/
http://stas-blogspot.blogspot.de/2011/07/most-complete-list-of-xx-options-for.html
so let’s start:
-server
use „-server“: all 64-bit jvms use the server vm as default anyway. this setting generally optimizes the jvm for long running server applications instead of startup time. the jvm will collect more data about the java byte code during program execution and generate the most efficient machine code via jit.
-xms=[g|m|k] -xmx= [g|m|k]
the „-xmx/-xms“ settings specify the maximum and minimum values for the jvm heap memory. for servers, both params should have the same value to avoid heap resizing during runtime. i’ve applications running with 16gb heap sizes without an issue.
depending on your application, you will have to try out how much memory will be best suited for your use case.
-xx:maxmetaspacesize=[g|m|k]
java 8 has no „permanent generation“ (permgen) anymore but requires additional „metaspace“ memory instead. this memory is used, in addition to the heap memory we specified before, for storing class meta data information.
the default size will be unlimited – i tend to limit maxmetaspacesize with a somewhat high value. just in case something goes wrong with the application, the jvm will not hog all the memory of the server.
i suggest: let your application run for a couple of days to get a feeling for how much metaspace size it uses normally. upon next restart of the application set the limit to e.g. double the value.
-xx: cmsclassunloadingenabled
additionally, you might want to allow the jvm to unload classes which are held in memory but no code is pointing to them any more. if your application generates lots of dynamic classes, this is what you want.
-xx: useconcmarksweepgc
this option makes the jvm use the concurrentmarksweepgc – it can do much work in parallel to program execution but in some circumstances a „full gc“ with a „stw pause“ might still occur. i’ve read many articles and came to the conclusion that this gc is still the best one for server workloads.
-xx: cmsparallelremarkenabled
the option cmsparallelremarkenabled means the remarking is done in parallel to program execution – which is what you want if your server has many cores (and most servers do).
-xx: usecmsinitiatingoccupancyonly -xx:cmsinitiatingoccupancyfraction=
normally the gc will use heuristics to know when it’s time to clear memory. gc might kick in too late with default settings (causing full-gcs).
some sources say it might be a good idea to disable heuristics altogether and just use generation occupancy to start a cms collection cycle. setting values around 70% worked fine for all of my applications and use cases.
-xx: scavengebeforefullgc
the first option tells the gc to first free memory by clearing out the „young generation“ or fairly new objects before doing a full gc.
-xx: cmsscavengebeforeremark
cmsscavengebeforeremark does attempt a minor collection before the cms remark phase – thus keeping the remark pause afterwards short.
-xx: cmsclassunloadingenabled
the option „-xx: cmsclassunloadingenabled“ here tells the jvm to unload classes, which are not needed any more by the running application. if you deploy war files to an application server like wildfly, tomcat or glassfish without restarting the server after the deployment, this flag is for you.
-xx: explicitgcinvokesconcurrentandunloadsclasses
the option „-xx: explicitgcinvokesconcurrentandunloadsclasses“ is especially important if your application uses rmi (remote method invocation). the usage of rmi will cause the jvm to do a full-gc every hour! this might be a very bad idea for large heap sizes because the full-gc pause might take up to several seconds. it would be better to do a concurrent gc and try to unload unused classes to free up more memory – which is exactly what the second option does.
-xx: printgcdatestamps -verbose:gc -xx: printgcdetails -xloggc:""
these options shown here will write out all gc related information to a specified log file. you can see how well your gc configuration works by looking into it.
i personally prefer to use the „visual gc“ plug in for the „visual vm“ tool to monitor the general jvm and gc behavior.
-xx: heapdumponoutofmemoryerror -xx:heapdumppath=`date`.hprof
when your jvm runs out of memory, you will want to know why. since the oom error might be hard to reproduce and you want to get your production server up and running again – you should specify a path for a heap dump. when things have settled down, you can analyze the dump afterwards.
-djava.rmi.server.hostname=-dcom.sun.management.jmxremote.port=
these options will help you to specify an ip and port for jmx – you will need those ports open to connect remotely to a jvm running on a server for tools like visualvm. you can gain deep insights over cpu and memory usage, gc behaviour, class loading, thread count and usage of your application this way.
lastly, i would like to recommend to you the visualvm tool which is bundled with the java 8 jdk. you can use it to gain more insights about your specific application behaviour on the jvm – like cpu and memory usage, thread utilisation and much more.
visualvm can be extended with a plug in called „visual gc“. it will briefly show you very detailed information about the usage of the young and old generation object spaces. you can easily spot problems with garbage collection simply by analyzing these graphs during application runtime.
thank you very much for watching! if you liked the video you might consider giving it a „thumbs up“. if you have any questions – just put them in the comments section. i will reply as quickly as possible.
-------------------------------------------------------
-xx: usecompressedoops [if max heap allocation is less than 32gb]
this can save a significant amount of memory and this option should already be enabled by default on recent java 8 versions. this option allowes object references to be stored as 32-bit values instead of 64-bit on 64-bit jvms. this leads to before mentioned memory savings.
-xx: aggressiveopts
this option will enable performance options which are hoped to become enabled by default in upcoming released of the jvm. this option sets some performance settings but is marked as experimental! so you should only enable it, when you have to possibility to test your application thoroughly before enabling this flag on an production server.
-xx: usestringdeduplication
since java 8 update 20 you can use this option to reduce the memory usage of your application. the jvm will spot identical strings in memory, remove the duplicated and point all references to the remaining, single instance of the string.
-xx: useg1gc
will tell the jvm to use the most recent g1 garbage collector. you are trading better application response times (due to shorter gc times with g1) against lower throughput (compared against good old concmarksweepgc / cms). if your application can deliver more value through short gc times, then g1 is definately better suited. otherwise on java 8, i’d recommend sticking with cms.
concerning your tomcat 8 question, i’d suggest you have a look into it with the „visualvm“ tool. look at memory usage, gc times (visual gc plugin), pull and analyse stack traces or thread dumps to find the weak spot. you might also consider attaching a debugger to tomcat to find the bug.
note: this is by no means a sophisticated cachemanager; it comes with no
* cache configuration options. however, it may be useful for testing or simple
* caching scenarios. for advanced local caching needs, consider
* {@link org.springframework.cache.guava.guavacachemanager} or
* {@link org.springframework.cache.ehcache.ehcachecachemanager}.
*
* @author juergen hoeller
* @since 3.1
* @see concurrentmapcache
*/
public class myconcurrentmapcachemanager implements cachemanager {
private final concurrentmap
private boolean dynamic = true;
private boolean allownullvalues = true;
private long expiretime = 30;
private long maximumsize = 100;
/**
* construct a dynamic concurrentmapcachemanager,
* lazily creating cache instances as they are being requested.
*/
public myconcurrentmapcachemanager() {
}
/**
* construct a static concurrentmapcachemanager,
* managing caches for the specified cache names only.
*/
public myconcurrentmapcachemanager(long expiretime, long maximumsize) {
if(expiretime > 0)
this.expiretime = expiretime;
if(maximumsize > 0)
this.maximumsize = maximumsize;
}
/**
* specify the set of cache names for this cachemanager's 'static' mode.
*
the number of caches and their names will be fixed after a call to this method,
* with no creation of further cache regions at runtime.
*
calling this with a {@code null} collection argument resets the
* mode to 'dynamic', allowing for further creation of caches again.
*/
public void setcachenames(collection
if (cachenames != null) {
for (string name : cachenames) {
this.cachemap.put(name, createconcurrentmapcache(name));
}
this.dynamic = false;
}
else {
this.dynamic = true;
}
}
/**
* specify whether to accept and convert {@code null} values for all caches
* in this cache manager.
*
default is "true", despite concurrenthashmap itself not supporting {@code null}
* values. an internal holder object will be used to store user-level {@code null}s.
*
note: a change of the null-value setting will reset all existing caches,
* if any, to reconfigure them with the new null-value requirement.
*/
public void setallownullvalues(boolean allownullvalues) {
if (allownullvalues != this.allownullvalues) {
this.allownullvalues = allownullvalues;
// need to recreate all cache instances with the new null-value configuration
for (map.entry
entry.setvalue(createconcurrentmapcache(entry.getkey()));
}
}
}
/**
* return whether this cache manager accepts and converts {@code null} values
* for all of its caches.
*/
public boolean isallownullvalues() {
return this.allownullvalues;
}
@override
public collection
return collections.unmodifiableset(this.cachemap.keyset());
}
@override
public cache getcache(string name) {
cache cache = this.cachemap.get(name);
if (cache == null && this.dynamic) {
synchronized (this.cachemap) {
cache = this.cachemap.get(name);
if (cache == null) {
cache = createconcurrentmapcache(name);
this.cachemap.put(name, cache);
}
}
}
return cache;
}
/**
* create a new concurrentmapcache instance for the specified cache name.
* @param name the name of the cache
* @return the concurrentmapcache (or a decorator thereof)
*/
protected cache createconcurrentmapcache(string name) {
//return new concurrentmapcache(name, isallownullvalues());
//此处改用google guava的构造manager方式
return new concurrentmapcache(name,
cachebuilder.newbuilder()
.expireafterwrite(this.expiretime, timeunit.minutes)
.maximumsize(this.maximumsize)
.build()
.asmap(),
isallownullvalues());
}
}
-attributes string to use as attributes for | . 设置 | 属性的字符串. bugs there are various statically declared buffers of fixed length. combined with the lazy parsing of the command line arguments, the response headers from the server and other external inputs, this might bite you. it does not implement http/1.x fully; only accepts some 'expected' forms of responses. the rather heavy use of strstr(3) shows up in profile, which might indicate a performance problem; i.e., you would measure the ab performance rather than the server's. 程序中有各种静态声明的固定长度的缓冲区。另外,对命令行参数、服务器的响应头和其他外部输入的解析也很简单,这可能会有不良后果。它没有完整地实现http/1.x; 仅接受某些'预想'的响应格式。strstr(3)的频繁使用可能会带来性能问题,即, 你可能是在测试ab而不是服务器的性能。 paulwong 2015-01-08 18:38 ]]>但是这个测试都是在百万级别,我的场景在 kw 级别。所以还要对 mongodb 在 kw 级别下测试效果。 我测试环境是 4g 内存(有好些内存被其它程序占用),2kw 数据,查询随机生成 id(一次查询 20 个id)。 在这样的环境中测试不理想,比较失望。平均一次查询 500ms(比 mysql 还差,特别是在并发查询下,性能较差。很底的吞吐量)。查看其索引大小(用 db.mycoll.stats() 可以查询):2kw 数据中有 1.1g 左右的索引,存储的数据在 11g 左右。 测试过程中发现 iowait 占 50% 左右,看来还是 io 的瓶颈。还看到 mongodb 使用的内存不多(小于索引的大小,看来这机器不足够来测试)。 换了个有可用 6g 内存的机器。在 50 个并发下,可以达到平均 100 ms 左右,算比较满意,但是并发好像能力不够强。但这个性能不能由我控制,还由机器的可用内存控制。原因就是 mongodb 没有指定可占用的内存大小,它把所有空闲内存当缓存使用,既是优点也是缺点:优点--可以最大限度提升性能;缺点--容易受其它程序干扰(占用了它的缓存)。由我测试来看,它抢占内存的能力不强。mongodb 是用内存映射文件 vmm,官方的说明: memory mapped storage engine this is the current storage engine for mongodb, and it uses memory-mapped files for all disk i/o. using this strategy, the operating system's virtual memory manager is in charge of caching. this has several implications: there is no redundancy between file system cache and database cache: they are one and the same. mongodb can use all free memory on the server for cache space automatically without any configuration of a cache size. virtual memory size and resident size will appear to be very large for the mongod process. this is benign: virtual memory space will be just larger than the size of the datafiles open and mapped; resident size will vary depending on the amount of memory not used by other processes on the machine. caching behavior (such as lru'ing out of pages, and laziness of page writes) is controlled by the operating system: quality of the vmm implementation will vary by os. 所以这么来看,我觉得 mongodb 没有指定内存大小来保证正常的缓存是个缺点。应该至少保证索引全部能放到内存中。但这个行为不是由启动程序决定,而是由环境决定(美中不足)。 官方也有段内容说到索引放到内存中: if your queries seem sluggish, you should verify that your indexes are small enough to fit in ram. for instance, if you're running on 4gb ram and you have 3gb of indexes, then your indexes probably aren't fitting in ram. you may need to add ram and/or verify that all the indexes you've created are actually being used. 还是希望 mongodb 中可以指定内存大小,确保它有足够内存加载索引。 小结:大数据量下(kw级)mongodb 并发查询不够理想(100-200/s)。写数据很快(我的环境,远程提交近 1w/s,估计达到 1.5w/s 是没问题的,基本不受大数据量的影响)。 贴个测试数据: 1 id(内存使用 <1.5g) 10 id(内存使用 2-3g) 20 id(内存使用 >4g) 1 2 3 1 2 3 1 2 3 total time 17.136 25.508 17.387 37.138 33.788 25.143 44.75 31.167 30.678 1 thread thruput 583.5668 392.0339 575.1423 269.266 295.9631 397.725 223.4637 320.8522 325.9665 total time 24.405 22.664 24.115 41.454 41.889 39.749 56.138 53.713 54.666 5 thread thruput 2048.76 2206.142 2073.398 1206.156 1193.631 1257.893 890.6623 930.8733 914.6453 total time 27.567 26.867 28.349 55.672 54.347 50.93 72.978 81.857 75.925 10 thread thruput 3627.526 3722.038 3527.461 1796.235 1840.028 1963.479 1370.276 1221.643 1317.089 total time 51.397 57.446 53.81 119.386 118.015 76.405 188.962 188.034 138.839 20 thread thruput 3891.278 3481.53 3716.781 1675.238 1694.7 2617.63 1058.414 1063.637 1440.517 total time 160.038 160.808 160.346 343.559 352.732 460.678 610.907 609.986 1411.306 50 thread thruput 3124.258 3109.298 3118.257 1455.354 1417.507 1085.357 818.4552 819.6909 354.2818 total time 2165.408 635.887 592.958 1090.264 1034.057 1060.266 1432.296 1466.971 1475.061 100 thread thruput 461.8067 1572.606 1686.46 917.209 967.0647 943.1595 698.1797 681.6767 677.9381 上面的测试分别用三种查询(每次 1,10,20 id),在不同并发下测试3次,每次发出 1w 次查询。第一行数据为所有线程累加时间(单位 ms),第二行数据为吞吐量(1w /(total time / thread num))。测试中内存使用慢慢增加,所以后面的数据可能比较高效的(高效的环境)。 从上表看,10 - 20线程比较高的吞吐量。看到内存使用,前提就是索引加载到内存中,并有些内存作为缓存。 下面有个索引查询优化的 pdf。 indexing and query optimizer indexing and query optimizer (aaron staple) ps: 默认 mongodb 服务器只有10个并发,如果要提高它的连接数,可以用 --maxconns num 来提高它的接收并发的数据。 mongodb 的 java 驱动默认最多只有 10 并发连接池。要提高它,可以在 mongo.jar 的环境中加入 mongo.poolsize 系统参数,如 java -dmongo.poolsize=50 ... paulwong 2015-01-06 23:39 ]]>[root@dell113 mongodb-linux-i686-2.4.1]# mongo admin -u root -p password mongodb shell version: 2.4.1 connecting to: 192.168.6.42/admin > db.serverstatus().connections { "current" : 1, "available" : 818, "totalcreated" : numberlong(1) } 途中available显示818少了一个,表示空闲的。current表示已经占用了的连接数,两数一加就等于819,如果我现在在连接一个,那么available就是817,current就是2 [root@dell113 mongodb-linux-i686-2.4.1]# ./bin/mongo 192.168.6.42 mongodb shell version: 2.4.1 connecting to: 192.168.6.42/test > db.serverstatus().connections { "current" : 1, "available" : 818, "totalcreated" : numberlong(1) } > db.serverstatus().connections { "current" : 2, "available" : 817, "totalcreated" : numberlong(2) } 819个连接数对于一般的站点我认为已经够用,并且都是现连现取现断。但这个连接数也可以修改,只要在启动的时候加入--maxconns即可 服务器启动 [root@lee mongodb-linux-x86_64-2.4.1]# ./bin/mongod --dbpath=/root/db --maxconns=2000 wed apr 3 11:06:21.905 [initandlisten] mongodb starting : pid=2812 port=27017 dbpath=/root/db 64-bit host=lee wed apr 3 11:06:21.957 [initandlisten] db version v2.4.1 wed apr 3 11:06:21.957 [initandlisten] git version: 1560959e9ce11a693be8b4d0d160d633eee75110 wed apr 3 11:06:21.957 [initandlisten] build info: linux ip-10-2-29-40 2.6.21.7-2.ec2.v1.2.fc8xen #1 smp fri nov 20 17:48:28 est 2009 x86_64 boost_lib_version=1_49 wed apr 3 11:06:21.957 [initandlisten] allocator: tcmalloc wed apr 3 11:06:21.957 [initandlisten] options: { dbpath: "/root/db", maxconns: 2000 } wed apr 3 11:06:21.982 [initandlisten] journal dir=/root/db/journal wed apr 3 11:06:21.982 [initandlisten] recover : no journal files present, no recovery needed wed apr 3 11:06:22.297 [initandlisten] preallocateisfaster=true 2.62 wed apr 3 11:06:22.717 [initandlisten] --maxconns too high, can only handle 819 wed apr 3 11:06:22.724 [initandlisten] waiting for connections on port 27017 wed apr 3 11:06:22.725 [websvr] admin web console waiting for connections on port 28017 wed apr 3 11:06:25.126 [initandlisten] connection accepted from 192.168.4.86:53917 #1 (1 connection now open) 查询最大连接数 [root@dell113 mongodb-linux-i686-2.4.1]# ./bin/mongo 192.168.6.42 mongodb shell version: 2.4.1 connecting to: 192.168.6.42/test > db.serverstatus().connections { "current" : 1, "available" : 818, "totalcreated" : numberlong(1) } > 发现还是819?其实是linux默认进程能打开最大文件数有关,可以通过ulimit 解决 [root@lee mongodb-linux-x86_64-2.4.1]# ulimit -n 2500 [root@lee mongodb-linux-x86_64-2.4.1]# ./bin/mongod --dbpath=/root/db --maxconns=2000 wed apr 3 11:11:07.013 [initandlisten] mongodb starting : pid=2930 port=27017 dbpath=/root/db 64-bit host=lee wed apr 3 11:11:07.013 [initandlisten] db version v2.4.1 wed apr 3 11:11:07.013 [initandlisten] git version: 1560959e9ce11a693be8b4d0d160d633eee75110 wed apr 3 11:11:07.013 [initandlisten] build info: linux ip-10-2-29-40 2.6.21.7-2.ec2.v1.2.fc8xen #1 smp fri nov 20 17:48:28 est 2009 x86_64 boost_lib_version=1_49 wed apr 3 11:11:07.013 [initandlisten] allocator: tcmalloc wed apr 3 11:11:07.013 [initandlisten] options: { dbpath: "/root/db", maxconns: 2000 } wed apr 3 11:11:07.031 [initandlisten] journal dir=/root/db/journal wed apr 3 11:11:07.031 [initandlisten] recover : no journal files present, no recovery needed wed apr 3 11:11:07.170 [initandlisten] waiting for connections on port 27017 wed apr 3 11:11:07.171 [websvr] admin web console waiting for connections on port 28017 wed apr 3 11:11:10.076 [initandlisten] connection accepted from 192.168.4.86:53161 #1 (1 connection now open) 再查看最大连接数,搞定 [root@dell113 mongodb-linux-i686-2.4.1]# ./bin/mongo 192.168.6.42 mongodb shell version: 2.4.1 connecting to: 192.168.6.42/test > db.serverstatus().connections { "current" : 1, "available" : 1999, "totalcreated" : numberlong(1) } > 关于ulimit的更多知识大家可以去网上检索检索 客户端程序通常是通过driver来链接,由于每次建立链接的成本都挺高,因此都用链接池来实现,spring data mongodb中是如下配置 mongo.dbname=cms #线程池的大小 mongo.connectionsperhost=100 #这个*mongo.connectionsperhost则是如果链接数大于100的等待xttk数 mongo.threadsallowedtoblockforconnectionmultiplier=4 #等待线程的等待时间 mongo.maxwaittime=1500 mongo.sockettimeout=1500 mongo.connecttimeout=1000 mongo.autoconnectretry=true mongo.socketkeepalive=true mongo.slaveok=true
readpreference the readpreference class allows you to configure to what mongod instances queries are routed if you are working with replica sets. the following options are available :
note : all of the above have tag enabled versions of the same method which return taggablereadpreference instances instead. a full description of replica set tags can be found here : 参考网址: paulwong 2015-01-06 22:10 ]]>rpm -ivh http://repo.webtatic.com/yum/centos/5/`uname -i`/webtatic-release-5-0.noarch.rpm
yum install httpd-tools ab -r -n 100000 -c 10000 http://10.120.151.223:8080/
需加-r,则在收到socket错误的时候不会退出 这段的意思是发送100000个请求,其中并发是10000个 2、 修改目标
我们的目标是:让每一个用户登录系统后系统打开的最大文件数都是我们设定好的。 但我这里不得不说的是:非常遗憾,网上很多这方面关于ulimit设置修改资源限制的文章,但没一篇文章管用。 把这个目标分解为两个目标: 2.1、设置对root用户登录系统生效 这个目标可以实现起来不难 2.2、设置对所有用户生效 这个就非常麻烦了,弄不好还会把你的系统给整坏,因为要重编译linux的内核才行! 所以权衡之下,我只实现了第一个目标,因为第二个目标的风险太大,我想如果我之前知道这点,那么我在装系统的时候我会先做这个处理,但现在我觉得已经晚了。 3、 修改的地方 3.1、修改/etc/security/limits.conf 通过 vi /etc/security/limits.conf修改其内容,在文件最后加入(数值也可以自己定义): * soft nofile = 65536 * hard nofile = 65536 root soft nofile 65536 root hard nofile 65536 * 表示该配置对所有用户均有效,root用户要特别加两行。 3.2、修改/etc/profile 通过vi /etc/profile修改,在最后加入以下内容 ulimit -n 65536 然后重新登录即可生效了。 说明: 其实只修改/etc/profile就可以生效了,但我还是建议把/etc/security/limits.conf也修改一下。 最后强调的是,你如果要使得修改对所有用户都生效,那么现在看来你只能重新编译linux的内核才行。 $ wget http://apache.fayea.com//apr/apr-1.5.1.tar.gz $ cd /path/to/tomcat/bin $ tar zxvf tomcat-native.tar.gz $ cd tomcat-native-x.y.z-src/jni/native $ ./configure --with-apr=/usr/local/apr --with-ssl=/usr/lib64/openssl $ make install <connector port="8080" protocol="org.apache.coyote.http11.http11aprprotocol" uriencoding="utf-8" enablelookups="false" tcpnodelay="true" compression="on" compressionminsize="2048" maxthreads="20000" connectiontimeout="-1" compressablemimetype="application/json,text/html,text/xml,text/javascript,text/css,text/plain" redirectport="8443"/> https的也要修改: <connector sslenabled="true" clientauth="false"
port="8443" keystorefile="/root/java/keystore/server.jks" keystorepass="123456" protocol="org.apache.coyote.http11.http11nioprotocol" scheme="https" secure="true" sslprotocol="tls" uriencoding="utf-8" minsparethreads="25" maxsparethreads="75" enablelookups="false" disableuploadtimeout="true" connectiontimeout="20000" acceptcount="1000" maxthreads="1000" maxprocessors="1000" minprocessors="5" useurivalidationhack="false" tcpnodelay="true" compression="on" compressionminsize="2048" compressablemimetype="application/json,text/html,text/xml,text/javascript,text/css,text/plain" /> java_opts="-server -xms2048m -xmx2048m -xss512k -xx: aggressiveopts -xx: usebiasedlocking -xx:permsize=128m -xx:maxpermsize=256m -xx: disableexplicitgc -xx:maxtenuringthreshold=31 -xx: useconcmarksweepgc -xx: useparnewgc -xx: cmsparallelremarkenabled -xx: usecmscompactatfullcollection -xx:largepagesizeinbytes=128m -xx: usefastaccessormethods -xx: usecmsinitiatingoccupancyonly -djava.awt.headless=true "
参考网址: paulwong 2015-01-06 17:40 ]]>codis 是一个分布式 凯发天生赢家一触即发官网的解决方案, 对于上层的应用来说, 连接到 codis proxy 和连接原生的 redis server 没有明显的区别 (不支持的命令列表), 上层应用可以像使用单机的 redis 一样使用, codis 底层会处理请求的转发, 不停机的数据迁移等工作, 所有后边的一切事情, 对于前面的客户端来说是透明的, 可以简单的认为后边连接的是一个内存无限大的 redis 服务. codis 由四部分组成:
codis-proxy 是客户端连接的 redis 代理服务, codis-proxy 本身实现了 redis 协议, 表现得和一个原生的 redis 没什么区别 (就像 ), 对于一个业务来说, 可以部署多个 codis-proxy, codis-proxy 本身是无状态的. codis-config 是 codis 的管理工具, 支持包括, 添加/删除 redis 节点, 添加/删除 proxy 节点, 发起数据迁移等操作. codis-config 本身还自带了一个 http server, 会启动一个 dashboard, 用户可以直接在浏览器上观察 codis 集群的运行状态. codis-server 是 codis 项目维护的一个 redis 分支, 基于 2.8.13 开发, 加入了 slot 的支持和原子的数据迁移指令. codis 上层的 codis-proxy 和 codis-config 只能和这个版本的 redis 交互才能正常运行. codis 依赖 zookeeper 来存放数据路由表和 codis-proxy 节点的元信息, codis-config 发起的命令都会通过 zookeeper 同步到各个存活的 codis-proxy. codis 支持按照 namespace 区分不同的产品, 拥有不同的 product name 的产品, 各项配置都不会冲突. 目前 codis 已经是稳定阶段,目前已经在使用该系统。 架构: 特性:
安装:
界面截图: dashboard migrate slots paulwong 2014-11-09 09:28 ]]>paulwong 2014-07-19 09:55 ]]>tomcat7.0性能优化-挑战极限完整版 paulwong 2014-07-17 08:43 ]]>paulwong 2014-07-16 08:46 ]]>paulwong 2014-07-16 08:39 ]]>paulwong 2014-07-16 07:58 ]]>paulwong 2014-07-02 09:13 ]]>术语”暂停时间”是指一个时间段内应用程序线程让与gc线程执行而完全暂停。 例如,gc期间100毫秒的暂停时间意味着在这100毫秒期间内没有应用程序线程是活动的。 如果说一个正在运行的应用程序有100毫秒的“平均暂停时间”,那么就是说该应用程序所有的暂停时间平均长度为100毫秒。 同样,100毫秒的“最大暂停时间”是指该应用程序所有的暂停时间最大不超过100毫秒。 吞吐量 vs 暂停时间高吞吐量最好因为这会让应用程序的最终用户感觉只有应用程序线程在做“生产性”工作。 直觉上,吞吐量越高程序运行越快。 低暂停时间最好因为从最终用户的角度来看不管是gc还是其他原因导致一个应用被挂起始终是不好的。 这取决于应用程序的类型,有时候甚至短暂的200毫秒暂停都可能打断终端用户体验。因此,具有低的最大暂停时间是非常重要的,特别是对于一个交互式应用程序。 不幸的是”高吞吐量”和”低暂停时间”是一对相互竞争的目标(矛盾)。这样想想看,为了清晰起见简化一下:gc需要一定的前提条件以便安全地运行。 例如,必须保证应用程序线程在gc线程试图确定哪些对象仍然被引用和哪些没有被引用的时候不修改对象的状态。 为此,应用程序在gc期间必须停止(或者仅在gc的特定阶段,这取决于所使用的算法)。 然而这会增加额外的线程调度开销:直接开销是上下文切换,间接开销是因为缓存的影响。 加上jvm内部安全措施的开销,这意味着gc及随之而来的不可忽略的开销,将增加gc线程执行实际工作的时间。 因此我们可以通过尽可能少运行gc来最大化吞吐量,例如,只有在不可避免的时候进行gc,来节省所有与它相关的开销。 然而,仅仅偶尔运行gc意味着每当gc运行时将有许多工作要做,因为在此期间积累在堆中的对象数量很高。 单个gc需要花更多时间来完成, 从而导致更高的平均和最大暂停时间。 因此,考虑到低暂停时间,最好频繁地运行gc以便更快速地完成。 这反过来又增加了开销并导致吞吐量下降,我们又回到了起点。 综上所述,在设计(或使用)gc算法时,我们必须确定我们的目标:一个gc算法只可能针对两个目标之一(即只专注于最大吞吐量或最小暂停时间),或尝试找到一个二者的折衷。 hotspot虚拟机上的垃圾收集该系列的第五部分我们已经讨论过年轻代的垃圾收集器。 对于年老代,hotspot虚拟机提供两类垃圾收集算法(除了新的g1垃圾收集算法),第一类算法试图最大限度地提高吞吐量,而第二类算法试图最小化暂停时间。 今天我们的重点是第一类,”面向吞吐量”的垃圾收集算法。我们希望把重点放在jvm配置参数上,所以我只会简要概述hotspot提供的面向吞吐量(throughput-oriented)垃圾收集算法。 当年老代中由于缺乏空间导致对象分配失败时会触发垃圾收集器(事实上,”分配”的通常是指从年轻代提升到年老代的对象)。 从所谓的”gc根”(gc roots)开始,搜索堆中的可达对象并将其标记为活着的,之后,垃圾收集器将活着的对象移到年老代的一块无碎片(non-fragmented)内存块中,并标记剩余的内存空间是空闲的。 也就是说,我们不像复制策略那样移到一个不同的堆区域,像年轻代垃圾收集算法所做的那样。 相反地,我们把所有的对象放在一个堆区域中,从而对该堆区域进行碎片整理。 垃圾收集器使用一个或多个线程来执行垃圾收集。 当使用多个线程时,算法的不同步骤被分解,使得每个收集线程大多时候工作在自己的区域而不干扰其他线程。 在垃圾收集期间,所有的应用程序线程暂停,只有垃圾收集完成之后才会重新开始。 现在让我们来看看跟面向吞吐量垃圾收集算法有关的重要jvm配置参数。 -xx: useserialgc我们使用该标志来激活串行垃圾收集器,例如单线程面向吞吐量垃圾收集器。 无论年轻代还是年老代都将只有一个线程执行垃圾收集。 该标志被推荐用于只有单个可用处理器核心的jvm。 在这种情况下,使用多个垃圾收集线程甚至会适得其反,因为这些线程将争用cpu资源,造成同步开销,却从未真正并行运行。-xx: useparallelgc有了这个标志,我们告诉jvm使用多线程并行执行年轻代垃圾收集。 在我看来,java 6中不应该使用该标志因为-xx: useparalleloldgc显然更合适。 需要注意的是java 7中该情况改变了一点(详见本概述),就是-xx: useparallelgc能达到-xx: useparalleloldgc一样的效果。-xx: useparalleloldgc该标志的命名有点不巧,因为”老”听起来像”过时”。 然而,”老”实际上是指年老代,这也解释了为什么-xx: useparalleloldgc要优于-xx: useparallelgc:除了激活年轻代并行垃圾收集,也激活了年老代并行垃圾收集。 当期望高吞吐量,并且jvm有两个或更多可用处理器核心时,我建议使用该标志。作为旁注,hotspot的并行面向吞吐量垃圾收集算法通常称为”吞吐量收集器”,因为它们旨在通过并行执行来提高吞吐量。 -xx:parallelgcthreads通过-xx:parallelgcthreads=当jvm独占地使用系统和处理器时使用默认设置更有意义。 但是,如果有多个jvm(或其他耗cpu的系统)在同一台机器上运行,我们应该使用-xx:parallelgcthreads来减少垃圾收集线程数到一个适当的值。 例如,如果4个以服务器方式运行的jvm同时跑在在一个具有16核处理器的机器上,设置-xx:parallelgcthreads=4是明智的,它能使不同jvm的垃圾收集器不会相互干扰。 -xx:-useadaptivesizepolicy吞吐量垃圾收集器提供了一个有趣的(但常见,至少在现代jvm上)机制以提高垃圾收集配置的用户友好性。 这种机制被看做是hotspot在java 5中引入的”人体工程学”概念的一部分。 通过人体工程学,垃圾收集器能将堆大小动态变动像gc设置一样应用到不同的堆区域,只要有证据表明这些变动将能提高gc性能。 “提高gc性能”的确切含义可以由用户通过-xx:gctimeratio和-xx:maxgcpausemillis(见下文)标记来指定。重要的是要知道人体工程学是默认激活的。 这很好,因为自适应行为是jvm最大优势之一。 不过,有时我们需要非常清楚对于特定应用什么样的设置是最合适的,在这些情况下,我们可能不希望jvm混乱我们的设置。 每当我们发现处于这种情况时,我们可以考虑通过-xx:-useadaptivesizepolicy停用一些人体工程学。 -xx:gctimeratio通过-xx:gctimeratio=-xx:maxgcpausemillis通过-xx:gctimeratio=如果最大暂停时间和最小吞吐量同时设置了目标值,实现最大暂停时间目标具有更高的优先级。 当然,无法保证jvm将一定能达到任一目标,即使它会努力去做。 最后,一切都取决于手头应用程序的行为。 当设置最大暂停时间目标时,我们应注意不要选择太小的值。 正如我们现在所知道的,为了保持低暂停时间,jvm需要增加gc次数,那样可能会严重影响可达到的吞吐量。 这就是为什么对于要求低暂停时间作为主要目标的应用程序(大多数是web应用程序),我会建议不要使用吞吐量收集器,而是选择cms收集器。 cms收集器是本系列下一部分的主题。 paulwong 2014-06-16 17:26 ]]>说明 ab的主要弱点在于它不能让你模拟一个更加真实的请求分布——例如你想通过设置一个请求的列表来在这些列表之间来回测试,而siege就可以。 安装 siege需要自己从http://www.joedog.org/上自己下载,然后编译: 注意在configure的时候,一定要设置mandir参数,否则当你通过 man siege查看siege帮助的时候会看不到他的manual. wget http://www.joedog.org/pub/siege/siege-3.0.5.tar.gz 安装完成后,运行bin中的siege_config命令来创建.siege文件之后,你可以通过tar -zxf siege-2.67.tar.gz ./configure --prefix=/usr/local/siege --mandir=/usr/local/man make # 转到超级用户 make install ./siege -c 命令来查看当前配置 最简单的使用命令: ./siege http://localhost/ #用来测试本地凯发k8网页登录主页 参数介绍 -cnum 设置并发的用户(连接)数量. 默认的连接数量可以到~/.siegerc中查看,指令为concurrent = x。比如-c10,设置并发10个连接 -rnum (repetitions),重复数量,即每个连接发出的请求数量,设置这个的话,就不需要设置-t了。对应.siegerc配置文件中的reps = x指令 -tnum (time),持续时间,即测试持续时间,在num时间后结束,单位默认为分,比如-t10,那么测试时间为10分钟,-t10s,则测试时间为10秒钟。对应.siegerc中的指令为time = x指令 -b (benchmark),基准测试,如果设置这个参数的话,那么delay时间为0。man siege中有一句话这样说: it's not recommanded that you use this option while load testing. 说明基准测试和load testing 是完全不同的,至于有什么不同,可以阅读benchmarkingvsloadtestingvsperformance. -f url.txt (file),这是文件。对应.siegerc配置文件中的file = x指令 其他比较关注的测试方法,比如我想使用keep-alive方式进行测试,可以在.siegerc配置文件中进行修改,将connect = close改为 connect = keep-alive 另外您还可以通过-h header参数来设置请求header。 结果说明 lifting the server siege… done. transactions: 3419263 hits //完成419263次处理 availability: 100.00 % //100.00 % 成功率 elapsed time: 5999.69 secs //总共用时 data transferred: 84273.91 mb //共数据传输84273.91 mb response time: 0.37 secs //相应用时1.65秒:显示网络连接的速度 transaction rate: 569.91 trans/sec //均每秒完成 569.91 次处理:表示服务器后 throughput: 14.05 mb/sec //平均每秒传送数据 concurrency: 213.42 //实际最高并发数 successful transactions: 2564081 //成功处理次数 failed transactions: 11 //失败处理次数 longest transaction: 29.04 //每次传输所花最长时间 shortest transaction: 0.00 //每次传输所花最短时间 paulwong 2014-02-18 11:06 ]]>1.1、 1.2、 1.3、 1.4、 2、缓存 2.1、 2.2、 2.3、 2.4、 2.5、 2.6、 2.7、 3、rpc框架 3.1、 3.2、hsf 未开源 3.3、 4、nosql 4.1、 paulwong 2013-10-14 10:14 ]]>paulwong 2013-08-18 18:27 ]]> |