netty百万级推送服务(转) -凯发k8网页登录

standing on the shoulders of giants
posts - 481, comments - 486, trackbacks - 0, articles - 1
  凯发k8网页登录-凯发天生赢家一触即发官网 :: 凯发k8网页登录首页 :: 新随笔 :: 联系 :: 聚合  :: 管理

netty百万级推送服务(转)

posted on 2016-07-13 10:03 疯狂 阅读(5047) 评论(0)  编辑  收藏 所属分类: netty
转载自:http://www.open-open.com/lib/view/open1420623195375.html

1. 背景

1.1. 话题来源

最近很多从事移动互联网和物联网开发的同学给我发邮件或者微博私信我,咨询推送服务相关的问题。问题五花八门,在帮助大家答疑解惑的过程中,我也对问题进行了总结,大概可以归纳为如下几类:

  1. netty是否可以做推送服务器?
  2. 如果使用netty开发推送服务,一个服务器最多可以支撑多少个客户端?
  3. 使用netty开发推送服务遇到的各种技术问题。

由于咨询者众多,关注点也比较集中,我希望通过本文的案例分析和对推送服务设计要点的总结,帮助大家在实际工作中少走弯路。

1.2. 推送服务

移动互联网时代,推送(push)服务成为app应用不可或缺的重要组成部分,推送服务可以提升用户的活跃度和留存率。我们的手机每天接收到各种各样的广告和提示消息等大多数都是通过推送服务实现的。

随着物联网的发展,大多数的智能家居都支持移动推送服务,未来所有接入物联网的智能设备都将是推送服务的客户端,这就意味着推送服务未来会面临海量的设备和终端接入。

1.3. 推送服务的特点

移动推送服务的主要特点如下:

  1. 使用的网络主要是运营商的无线移动网络,网络质量不稳定,例如在地铁上信号就很差,容易发生网络闪断;
  2. 海量的客户端接入,而且通常使用长连接,无论是客户端还是服务端,资源消耗都非常大;
  3. 由于谷歌的推送框架无法在国内使用,android的长连接是由每个应用各自维护的,这就意味着每台安卓设备上会存在多个长连接。即便没有消息需要推送,长连接本身的心跳消息量也是非常巨大的,这就会导致流量和耗电量的增加;
  4. 不稳定:消息丢失、重复推送、延迟送达、过期推送时有发生;
  5. 垃圾消息满天飞,缺乏统一的服务治理能力。

为了解决上述弊端,一些企业也给出了自己的凯发天生赢家一触即发官网的解决方案,例如京东云推出的推送服务,可以实现多应用单服务单连接模式,使用alarmmanager定时心跳节省电量和流量。

2. 智能家居领域的一个真实案例

2.1. 问题描述

智能家居mqtt消息服务中间件,保持10万用户在线长连接,2万用户并发做消息请求。程序运行一段时间之后,发现内存泄露,怀疑是netty的bug。其它相关信息如下:

  1. mqtt消息服务中间件服务器内存16g,8个核心cpu;
  2. netty中boss线程池大小为1,worker线程池大小为6,其余线程分配给业务使用。该分配方式后来调整为worker线程池大小为11,问题依旧;
  3. netty版本为4.0.8.final。

2.2. 问题定位

首先需要dump内存堆栈,对疑似内存泄露的对象和引用关系进行分析,如下所示:

我们发现netty的scheduledfuturetask增加了9076%,达到110w个左右的实例,通过对业务代码的分析发现用户使用idlestatehandler用于在链路空闲时进行业务逻辑处理,但是空闲时间设置的比较大,为15分钟。

netty 的idlestatehandler会根据用户的使用场景,启动三类定时任务,分别是:readeridletimeouttask、 writeridletimeouttask和allidletimeouttask,它们都会被加入到nioeventloop的task队列中被调度 和执行。

由 于超时时间过长,10w个长链接链路会创建10w个scheduledfuturetask对象,每个对象还保存有业务的成员变量,非常消耗内存。用户的 持久代设置的比较大,一些定时任务被老化到持久代中,没有被jvm垃圾回收掉,内存一直在增长,用户误认为存在内存泄露。

事实上,我们进一步分析发现,用户的超时时间设置的非常不合理,15分钟的超时达不到设计目标,重新设计之后将超时时间设置为45秒,内存可以正常回收,问题解决。

2.3. 问题总结

如果是100个长连接,即便是长周期的定时任务,也不存在内存泄露问题,在新生代通过minor gc就可以实现内存回收。正是因为十万级的长连接,导致小问题被放大,引出了后续的各种问题。

事实上,如果用户确实有长周期运行的定时任务,该如何处理?对于海量长连接的推送服务,代码处理稍有不慎,就满盘皆输,下面我们针对netty的架构特点,介绍下如何使用netty实现百万级客户端的推送服务。

3. netty海量推送服务设计要点

作为高性能的nio框架,利用netty开发高效的推送服务技术上是可行的,但是由于推送服务自身的复杂性,想要开发出稳定、高性能的推送服务并非易事,需要在设计阶段针对推送服务的特点进行合理设计。

3.1. 最大句柄数修改

百万长连接接入,首先需要优化的就是linux内核参数,其中linux最大文件句柄数是最重要的调优参数之一,默认单进程打开的最大句柄数是1024,通过ulimit -a可以查看相关参数,示例如下:

[root@lilinfeng ~]# ulimit -a core file size          (blocks, -c) 0 data seg size           (kbytes, -d) unlimited scheduling priority             (-e) 0 file size               (blocks, -f) unlimited pending signals                 (-i) 256324 max locked memory       (kbytes, -l) 64 max memory size         (kbytes, -m) unlimited open files                      (-n) 1024  ......后续输出省略

当单个推送服务接收到的链接超过上限后,就会报“too many open files”,所有新的客户端接入将失败。

通过vi /etc/security/limits.conf 添加如下配置参数:修改之后保存,注销当前用户,重新登录,通过ulimit -a 查看修改的状态是否生效。

*  soft        nofile        1000000 *  hard        nofile        1000000

需要指出的是,尽管我们可以将单个进程打开的最大句柄数修改的非常大,但是当句柄数达到一定数量级之后,处理效率将出现明显下降,因此,需要根据服务器的硬件配置和处理能力进行合理设置。如果单个服务器性能不行也可以通过集群的方式实现。

3.2. 当心close_wait

从事移动推送服务开发的同学可能都有体会,移动无线网络可靠性非常差,经常存在客户端重置连接,网络闪断等。

在百万长连接的推送系统中,服务端需要能够正确处理这些网络异常,设计要点如下:

  1. 客户端的重连间隔需要合理设置,防止连接过于频繁导致的连接失败(例如端口还没有被释放);
  2. 客户端重复登陆拒绝机制;
  3. 服务端正确处理i/o异常和解码异常等,防止句柄泄露。

最 后特别需要注意的一点就是close_wait 过多问题,由于网络不稳定经常会导致客户端断连,如果服务端没有能够及时关闭socket,就会导致处于close_wait状态的链路过多。 close_wait状态的链路并不释放句柄和内存等资源,如果积压过多可能会导致系统句柄耗尽,发生“too many open files”异常,新的客户端无法接入,涉及创建或者打开句柄的操作都将失败。

下面对close_wait状态进行下简单介绍,被动关闭tcp连接状态迁移图如下所示:

图3-1 被动关闭tcp连接状态迁移图

close_wait 是被动关闭连接是形成的,根据tcp状态机,服务器端收到客户端发送的fin,tcp协议栈会自动发送ack,链接进入close_wait状态。但如果 服务器端不执行socket的close()操作,状态就不能由close_wait迁移到last_ack,则系统中会存在很多close_wait状 态的连接。通常来说,一个close_wait会维持至少2个小时的时间(系统默认超时时间的是7200秒,也就是2小时)。如果服务端程序因某个原因导 致系统造成一堆close_wait消耗资源,那么通常是等不到释放那一刻,系统就已崩溃。

导致close_wait过多的可能原因如下:

  1. 程序处理bug,导致接收到对方的fin之后没有及时关闭socket,这可能是netty的bug,也可能是业务层bug,需要具体问题具体分析;
  2. 关闭socket不及时:例如i/o线程被意外阻塞,或者i/o线程执行的用户自定义task比例过高,导致i/o操作处理不及时,链路不能被及时释放。

下面我们结合netty的原理,对潜在的故障点进行分析。

设 计要点1:不要在netty的i/o线程上处理业务(心跳发送和检测除外)。why? 对于java进程,线程不能无限增长,这就意味着netty的reactor线程数必须收敛。netty的默认值是cpu核数 * 2,通常情况下,i/o密集型应用建议线程数尽量设置大些,但这主要是针对传统同步i/o而言,对于非阻塞i/o,线程数并不建议设置太大,尽管没有最优 值,但是i/o线程数经验值是[cpu核数 1,cpu核数*2 ]之间。

假 如单个服务器支撑100万个长连接,服务器内核数为32,则单个i/o线程处理的链接数l = 100/(32 * 2) = 15625。 假如每5s有一次消息交互(新消息推送、心跳消息和其它管理消息),则平均caps = 15625 / 5 = 3125条/秒。这个数值相比于netty的处理性能而言压力并不大,但是在实际业务处理中,经常会有一些额外的复杂逻辑处理,例如性能统计、记录接口日 志等,这些业务操作性能开销也比较大,如果在i/o线程上直接做业务逻辑处理,可能会阻塞i/o线程,影响对其它链路的读写操作,这就会导致被动关闭的链 路不能及时关闭,造成close_wait堆积。

设计要点2:在i/o线程上执行自定义task要当心。netty的i/o处理线程nioeventloop支持两种自定义task的执行:

  1. 普通的runnable: 通过调用nioeventloop的execute(runnable task)方法执行;
  2. 定时任务scheduledfuturetask:通过调用nioeventloop的schedule(runnable command, long delay, timeunit unit)系列接口执行。

为什么nioeventloop要支持用户自定义runnable和scheduledfuturetask的执行,并不是本文要讨论的重点,后续会有专题文章进行介绍。本文重点对它们的影响进行分析。

在 nioeventloop中执行runnable和scheduledfuturetask,意味着允许用户在nioeventloop中执行非i/o操 作类的业务逻辑,这些业务逻辑通常用消息报文的处理和协议管理相关。它们的执行会抢占nioeventloop i/o读写的cpu时间,如果用户自定义task过多,或者单个task执行周期过长,会导致i/o读写操作被阻塞,这样也间接导致close_wait 堆积。

所 以,如果用户在代码中使用到了runnable和scheduledfuturetask,请合理设置ioratio的比例,通过 nioeventloop的setioratio(int ioratio)方法可以设置该值,默认值为50,即i/o操作和用户自定义任务的执行时间比为1:1。

我的建议是当服务端处理海量客户端长连接的时候,不要在nioeventloop中执行自定义task,或者非心跳类的定时任务。

设 计要点3:idlestatehandler使用要当心。很多用户会使用idlestatehandler做心跳发送和检测,这种用法值得提倡。相比于自 己启定时任务发送心跳,这种方式更高效。但是在实际开发中需要注意的是,在心跳的业务逻辑处理中,无论是正常还是异常场景,处理时延要可控,防止时延不可 控导致的nioeventloop被意外阻塞。例如,心跳超时或者发生i/o异常时,业务调用email发送接口告警,由于email服务端处理超时,导 致邮件发送客户端被阻塞,级联引起idlestatehandler的allidletimeouttask任务被阻塞,最终nioeventloop多 路复用器上其它的链路读写被阻塞。

对于readtimeouthandler和writetimeouthandler,约束同样存在。

3.3. 合理的心跳周期

百万级的推送服务,意味着会存在百万个长连接,每个长连接都需要靠和app之间的心跳来维持链路。合理设置心跳周期是非常重要的工作,推送服务的心跳周期设置需要考虑移动无线网络的特点。

当 一台智能手机连上移动网络时,其实并没有真正连接上internet,运营商分配给手机的ip其实是运营商的内网ip,手机终端要连接上internet 还必须通过运营商的网关进行ip地址的转换,这个网关简称为nat(network address translation),简单来说就是手机终端连接internet 其实就是移动内网ip,端口,外网ip之间相互映射。

ggsn(gateway gprs support note)模块就实现了nat功能,由于大部分的移动无线网络运营商为了减少网关nat映射表的负荷,如果一个链路有一段时间没有通信时就会删除其对应 表,造成链路中断,正是这种刻意缩短空闲连接的释放超时,原本是想节省信道资源的作用,没想到让互联网的应用不得以远高于正常频率发送心跳来维护推送的长 连接。以中移动的2.5g网络为例,大约5分钟左右的基带空闲,连接就会被释放。

由 于移动无线网络的特点,推送服务的心跳周期并不能设置的太长,否则长连接会被释放,造成频繁的客户端重连,但是也不能设置太短,否则在当前缺乏统一心跳框 架的机制下很容易导致信令风暴(例如微信心跳信令风暴问题)。具体的心跳周期并没有统一的标准,180s也许是个不错的选择,微信为300s。

在netty中,可以通过在channelpipeline中增加idlestatehandler的方式实现心跳检测,在构造函数中指定链路空闲时间,然后实现空闲回调接口,实现心跳的发送和检测,代码如下:

public void initchannel({@link channel} channel) {  channel.pipeline().addlast("idlestatehandler", new {@link   idlestatehandler}(0, 0, 180));  channel.pipeline().addlast("myhandler", new myhandler()); } 拦截链路空闲事件并处理心跳:  public class myhandler extends {@link channelhandleradapter} {      {@code @override}       public void usereventtriggered({@link channelhandlercontext} ctx, {@link object} evt) throws {@link exception} {           if (evt instanceof {@link idlestateevent}} {               //心跳处理           }       }   }

3.4. 合理设置接收和发送缓冲区容量

对于长链接,每个链路都需要维护自己的消息接收和发送缓冲区,jdk原生的nio类库使用的是java.nio.bytebuffer,它实际是一个长度固定的byte数组,我们都知道数组无法动态扩容,bytebuffer也有这个限制,相关代码如下:

public abstract class bytebuffer     extends buffer     implements comparable {     final byte[] hb; // non-null only for heap buffers     final int offset;     boolean isreadonly;

容 量无法动态扩展会给用户带来一些麻烦,例如由于无法预测每条消息报文的长度,可能需要预分配一个比较大的bytebuffer,这通常也没有问题。但是在 海量推送服务系统中,这会给服务端带来沉重的内存负担。假设单条推送消息最大上限为10k,消息平均大小为5k,为了满足10k消息的处 理,bytebuffer的容量被设置为10k,这样每条链路实际上多消耗了5k内存,如果长链接链路数为100万,每个链路都独立持有 bytebuffer接收缓冲区,则额外损耗的总内存 total(m) = 1000000 * 5k = 4882m。内存消耗过大,不仅仅增加了硬件成本,而且大内存容易导致长时间的full gc,对系统稳定性会造成比较大的冲击。

实际上,最灵活的处理方式就是能够动态调整内存,即接收缓冲区可以根据以往接收的消息进行计算,动态调整内存,利用cpu资源来换内存资源,具体的策略如下:

  1. bytebuffer支持容量的扩展和收缩,可以按需灵活调整,以节约内存;
  2. 接收消息的时候,可以按照指定的算法对之前接收的消息大小进行分析,并预测未来的消息大小,按照预测值灵活调整缓冲区容量,以做到最小的资源损耗满足程序正常功能。

幸运的是,netty提供的bytebuf支持容量动态调整,对于接收缓冲区的内存分配器,netty提供了两种:

  1. fixedrecvbytebufallocator:固定长度的接收缓冲区分配器,由它分配的bytebuf长度都是固定大小的,并不会根据实际数据报 的大小动态收缩。但是,如果容量不足,支持动态扩展。动态扩展是netty bytebuf的一项基本功能,与bytebuf分配器的实现没有关系;
  2. adaptiverecvbytebufallocator:容量动态调整的接收缓冲区分配器,它会根据之前channel接收到的数据报大小进行计算, 如果连续填充满接收缓冲区的可写空间,则动态扩展容量。如果连续2次接收到的数据报都小于指定值,则收缩当前的容量,以节约内存。

相对于fixedrecvbytebufallocator,使用adaptiverecvbytebufallocator更为合理,可以在创建客户端或者服务端的时候指定recvbytebufallocator,代码如下:

 bootstrap b = new bootstrap();             b.group(group)              .channel(niosocketchannel.class)              .option(channeloption.tcp_nodelay, true)              .option(channeloption.rcvbuf_allocator, adaptiverecvbytebufallocator.default)

如果默认没有设置,则使用adaptiverecvbytebufallocator。

另外值得注意的是,无论是接收缓冲区还是发送缓冲区,缓冲区的大小建议设置为消息的平均大小,不要设置成最大消息的上限,这会导致额外的内存浪费。通过如下方式可以设置接收缓冲区的初始大小:

/** 	 * creates a new predictor with the specified parameters. 	 *  	 * @param minimum 	 *            the inclusive lower bound of the expected buffer size 	 * @param initial 	 *            the initial buffer size when no feed back was received 	 * @param maximum 	 *            the inclusive upper bound of the expected buffer size 	 */ 	public adaptiverecvbytebufallocator(int minimum, int initial, int maximum) 

对于消息发送,通常需要用户自己构造bytebuf并编码,例如通过如下工具类创建消息发送缓冲区:

图3-2 构造指定容量的缓冲区

3.5. 内存池

推送服务器承载了海量的长链接,每个长链接实际就是一个会话。如果每个会话都持有心跳数据、接收缓冲区、指令集等数据结构,而且这些实例随着消息的处理朝生夕灭,这就会给服务器带来沉重的gc压力,同时消耗大量的内存。

最 有效的解决策略就是使用内存池,每个nioeventloop线程处理n个链路,在线程内部,链路的处理时串行的。假如a链路首先被处理,它会创建接收缓 冲区等对象,待解码完成之后,构造的pojo对象被封装成task后投递到后台的线程池中执行,然后接收缓冲区会被释放,每条消息的接收和处理都会重复接 收缓冲区的创建和释放。如果使用内存池,则当a链路接收到新的数据报之后,从nioeventloop的内存池中申请空闲的bytebuf,解码完成之 后,调用release将bytebuf释放到内存池中,供后续b链路继续使用。

使用内存池优化之后,单个nioeventloop的bytebuf申请和gc次数从原来的n = 1000000/64 = 15625 次减少为最少0次(假设每次申请都有可用的内存)。

下面我们以推特使用netty4的pooledbytebufallocator进行gc优化作为案例,对内存池的效果进行评估,结果如下:

垃圾生成速度是原来的1/5,而垃圾清理速度快了5倍。使用新的内存池机制,几乎可以把网络带宽压满。

netty4 之前的版本问题如下:每当收到新信息或者用户发送信息到远程端,netty 3均会创建一个新的堆缓冲区。这意味着,对应每一个新的缓冲区,都会有一个new byte[capacity]。这些缓冲区会导致gc压力,并消耗内存带宽。为了安全起见,新的字节数组分配时会用零填充,这会消耗内存带宽。然而,用零 填充的数组很可能会再次用实际的数据填充,这又会消耗同样的内存带宽。如果java虚拟机(jvm)提供了创建新字节数组而又无需用零填充的方式,那么我 们本来就可以将内存带宽消耗减少50%,但是目前没有那样一种方式。

在netty 4中实现了一个新的bytebuf内存池,它是一个纯java版本的  (facebook也在用)。现在,netty不会再因为用零填充缓冲区而浪费内存带宽了。不过,由于它不依赖于gc,开发人员需要小心内存泄漏。如果忘记在处理程序中释放缓冲区,那么内存使用率会无限地增长。

netty默认不使用内存池,需要在创建客户端或者服务端的时候进行指定,代码如下:

bootstrap b = new bootstrap();             b.group(group)              .channel(niosocketchannel.class)              .option(channeloption.tcp_nodelay, true)              .option(channeloption.allocator, pooledbytebufallocator.default)

使用内存池之后,内存的申请和释放必须成对出现,即retain()和release()要成对出现,否则会导致内存泄露。

值得注意的是,如果使用内存池,完成bytebuf的解码工作之后必须显式的调用referencecountutil.release(msg)对接收缓冲区bytebuf进行内存释放,否则它会被认为仍然在使用中,这样会导致内存泄露。

3.6. 当心“日志隐形杀手”

通常情况下,大家都知道不能在netty的i/o线程上做执行时间不可控的操作,例如访问数据库、发送email等。但是有个常用但是非常危险的操作却容易被忽略,那便是记录日志。

通 常,在生产环境中,需要实时打印接口日志,其它日志处于error级别,当推送服务发生i/o异常之后,会记录异常日志。如果当前磁盘的wio比较高,可 能会发生写日志文件操作被同步阻塞,阻塞时间无法预测。这就会导致netty的nioeventloop线程被阻塞,socket链路无法被及时关闭、其 它的链路也无法进行读写操作等。

以最常用的log4j为例,尽管它支持异步写日志(asyncappender),但是当日志队列满之后,它会同步阻塞业务线程,直到日志队列有空闲位置可用,相关代码如下:

 synchronized (this.buffer) {       while (true) {         int previoussize = this.buffer.size();         if (previoussize < this.buffersize) {           this.buffer.add(event);           if (previoussize != 0) break;           this.buffer.notifyall(); break;         }         boolean discard = true;         if ((this.blocking) && (!thread.interrupted()) && (thread.currentthread() != this.dispatcher)) //判断是业务线程         {           try           {             this.buffer.wait();//阻塞业务线程             discard = false;           }           catch (interruptedexception e)           {             thread.currentthread().interrupt();           }          }

类似这类bug具有极强的隐蔽性,往往wio高的时间持续非常短,或者是偶现的,在测试环境中很难模拟此类故障,问题定位难度非常大。这就要求读者在平时写代码的时候一定要当心,注意那些隐性地雷。

3.7. tcp参数优化

常用的tcp参数,例如tcp层面的接收和发送缓冲区大小设置,在netty中分别对应channeloption的so_sndbuf和so_rcvbuf,需要根据推送消息的大小,合理设置,对于海量长连接,通常32k是个不错的选择。

另外一个比较常用的优化手段就是软中断,如图所示:如果所有的软中断都运行在cpu0相应网卡的硬件中断上,那么始终都是cpu0在处理软中断,而此时其它cpu资源就被浪费了,因为无法并行的执行多个软中断。

图3-3 中断信息

大 于等于2.6.35版本的linux kernel内核,开启rps,网络通信性能提升20%之上。rps的基本原理:根据数据包的源地址,目的地址以及目的和源端口,计算出一个hash值, 然后根据这个hash值来选择软中断运行的cpu。从上层来看,也就是说将每个连接和cpu绑定,并通过这个hash值,来均衡软中断运行在多个cpu 上,从而提升通信性能。

3.8. jvm参数

最重要的参数调整有两个:

  • -xmx:jvm最大内存需要根据内存模型进行计算并得出相对合理的值;
  • gc相关的参数: 例如新生代和老生代、永久代的比例,gc的策略,新生代各区的比例等,需要根据具体的场景进行设置和测试,并不断的优化,尽量将full gc的频率降到最低。

4. 作者简介

李林锋,2007年毕业于东北大学,2008年进入华为公司从事高性能通信软件的设计和开发工作,有6年nio设计和开发经验,精通netty、mina等nio框架。netty中国社区创始人,《netty权威指南》作者。


只有注册用户后才能发表评论。


网站导航:
              
 
网站地图