一套简洁的即时通信(IM)系统


written by Alex Stocks on 2016/03/07,版权所有,无授权不得转载

1 前言


无论是IM消息通信系统还是客户消息系统,其本质都是一套消息发送与投递系统,或者说是一套网络通信系统,其本质两个词:存储与转发。由于看到最近一个月内业界有些公司的相关人员介绍了自己的IM系统:

两家系统的初期架构说明,一套消息系统对提升自家的服务质量是多么的重要,可以认为现代的服务型的互联网公司成长过程就是一套IM系统的进化史。

本文结合鄙人对IM系统的了解,也给出一套初具IM系统系统特点的消息系统模型。

2 在线消息系统


本文只考虑IM系统的在线消息模型,不考虑其离线消息系统[能够存储IM消息的系统]。根据个人理解,其应有的feature如下:

根据以上系统特点,先给出一套稍微完备的IM系统的框架图:

针对上图,我先给出各个模块的说明,然后分章节介绍这套系统的各个模块的职能,以及相关的系统流程。

系统名词解释:

1 PC: 单机型客户端,如windows端和mac端等等;

2 Web/h5: 网页客户端;

3 Android: 手机移动端,取其典型Android端,当然也有ios端[但是考虑到各家开发App都是安卓客户端最先上系统新版本,故用Android代表之];

4 broker:文本消息的有线或者无线接口端,考虑到携程采用了这个词,我也姑且先用之,它提供了消息的接收与投递功能;

5 Relay:图片/语音/视频 转发接口端,其后端可以是自家的服务也可以是第三方服务(如提供图片存储服务的七牛、提供云视频解决方案的腾讯云等);

6 msg chat server:消息逻辑处理端;

7 Router: 在线状态服务端,存储在线的用户以及其登录的broker接口机的id以及一些心跳包时间等数据;

8 Counter: 消息计数器,为每个text等类型的消息分配MSG id;

9 Msg Queue: 每个channel消息的msg id队列,存储每个client未接收的且未超时的且未超出队列大小的msg id集合;

10 Mysql/mongodb: 消息存储服务、用户资料数据、以及channel成员列表服务数据库,因为二者比较典型,所以取用了这个名字,当然你可以在其上部署一层cache服务;

11 Client:客户端层;

12 Interface/If(下文简称If):服务接口层;

13 Logic:消息逻辑处理层,[这层其实应该有系统最多的模块];

14 DB:存储层,存储了在线状态、消息id以及msg id队列和消息内容等;

15 http: 消息发送和接收协议,IM协议中一般理解为long polling消息处理方式,在web端多采用这种协议;

16 Websocket: 另一种消息发送和接收协议,在移动环境或者采用html5开发的系统多采用这种协议;

17 TCP: 另一种消息发送和接收协议,在环境或者采用html5开发的系统多采用这种协议;

18 UDP: 另一种消息发送和接收协议,某个不保证提供稳定消息传输服务的厂家采用的协议,也许也是用户最多使用的协议,它的优点是无论是无线还是有线环境下都非常快,又由于http/Websocket的基础都是tcp协议,UDP协议在环境拥塞情况下由于不提供拥塞控制等退让算法,反而会去争用网络通道,所以在网络复杂的特别是发生网络风暴的情况下它会显得更快^ _ ^ & ^ _ 【呵呵哒】;

19 RPC: 一种远程过程调用协议,提供分布式环境下的函数调用能力;

20 Restful: 一种远程服务提供的架构风格,跟RPC比起来貌似更高级点;

3 消息发送流程


在介绍消息发送流程之前,先介绍一些基本概念。

3.1 pub/sub、UIN和session

一个消息系统,从宏观上来说,就是一个PUB/SUB系统,有消息生成者publisher[or producer],有消息中转者broker,有消息处理者msg server,以及消息消费者subscriber[or consumer]。消息消费者可以是一个人,也可以是一群人,在pub/sub系统之中producer&consumer一起构成了一个channel,或者称之为room,或者称之为group。

无论是producer还是consumer,每个具体单位都要由系统分配给一个id,称之为UIN[名词来源于icq]。

后端的if层的broker机器可以在全球或者某个区域分布多个,UIN依据dns系统可以得到if层所有的机器列表,如果dns层由于机器坏掉或者是被攻击时不能服务,那么客户端应该根据记忆[无论是上次成功登陆的机器还是被厂家内置的机器列表]知道某些机器的ip&port地址,然后根据测速结果来选择一个离其最近的broker。

UIN在于broker之间进行一段时间内有效的会话服务,称之为一个session。这个session存活于一个长连接里,也可以横跨几个长连接或者短连接,即session自身依赖的网络链接是不稳定的。session有效期间内,Server认为UIN在线,session有效期内客户端要定时地给broker发送心跳包。本文认为的session可以是不稳定的,即session有效期内下发给客户端的消息可以丢失,但是可以通过一些其他手段保证消息被投递给客户端。

3.2 发送流程

消息的制造者[producer]一般是IM系统的最基本单元UIN[即一个自然人],既然是一个自然人,就认为其发送能力有限,不可能一秒内发出多于一条的消息,即其消息频率最高为: 1条msg / s。高于这个频率,都被认为是键盘狂人或者狂躁机器人,客户端或者服务端应该具有拒绝给这种人提供服务或者丢弃其由于发狂而发出的消息。

基于上面这个假设,producer发出的消息请求被称为msg req,服务器给客户端返回的消息响应称为msg ack。整个消息流程为:

上面设计到了一个模块图中没有的概念:msg cache,之所以没有绘制出来,是因为msg cache的大小是可预估的,它只是用于消息去重判断,所以只需存下去重msg key即可。假设msg chat server的服务人数是40 000人,消息发送频率是1条/s,消息的生命周期是24 hour,消息key长度是64B,那么这个cache大小 = 64B * (24 * 3600)s * 40000 = 221 184 000 000B,这个数字可能有点恐怖,如果是真实商业环境这个数字只会更小,因为没有人一天一夜不吃不喝不停发消息嘛。其本质是一个hashset(C++中对应的是unordered_set),物理存储介质当然是共享内存了。

[2016/03/10日:经过思考,msg cache只需存下某个UIN在某个device上的最新的消息时间即可,msg cache的结构应为hashtable,以{UIN + device id}为key,以其最新的消息的发送时间(客户端发送消息的时间)为value,不再考虑消息的生命周期。msg chat server每收到一条新消息就把新消息中记录的发送时间与缓存中记录的消息时间比较即可,如果新消息的时间小于这个msg pool记录的时间即说明其为重复消息,大于则为新消息,并用新消息的msg time作为msg cache中对应kv的value的最新值。假设UIN为4B,device id为4B,时间为4B,则msg cache的数据的size(不计算hashtable数据结构本身占用的内存size)为12B * 40000 = 480 000B,新msg pool完全与每条消息的lifetime无关,这就大大下降了其内存占用。

那么还有一个问题,如果用户修改了手机的本地时间怎么办?那就换做另一个参数:本地手机时钟累计运行时长,手机出厂后其运行累计时长只会一直增加不会减小。]

这个流程牵涉到一个比较重要的模块:Counter,这个模块其实都可以用Redis充当,怎么做你自己想^ _ 。这个模块自身的实现就是一个分布式的计数器,直接使用Redis也没什么问题,但是最好的方法是采用消息id批发器的方式,msg chat server到Counter每次批发一批id回来,然后分配给每个msg,当使用完毕的时候再接着去Counter申请一批回来,以减轻Counter的压力,具体的设计请参考专利《即时消息的处理方法和装置》[参考文档9]。

上面还有一个概念未叙述到:发送端的消息邮箱{有人称为消息盒子,或者某大厂称之为客户端消息db},它存储了所有本地发送出去的消息,其中没有服务端分配的msg id的消息都被认为是发送失败的消息,待用户主动尝试发送或者网络环境重新稳定后可以有客户端尝试重新发送流程。

用户查看消息邮箱中的本地历史消息的时候,就要依据msg id把消息排序好展现给用户。至于用户发送过程中看到的消息可以认为是本地消息的一个cache,每个channel最多给他展现100条,这100条消息的排序要依照每条消息的发出时间或者是消息的接收时间[这个接收到的消息时间以消息到达本机时的本地时钟为依据]。当用户要查看超出数目如100条消息之外的消息,客户端要引导用户去走历史消息查看流程。

2017/02/07日补充:每条消息的msg id,本质也是一种逻辑时间序(关于时间序请详阅参考文档10,作者是PingCAP首席架构师唐刘【siddontang】)。时间序算法中最有名的当属twitter的snowflake算法(其中一个开源实现是gosnowflake),它以分布式的方式给每个msg分配id。snowflake算法如下所示(注:下图源自好友辣酱):

//64--------63-----------22-----------12----------0
//符号位       |41位时间     |10位机器码    |12位自增码|

可以借鉴snowflake算法让各个chat server给每条消息分配id,以替换掉Counter模块。所以另外一种更简洁的实现是zk分配序列,每个进程认领一个唯一的zk序列,每条消息的序列是:

精确到ms的时间戳(42 bit) + 唯一zk序列(9bit) + 自增数(12 bit)

这个算法那可以做到消息自增有序,但缺点是消息id不连续(注:本方法源自糗事百科技术总监杜玮先生)。

3.3 消息状态部分流程

在进行消息的发送流程中,msg chat server充当了消息的处理者,其实消息的发送流程就可以认为是一次客户端与服务端进行简单的“心跳逻辑”的过程,这个过程msg chat server[实际上就是下面提到的heartbeat server]还要完成如下部分消息状态处理逻辑:

至于Router具体的构造,第四章节会叙述到。

3.4 关于长文本消息

还有一个问题,如果消息超过服务端规定的短文本消息的最大长度怎么办?

一种方法是干脆丢弃,拒绝给客户端发送出去,貌似用户体验没那么好。

还有另一种方法,分片。用分片的方法拆成若干条短消息,每条短消息由客户端或者服务端自己给他分配好序列号,待用户收到的时候再拼装起来。其本质跟tcp层处理大package时拆分若干个子packet道理一样。

长文本如果能借用第二种方法处理,发送图片是不是也可以这么干?其本质都是数据嘛,语音和视频数据的处理亦不外乎如是。

4 消息处理以及消息投递流程


上述的消息发送流程中,msg chat server把分配的msg id的消息返回给producer后,还要继续进行消息的投递。消息的投递涉及到一系列的技巧,涉及到消息的订阅者能否不重不漏地在消息还“活着”的消息,这些技巧其实也没什么神秘之处,下面的流程会详细地描述到。

4.1 消息投递流程


消息投递,顾名思义,就是消息的下发而已,有人美其名曰消息Push流程。

如果说消息的发送 = msg req + msg ack, 那么消息的投递就简单多了:

消息的投递是不是显得轻松多了,至于被认为在线客户端有没有收到msg,msg chat server压根就不管!

这个流程牵涉到另一个比较重要的模块:router,它其实也可以用Redis充当,利用Redis的bitmap记录所有用户的状态,0标示离线,1表示在线,然后再利用hashtable存储每个用户登录的broker的id和最新登录时间。

至于msg queue模块,其实也是一个hashtable,key为channel的name或者id,value就是一个msg id list。

听说Redis最近要添加Bloom Filter,那就更好玩了,关键就看其能否应对删除操作,如果有删除接口,把它当做bitmap玩玩倒也无妨。

5 心跳流程


一个客户端要维持与服务端的session有效,就须与其broker维持一个心跳流程,以被认为是处于在线状态。那么,最基本的问题就是:心跳时长。

这个问题会让很多移动开发者头疼许久,最基本的要根据网络环境来设计不同的心跳时长:譬如有线环境把频率设置为10s,wifi环境下这个频率设计为30s,在3G或者4G环境下设置为1.5分钟,在2G环境下设置为4分钟。总之其原则是:网络环境越差劲,心跳时间间隔越长。

心跳时间间隔长那么其心跳频率就低,其消息收发速度就慢。

进一步,无线环境下这个心跳时间长度不是固定不变的,具体时长要由服务端进行判断,如果无线环境下假设起始心跳间隔是4分钟,客户端连续最近3次心跳有一次失败,那就把时长修改为2分钟,如果有两次失败就修改为1分钟,如果连续3次超时未上报心跳,就认为客户端离线!

[2016/03/10: 经过今日思考,觉得上面这一段的例子中参数是错误的,它违背了上上段叙述的原则,当出现心跳超时的情况后就说明网络环境发生了变化,但是仅仅凭借一次超时还不足以说明网络环境变好还是变坏。其实把心跳时长的问题转换一个角度进行思考:当知道了前三次或者前两次实际心跳时间间隔,怎么预测接下来的心跳时间间隔?其本质就是一个拉格朗日外插法的应用而已。我这里不多叙述,仅仅给出一种方法:如果已经知道最近两次心跳时间间隔为iv1和iv2,则接下来的给客户端返回的iv3 = k * ((iv1 + iv2) / 2),如果iv1 > iv2,则k = 0.8,否则k = 1.2,这两个值也仅仅是经验值而已,具体怎么取值需系统设计者自己权衡,但足以自适应一些复杂的网络环境,如坐在火车上使用移动网络的APP。

如果系统设计者觉得麻烦,就可以把上面的值修改为经验参数值,如无线环境下假设起始心跳间隔是4分钟,客户端连续最近3次心跳有一次失败,那就把时长修改为4.5分钟,如果有两次失败就修改为5.5分钟,如果连续3次超时未上报心跳,就认为客户端离线!]

解决了心跳时长问题,再来看看具体的心跳流程:

上面提到的一个词:newest channel id 或者 client newest msg id of channel,其意思就是消息接收者所在的channel的所拥有的本地消息的最新id。一般地,如果server端的Counter能够稳定地提供服务,channel中的msg id应该是连续的,如果客户端检测到msg id不连续,可以把不连续处的id作为newest channel id,要求server端再把这个msg id以后的消息重发下来,这就要求client有消息去重判断的功能。

每次收到server端下发的消息后,用户必须更新local newest channel msg id,把消息id窗口往前推进,不要因为id不连续而一直不更新这个值,因为服务端的服务也不一定超级稳定。

上面的一段我写的稍嫌“囋”一些,其实其思想类似于tcp的滑动窗口思想,自己做对比去理解之。

step H要求router至少要存储client最新四次的登录时间,然后根据这三次时间间隔以及网络类型修改下次心跳时间间隔有效时长。我这里已经很明了的写出了原理了,至于怎么取值可以依据上面提到的原理修改相关参数[这个得需要测试才能得出一些关键数据,但是这个参数值应该跟我本文提到的参数值相差无几]。

至于step J叙述到的client是否启用消息拉取逻辑,取决于你的服务类型。具体场景分别对待,本文不会再设计消息的pull流程。

其实结合第4章节以及本章节,用流行的术语来说,消息的下发就是微信所谓的是参考Activesync,SYNC协议[参考文档7]流程,江湖人称推拉相结合的过程。这个过程可以借用参考文档2中给出的一副流程图做参考:

注意上图与本文一些名词的用法不同,它的所谓的“离线消息”,咱本文中被称为未读消息

随着本章节的结束,IM的主要流程就描述完毕,更详细的流程请参考文档3、4和5。

6 消息存储服务


由于本文叙述的消息系统是一个在线消息模型,所以msg db中存储的超时消息必须被删除。首先db的大小可以根据服务人数的数目以及每条消息的时长估算出来。

其次,简单的im系统中不考虑用户的等级的话,可以认为所有的msg都是平等的有相同的lifetime。但是如果区分了用户优先级,则其消息lifetime也就不等,就得有服务等级不同用户的msg db[其实优先级越高,其消息存储越久,企业付出了存储成本,某种神秘的力量也就越容易获取到其聊天数据]。

最后,启动一个定时消息删除模块,它定时启动删除msg db中超时的msg即可。

7 其他类型消息


由于本文只是描述文本型短消息服务的相关流程,如果还要考虑图片、声音和视频流服务,这些消息就会被称为富媒体消息。最基本的富媒体消息应该有一个文本消息与之对应,文本消息中包含了这些富媒体文件的url地址或者其他方式定义的地址。消费者拉倒这样类型的消息,就可以根据消息地址去拉取富媒体文件。

至于富媒体文件怎么存储,个人建议可以借助目前成熟的第三方服务平台,如借助七牛的云图片服务[我举个栗子而已,没收任何费用,无做广告的嫌疑^ _ ]存储服务存储图片,借助腾讯云的视频服务能力处理语音和视频消息。

富媒体消息拉取和上传都要经过你的Relay接口,这个服务接口因为逻辑与正常的文本消息差别很大,所以建议独立做一个接口叫做Relay模块,以与broker作区分,也为以后更换第三方服务厂商打好基础。

如果你厂有钱又有人,那就考虑自己做富媒体文件的存储吧,此时在逻辑层应该有个对应的模块叫做rich text msg server[下面简称为rich server],其逻辑应该为:

整个逻辑就完成了,是不是也很easy的^ _

8 总结


这套IM系统,总体有以下特点:

如有指教,欢迎在本文下方留言板留言或者发送email与我(alexstocks at foxmail dot com)交流。

9 跋


本人写文章之过程譬如牛之反刍,会不断思考不断改进,所以有错误请你指正。也请关注我的blog:alexstocks.github.io,我每篇文章的最新版都会在这里及时更新。

此记。

参考文档

Payment

Timeline

于雨氏,2016/03/07,初作此文于金箱堂。

于雨氏,2016/03/08,于金箱堂修改msg cache部分相关字句。

于雨氏,2016/03/09,于金箱堂修改全文,并着重第五章心跳逻辑的部分流程。

于雨氏,2016/03/10,于金箱堂再次修改第3.2节关于msg cache的计算流程以及第五章心跳逻辑的心跳时长估算流程。

于雨氏,2016/03/17,于金箱堂依据参考文档9,再次修改第3.2节关于Counter的设计。

于雨氏,2017/02/07,于致真大厦依据参考文档10,再次修改第3.2节关于Counter的设计。