K歌亭是唱吧的一条新业务线,旨在提供线下便捷的快餐式K歌方式,用户可以在一个电话亭大小的空间里完成K歌体验。K歌亭在客户端有用户端有VOD,微信和Web三个交互入口,业务复杂度较高,如长连接池服务,用户系统服务,商户系统,增量更新服务,ERP等。对于服务端的稳定性要求也很高,因为K歌亭摆放地点不固定,很多场所的运营活动会造成突发流量。
为了快速开发上线,K歌亭项目最初采用的是传统的单体式架构,但是随着时间的推移,需求的迭代速度变得很快,代码冗余变多,经常会出现牵一发动全身的改动,重构不但会花费大量的时间,对运维和稳定性也会造成很大的压力,加之代码的耦合度高,新人上手较困难,往往需要通读大量代码才不会踩进坑里,针对以上弊端,我们在接下来的版本里采用了微服务的架构模型,这样我们就可以动态调节服务的资源分配从而应对压力,服务自治,可独立部署,服务间解耦,开发人员可以自由选择自己开发服务的语言和存储结构等,目前整体上使用PHP做基础的Web服务和接口层,使用Go语言来做长连接池等其他核心服务,服务间采用Thrift来做RPC交互。从单体式结构转向微服务架构中会持续碰倒服务边界划分的问题,比如我们有user服务来提供用户的基础信息,那么用户的头像和图片等是应该单独划分为一个新的service更好还是应该合并到user服务里呢,如果服务的粒度划分的过粗,那就回到了单体式的老路,如果过细,那服务间调用的开销就变得不可忽视了,管理难度也会指数级增加。目前为止还没有一个可以称之为服务边界划分的标准,只能根据不同的业务系统加以调节,目前K歌亭拆分的大原则是当一块业务不依赖或极少依赖其它服务,有独立的业务语义,为超过2个的其他服务或客户端提供数据,那么它就应该被拆分成一个独立的服务模块。
唱吧K歌亭的微服务架构采用了Mesos和Marathon作为容器编排的工具。在我们选型初期的时候还有几个其他选择:Kubernetes、Swarm、DC/OS:
每个服务自己随机获取一至多个可用端口并监听,当服务启动完毕时开始向etcd集群注册自己的服务地址,而服务的使用者则从etcd中获取所需服务的所有可用地址,从而实现服务发现。
我们采用了etcd作为服务发现的组件,etcd是一个高可用的分布式环境下的 key/value 存储服务,在etcd中,存储是以树形结构来实现的,非叶结点定义为文件夹,叶结点则是文件,我们约定每个服务的根路径为 /v2/keys/service/$service_name/
,每个服务实例的实际地址则存储于以服务实例的uuid为文件名的文件中,比如账户服务account service当前启动了3个可以实例,那么它在etcd中的表现形式则如下图:
当一个服务实例向etcd写入地址成功时我们就可以认为当前服务实例已经注册成功,那么当这个服务实例由于种种原因down掉了之后,服务地址自然也需要失效,那么在etcd中要如何实现呢?注意图中的每个文件有一个TTL值,单位是秒,当TTL的值为0时对应的文件将会被etcd自动删除,当每个服务实例启动之后第一次注册时会把存活时间即TTL值初始化为10s,然后每隔一段时间去刷新TTL,用来像向etcd汇报自己的存活,比如7s,在这种情况下基本啥上可以保证服务有效性的更新的及时性,如果在一个TTL内服务down掉了,则会有10s钟的时间是服务地址有效,而服务本身不可用,这就需要服务的调用方做相应的处理,比如重试或这选择其它服务实例地址。
我们服务发现的机制是每个服务自注册,即每个服务启动的时候先得到宿主机器上面的空闲端口,然后随机一个或多个给自己并监听,当服务启动完毕时开始向etcd集群注册自己的服务地址,而服务的使用者则从etcd中获取所需服务的所有可用地址,从而实现服务发现。
同时,我们这样的机制也为容器以HOST的网络模式启动提供了保证,因为BRIDGE模式确实对于网络的损耗太大,被我们一上来就否决了,采用了HOST模式之后网络方面的影响确实不是很大。
当一个服务实例向etcd写入地址成功时我们就可以认为当前服务实例已经注册成功,那么当这个服务实例由于种种原因down掉了之后,服务地址自然也需要失效,那么在etcd中要如何实现呢?注意图中的每个文件有一个TTL值,单位是秒,当TTL的值为0时对应的文件将会被etcd自动删除,当每个服务实例启动之后第一次注册时会把存活时间即TTL值初始化为10s,然后每隔一段时间去刷新TTL,用来像向etcd汇报自己的存活,比如7s,在这种情况下基本啥上可以保证服务有效性的更新的及时性,如果在一个TTL内服务down掉了,则会有10s钟的时间是服务地址有效,而服务本身不可用,这就需要服务的调用方做相应的处理,比如重试或这选择其它服务实例地址.
我们选择Prometheus汇总监控数据,用ElasticSearch汇总日志,主要的原因有:
Mesos Exporter,是Prometheus开源的项目,可以用来收集容器的各项运行指标。我们主要使用了对于Docker容器的监控这部分功能,针对每个服务启动的容器数量,每个宿主机上启动的容器数量,每个容器的CPU、内存、网络IO、磁盘IO等。并且本身他消耗的资源也很少,每个容器分配0.2 CPU,128MB内存也毫无压力。
在选择Mesos Exporter之前,我们也考虑过使用cAdvisor。cAdvisor是一个Google开源的项目,跟Mesos Exporter收集的8成以上信息都是类似的。而且也可以通过image字段也可以变相实现关联服务与容器,只是Mesos Exporter里面的source字段可以直接关联到Marathon的Application ID,更加直观一些。同时cAdvisor还可以统计一些自定义事件,而我们更多的用日志去收集类似数据,再加上Mesos Exporter也可以统计一些Mesos本身的指标,比如已分配和未分配的资源,所以我们最终选择了Mesos Exporter。
如下图,就是我们监控的部分容器相关指标在Grafana上面的展示:
Node exporter,是Prometheus开源的项目,用来收集物理机器上面的各项指标。之前一直使用Zabbix来监控物理机器的各项指标,这次使用NodeExporter+Prometheus主要是出于效率和对于容器生态的支持两方面考虑。时序数据库在监控数据的存储和查询的效率方面较关系数据库的优势确实非常明显,具体展示在Grafana上面如下图:
Filebeat是用来替换Logstash-forwarder的日志收集组件,可以收集宿主机上面的各种日志。我们所有的服务都会挂载宿主机的本地路径,每个服务容器的会把自己的GUID写入日志来区分来源。日志经由ElasticSearch汇总之后,聚合的Dashboard我们统一都会放在Grafana上面,具体排查线上问题的时候,会用Kibana去查看日志。
Prometheus配置好了报警之后可以通过AlertManager发送,但是对于报警的聚合的支持还是很弱的,在下一阶段我们会引入一些Message Queue来自己的报警系统,加强对于报警的聚合和处理。
ElastAlert是Yelp的一个Python开源项目,主要的功能是定时轮询ElasticSearch的API来发现是否达到报警的临界值,它的一个特色是预定义了各种报警的类型,比如Frequency、Change、Flatline,Cardinality等,非常灵活,也节省了我们很多二次开发的成本。
对于一套微服务的系统结构来说,最大的难点并不是实际业务代码的编写,而是服务的监控和调试以及容器的编排,微服务相对于其他分布式架构的设计来说会把服务的粒度拆到更小,一次请求的路径层级会比其他结构更深,同一个服务的实例部署很分散,当出现了性能瓶颈或者bug时如何第一时间定位问题所在的节点极为重要,所以对于微服务来说,完善的Trace机制是系统的核心之一。
目前很多厂商使用的Trace都是参考2010年Google发表的一篇论文《 Dapper, a Large-Scale Distributed Systems Tracing Infrastructure 》来实现的,其中最著名的当属Twitter的Zipkin,国内的如淘宝的 Eagle Eye。由于用户规模量级的逐年提升,分布式设计的系统理念越来越为各厂商所接受,于是诞生了Trace的一个实现标准OpenTracing ,OpenTracing标准目前支持Go、 JavaScript、 Java、Python、Objective-C、C++六种语言, 由Sourcegraph开源的Appdash是一款轻量级的,支持OpenTracing标准的开源Trace组件,使用Go语言开发K歌亭目前对Appdash进行了二次开发,并将其作为其后端Trace服务,下文直接将其称之为Ktrace,主要原因是Appdash足够轻量,修改起来比较容易, 唱吧K歌亭业务的胶水层使用PHP来实现,Appdash提供了对Protobuf的支持,这样只需要我们自己在PHP层实现Middleware即可。
在Trace系统中有如下几个概念:
在服务访问峰值的出现时,往往需要临时扩容来应对更多的请求。除了手动通过Marathon增加容器数量之外,我们也设计实现了一套自动扩缩容的系统来应对。我们扩缩容的触发机制很直接,根据各个服务的QPS,CPU占用,内存占用这三个指标来衡量,如果三个指标有两个指标达到,即启动自动扩容。
我们的自动扩容系统包括3个模块:
/v2/apps/{app_id}
接口,去完成对应服务的扩容。因为我们的服务在容器启动之后会自己向etcd注册,所以查询完容器状态之后,扩缩容的任务就完成了。 在唱吧,我们使用Jenkins作为持续集成的工具。主要原因是我们想在自己的机房维护持续集成的后端,所以放弃了Travis之类的系统。
在实施持续集成的工作过程中,我们碰到了下列问题:
基于以上问题,我们选择使用Mesos和Marathon来管理Jenkins集群,把Jenkins Master和Jenkins Slave都放到Docker容器里面,可以非常有效的解决以上问题。基础架构如下图:
基于上述的基础架构,我们定义了我们自己的持续集成与持续交付的流程。其中除了大规模使用Jenkins与一些自定制的Jenkins插件之外,我们也自己研发了自己的部署系统——HAWAII。
在HAWAII中可以很直观的查看各个服务与模块的持续集成结果,包括最新的版本,SCM revision,测试结果等信息,然后选择相应的版本去部署生产环境。
在部署之前,可以查看详细的测试结果和与线上版本的区别,以及上线过程中的各个步骤运行的状态。
基于上述基础架构,我们的CI/CD流程如下:
随着互联网的高速发展,各个公司都面临着巨大的产品迭代压力,如何更快的发布高质量的产品,也是每个互联网公司都面临的问题。在这个大趋势下,微服务与DevOps的概念应运而生,在低耦合的同时实现高聚合,也对新时代的DevOps提出了更高的技术与理念要求。
这也是我们公司在这个新的业务线上面进行,进行尝试的主要原因之一。对于微服务,容器编排,虚拟化,DevOps这些领域,我们一步一步经历了从无到有的过程,所以很多方面都是本着从满足业务的目标来尽量严谨的开展,包括所有的服务与基础架构都进行了高并发且长时间的压力测试。
在下一步的工作中,我们也有几个核心研究的方向与目标,也希望能跟大家一起学习与探讨: