转载

随行付微服务之数据同步 Porter

Porter是一款数据同步中间件,主要用于解决同构/异构数据库之间的表级别数据同步问题。

背景

在微服务架构模式下深刻的影响了应用和数据库之间的关系,不像传统多个服务共享一个数据库,微服务架构下每个服务都要有自己的数据库。如果你想获得微服务带来的好处,每个服务独有一个数据库是必须的,因为微服务强调的就是松耦合。我们希望数据库就和服务一样,要有充分的独立性、可以和服务一起部署、一起扩展、一起重构。同时,还需要兼顾数据中心的数据聚合、DBA的多种数据库备份、报表中心的业务报表等等矛盾问题。因此便产生了「Porter」项目。

微服务改造过程中,无法避免的一个坎,那就是垂直拆库,根据不同的子服务,把过去的「一库多服」拆分成「一库一服」。

一库多服还是一库一服?

不管是否是微服务架构,应用的各个模块之间都需要频繁的通信、协作、共享数据,实现系统的整体价值。区别点在于单体应用是通过本地方法调用来完成;在微服务中是通过远程API调用完成。

而共享数据最贱的方式就是采用共享数据库模式,也就是单体应用中最常用的方式,一般只有一个数据库,如图一库多服和一库一服的方式:

随行付微服务之数据同步 Porter

一库多服的架构模式通常会被认为是微服务架构下的反范式,它的问题在于:

  • 稳定性:单点故障,一个数据库挂掉,整批服务全部停止。服务独立性被扼杀?

  • 耦合性:数据在一起,会给贪图方便的开发或者DBA工程师编写很多数据间高度依赖的程序或者工具;

  • 扩展性:无法针对某一个服务进行精准优化或扩展,服务会大体分为两个读多写少、写多读少,数据库优化是根据服务而来的,不是一篇而论。

所以随行付内部一般推荐的做法:是为每一个微服务准备一个单独的数据库,即一库一服模式。这种模式更加适合微服务架构,它满足每一个服务是独立开发、独立部署、独立扩展的特性。当需要对一个服务进行升级或者数据架构改动的时候,无须影响到其他的服务。需要对某个服务进行扩展的时候,也可以手术式的对某一个服务进行局部扩容。

那么问题来了,在改造中我们发现,以下问题,诞生了该项目:

  • 报表中心和前端详细页都存在SQL Join方式,经历我们一库一服的拆分后,无法在继续使用SQL Join方式了...

  • 数据中心,做得是数据聚合,数据拆分后,给数据中心带来了很大的麻烦...

  • 微服务之后,各个应用模块对数据库的要求出现了分歧,数据库类型多元化自主选择还是统一...

  • 等等...

Porter介绍

Porter是一个集中式的数据处理通道,所有的数据都在这个数据处理平台汇聚、分发。Porter是一个无中心、插件友好型分布式数据同步中间件。默认注册中心插件实现为zookeeper, 当然,你也可以基于注册中心接口实现自定义注册中心模块。在Porter的主流程外分布着集群插件、源端消费插件、源端消息转换器插件、目标端写入插件、告警插件、自定义数据定义插件等插件模块,除了集群插件、告警插件是Porter任务节点全局作用域外,其余插件模块都随着同步任务的不同而相应组合。得益于良好的设计模式,Porter才能为大家呈现如此灵活的扩展性与易用性。

功能

Porter始于2017年,提供数据同步功能,但并不仅仅局限于数据同步,在随行付内部广泛使用。主要提供一下功能:

  • 原生支持Oracle|Mysql到Jdbc关系型数据库最终一致同步

  • 插件友好化,支持自定义源端消费插件、目标端载入插件、告警插件等插件二次开发。

  • 支持自定义源端、目标端表、字段映射

  • 支持节点基于配置文件的同步任务配置。

  • 支持管理后台同步任务推送,节点、任务管理。提供任务运行指标监控,节点运行日志、任务异常告警。

  • 支持节点资源限流、分配。

  • 基于Zookeeper集群插件的分布式架构。支持自定义集群插件。

架构设计

Porter节点通过注册中心实现分布式集群,并根据资源需求动态扩缩容。Portert与注册中心协商了一套任务、节点、统计接口,Porter节点通过监听注册中心接口数据的变化实现任务的分配管理。配置管理后台遵守并实现注册中心的接口规范,实现对Porter节点远程管理。注册中心同样有一套分布式锁机制,用于任务资源的分配。

在这个机制外,Porter节点可以通过本地配置文件的方式实现任务的定义。

随行付微服务之数据同步 Porter

原理介绍:

  • 1、基于Canal开源产品,获取MySql数据库增量日志数据。

  • 2、管理系统架构。管理节点(web manager)管理工作节点任务编排、数据工作节点(TaskWork)汇报工作进度

  • 3、基于Zookeeper集群插件的分布式架构。支持自定义集群插件

  • 4、基于Kafka消息组件,每张表对应一个Topic,数据节点分Topic消费工作

处理流程

为了保证数据的一致性,源端数据提取与目标端插入采用单线程顺序执行,中间阶段通过多线程执行提高数据处理速度。对照上图就是SelectJob与LoadJob单线程执行,ExtractJob、TransformJob线程并行执行,然后在LoadJob阶段对数据包进行排序,顺序写入目标端。

正如文章开头所说,告警插件与注册中心插件在多个任务间共享,每个任务根据源端与目标端的类型、源端数据格式选择与之相匹配的处理插件。也就是说告警插件、注册中心插件与Porter节点配置相关,数据消费插件、目标端插件、自定义数据处理插件等插件与任务配置相关。

随行付微服务之数据同步 Porter

插件化设计

Porter通过SPI规范结合单例、工厂、监听者模式等设计模式,实现了极大的灵活性与松耦合,满足不同场景的二次开发。具体涵盖如下四个方面的插件化设计:

  • 注册中心插件

  • 源端消费插件

  • 目标端载入插件

  • 自定义数据处理插件

注册中心插件

在common包META-INF/spring.factories有如下内容:

摘抄ClusterProvider接口定义:

随行付微服务之数据同步 Porter

porter-boot的配置文件对注册中心的配置如下:

随行付微服务之数据同步 Porter

看到这里,有了配置文件和插件定义,我们还差使配置生效的代码。代码在Porter-boot的启动类NodeBootApplication中:

随行付微服务之数据同步 Porter

ClusterProviderProxy是一个单例枚举类,在initialize中根据spring.factories配置的实现类顺序通过实现类的matches方法匹配配置文件的配置:

随行付微服务之数据同步 Porter

Porter节点通过注册ClusterListener监听感知注册中心的通知事件,Porter的zookeeper实现在包porter-cluster里,通过ZookeeperClusterMonitor激活:

随行付微服务之数据同步 Porter

源端消费插件

本地配置文件任务配置参数如下,指定了源端消费插件,源端连接信息,数据转换插件,目标端插件等:

随行付微服务之数据同步 Porter

kafka消费插件“KafkaFetch”定义在porter-plugin/kafka-consumer包,通过META-INF/spring.factories暴露实现:

通过消费器工厂类DataConsumerFactory查找并激活,这里的consumerName就是在配置文件中配置的“KafkaFetch”:

随行付微服务之数据同步 Porter

目标端载入插件

要实现目标端载入插件需要继承cn.vbill.middleware.porter.core.consumer.AbstractDataConsumer

随行付微服务之数据同步 Porter

完成自定义目标端插件开发后,通过spring SPI机制发布插件:

通过载入器工厂类DataLoaderFactory查找并激活,这里的loaderName就是在getPluginName()指定的插件名称:

随行付微服务之数据同步 Porter

那么在任务配置时如何指定呢?看这里:

   porter.task[0].loader.loaderName=目标端插件名

实现细节参考porter-plugin包下的kafka-loader、jdbc-loader、kudu-loader三个目标端

自定义数据处理插件

假设我们要将mysql表T USER同步到目标端Oracle T USER 2,源端表T USER表结构与目标端表T USER 2一致。我们的需求是只保留FLAG字段等于0的用户数据。

需求有了,接下来我们就要实现EventProcessor接口做自定义数据过滤: 随行付微服务之数据同步 Porter

在任务中指定自定义数据处理插件:

随行付微服务之数据同步 Porter

集群机制

Porter的集群模式依赖集群插件,默认的集群插件基于zookeeper实现。Porter任务节点和管理节点并不是强制绑定关系,任务部署可以通过任务配置文件,也可以通过管理节点推送。管理节点还可以管理节点、收集、展示监控指标信息等,是一个不错的、简化运维的管理平台。同样的,可以基于zookeeper数据结构协议实现你自己的管理平台。集群模式下的系统结构:

随行付微服务之数据同步 Porter

zookeeper集群模式插件

zookeeper数据结构协议:

随行付微服务之数据同步 Porter

Porter的集群机制主要有以下功能:

  • 实现节点任务的负载,当前任务节点失效后自动漂移到其他任务节点

  • 实现任务节点与管理节点的通信

  • 实现任务处理进度的存储与拉取

  • 实现统计指标数据的上传(最新的开发版本支持自定义统计指标上传客户端,原生支持kafka)

  • 用于节点、任务抢占的分布式锁实现

基于文件系统的单机模式插件

最新开发版支持Porter任务节点以单机模式运行,不依赖管理后台和zookeeper,通过配置文件配置任务。单机模式是一种特殊的集群模式,仅支持部分集群功能,但简化了任务部署的复杂性,灵活多变。

  • 实现任务处理进度的存储与拉取

  • 实现统计指标数据的上传

Porter任务节点运行模式的配置方式

#zookeeper集群配置
porter.cluster.strategy=ZOOKEEPER
porter.cluster.client.url=127.0.0.1:2181
porter.cluster.client.sessionTimeout=100000
    
#单机模式配置
porter.cluster.strategy=STANDALONE
porter.cluster.client.home=/path/.porter


最后

笔者在开源Porter之前有幸参与Apache SkyWalking社区并受其感召,随后参与Sharding-Sphere等多个开源项目。我们竭尽所能提供优质的开源软件,为中国的开源社区贡献一份力量。但受限于技术能力及开源社区的运营经验,不足之处,恳求大家的批评指正。

Porter的更多实现细节,请移步开源网站。

开源中国:https://gitee.com/sxfad/porter

GitHub:https://github.com/sxfad/porter。

Porter插件开发demo:https://github.com/sxfad/porter-plugin-demo

Porter开源QQ交流群:835209101

作者简介

随行付微服务之数据同步 Porter

张科伟,随行付架构部架构师。擅长分布式系统架构设计,精通分布式调用链跟踪系统原理,Apache项目SkyWalking Committer。

随行付微服务之数据同步 Porter

点击阅读原文查看更多

原文  https://mp.weixin.qq.com/s/F3-RhZbESta249U4xqBymA
正文到此结束
Loading...