【编者的话】随着瓜子业务的不断发展,系统规模在逐渐扩大,目前在瓜子的私有云上已经运行着数百个 Apache Dubbo ( 下文简称 Dubbo )应用,上千个 Dubbo 实例。瓜子各部门业务迅速发展,版本没有来得及统一,各个部门都有自己的用法。随着第二机房的建设,Dubbo 版本统一的需求变得越发迫切。几个月前,公司发生了一次与 Dubbo 相关的生产事故,成为了公司基于社区 Dubbo 2.7.3 版本升级的诱因。
接下来,我会从这次线上事故开始,讲讲我们这段时间所做的 Dubbo 版本升级的历程以及我们规划的 Dubbo 后续多机房的方案。
在生产环境,瓜子内部各业务线共用一套 ZooKeeper 集群作为 Dubbo 的注册中心。2019 年 9 月份,机房的一台交换机发生故障,导致 ZooKeeper 集群出现了几分钟的网络波动。在 ZooKeeper 集群恢复后,正常情况下 Dubbo 的 provider 应该会很快重新注册到 ZooKeeper 上,但有一小部分的 provider 很长一段时间没有重新注册到 ZooKeeper 上,直到手动重启应用后才恢复注册。
首先,我们统计了出现这种现象的 Dubbo 服务的版本分布情况,发现在大多数的Dubbo版本中都存在这种问题,且发生问题的服务比例相对较低,在 GitHub 中我们也未找到相关问题的 issues 。因此,推断这是一个尚未修复的且在网络波动情况的场景下偶现的问题。
接着,我们便将出现问题的应用日志、ZooKeeper 日志与 Dubbo 代码逻辑进行相互印证。在应用日志中,应用重连 ZooKeeper 成功后 provider 立刻进行了重新注册,之后便没有任何日志打印。而在 ZooKeeper 日志中,注册节点被删除后,并没有重新创建注册节点。对应到Dubbo的代码中,只有在 FailbackRegistry.register(url) 的 doRegister(url) 执行成功或线程被挂起的情况下,才能与日志中的情况相吻合。
public void register(URL url) { super.register(url); failedRegistered.remove(url); failedUnregistered.remove(url); try { // Sending a registration request to the server side doRegister(url); } catch (Exception e) { Throwable t = e; // If the startup detection is opened, the Exception is thrown directly. boolean check = getUrl().getParameter(Constants.CHECK_KEY, true) && url.getParameter(Constants.CHECK_KEY, true) && !Constants.CONSUMER_PROTOCOL.equals(url.getProtocol()); boolean skipFailback = t instanceof SkipFailbackWrapperException; if (check || skipFailback) { if (skipFailback) { t = t.getCause(); } throw new IllegalStateException("Failed to register " + url + " to registry " + getUrl().getAddress() + ", cause: " + t.getMessage(), t); } else { logger.error("Failed to register " + url + ", waiting for retry, cause: " + t.getMessage(), t); } // Record a failed registration request to a failed list, retry regularly failedRegistered.add(url); } }
在继续排查问题前,我们先普及下这些概念:Dubbo 默认使用 curator 作为ZooKeeper 的客户端, curator 与 ZooKeeper 是通过 session 维持连接的。当 curator 重连 ZooKeeper 时,若 session 未过期,则继续使用原 session 进行连接;若 session 已过期,则创建新 session 重新连接。而 Ephemeral 节点与 session 是绑定的关系,在 session 过期后,会删除此 session 下的 Ephemeral 节点。
继续对 doRegister(url) 的代码进行进一步排查,我们发现在 CuratorZookeeperClient.createEphemeral(path) 方法中有这么一段逻辑:在createEphemeral(path) 捕获了 NodeExistsException ,创建 Ephemeral 节点时,若此节点已存在,则认为 Ephemeral 节点创建成功。这段逻辑初看起来并没有什么问题,且在以下两种常见的场景下表现正常:
public void createEphemeral(String path) { try { client.create().withMode(CreateMode.EPHEMERAL).forPath(path); } catch (NodeExistsException e) { } catch (Exception e) { throw new IllegalStateException(e.getMessage(), e); } }
但是实际上还有一种极端场景,ZooKeeper 的 Session 过期与删除 Ephemeral 节点不是原子性的,也就是说客户端在得到 Session 过期的消息时, Session 对应的 Ephemeral 节点可能还未被 ZooKeeper删除。此时 Dubbo 去创建 Ephemeral 节点,发现原节点仍存在,故不重新创建。待 Ephemeral 节点被 ZooKeeper 删除后,便会出现 Dubbo 认为重新注册成功,但实际未成功的情况,也就是我们在生产环境遇到的问题。
此时,问题的根源已被定位。定位问题之后,经我们与 Dubbo 社区交流,发现考拉的同学也遇到过同样的问题,更确定了这个原因。
定位到问题之后,我们便开始尝试本地复现。由于 ZooKeeper 的 Session 过期但 Ephemeral 节点未被删除的场景直接模拟比较困难,我们通过修改 ZooKeeper 源码,在 Session 过期与删除 Ephemeral 节点的逻辑中增加了一段休眠时间,间接模拟出这种极端场景,并在本地复现了此问题。
在排查问题的过程中,我们发现 Kafka 的旧版本在使用 ZooKeeper 时也遇到过类似的问题,并参考 Kafka 关于此问题的修复方案,确定了 Dubbo 的修复方案。在创建 Ephemeral 节点捕获到 NodeExistsException 时进行判断,若 Ephemeral 节点的 SessionId 与当前客户端的 SessionId 不同,则删除并重建 Ephemeral 节点。在内部修复并验证通过后,我们向社区提交了 issues 及 pr。
Kafka 类似问题 issues: https://issues.apache.org/jira/browse/KAFKA-1387
Dubbo 注册恢复问题 issues: https://github.com/apache/dubbo/issues/5125
上文中的问题修复方案已经确定,但我们显然不可能在每一个 Dubbo 版本上都进行修复。在咨询了社区 Dubbo 的推荐版本后,我们决定在 Dubbo2.7.3 版本的基础上,开发内部版本修复来这个问题。并借这个机会,开始推动公司 Dubbo 版本的统一升级工作。
基于社区 Dubbo 2.7.3 版本开发的 Dubbo 内部版本属于过渡性质的版本,目的是为了修复线上 provider 不能恢复注册的问题,以及一些社区 Dubbo 2.7.3 的兼容性问题。瓜子的 Dubbo 最终还是要跟随社区的版本,而不是开发自已的内部功能。因此我们在 Dubbo 内部版本中修复的所有问题均与社区保持了同步,以保证后续可以兼容升级到社区 Dubbo 的更高版本。
我们在向 Dubbo 社区的同学咨询了版本升级方面的相关经验后,于 9 月下旬开始了 Dubbo 版本的升级工作。
在推动升级 Dubbo 2.7.3 版本的过程整体上比较顺利,当然也遇到了一些兼容性问题:
1、创建 ZooKeeper 节点时提示没有权限
Dubbo 配置文件中已经配置了 ZooKeeper 的用户名密码,但在创建 ZooKeeper 节点时却抛出 KeeperErrorCode = NoAuth 的异常,这种情况分别对应两个兼容性问题:
a. issues: https://github.com/apache/dubbo/issues/5076
Dubbo 在未配置配置中心时,默认使用注册中心作为配置中心。通过注册中心的配置信息初始化配置中心配置时,由于遗漏了用户名密码,导致此问题。
b. issues: https://github.com/apache/dubbo/issues/4991
Dubbo 在建立与 ZooKeeper 的连接时会根据 ZooKeeper 的 address 复用之前已建立的连接。当多个注册中心使用同一个 address,但权限不同时,就会出现 NoAuth 的问题。参考社区的 PR ,我们在内部版本进行了修复。
2、curator 版本兼容性问题
a. Dubbo 2.7.3 与低版本的 curator 不兼容,因此我们默认将 curator 版本升级至 4.2.0
<dependency> <groupId>org.apache.curator</groupId> <artifactId>curator-framework</artifactId> <version>4.2.0</version> </dependency> <dependency> <groupId>org.apache.curator</groupId> <artifactId>curator-recipes</artifactId> <version>4.2.0</version> </dependency>
b. 分布式调度框架 elastic-job-lite 强依赖低版本的 curator,与 Dubbo 2.7.3 使用的 curator 版本不兼容,这给 Dubbo 版本升级工作带来了一定阻塞。考虑到 elastic-job-lite 已经很久没有人进行维护,目前一些业务线计划将 elastic-job-lite 替换为其他的调度框架。
3、OpenFeign 与 Dubbo 兼容性问题
issues: https://github.com/apache/dubbo/issues/3990
Dubbo 的 ServiceBean 监听 Spring 的 ContextRefreshedEvent,进行服务暴露。OpenFeign 提前触发了 ContextRefreshedEvent,此时 ServiceBean 还未完成初始化,于是就导致了应用启动异常。
参考社区的 pr,我们在内部版本修复了此问题。
4、RpcException 兼容性问题
Dubbo 低版本 consumer 不能识别 Dubbo 2.7 版本 provider 抛出的 org.apache.dubbo.rpc.RpcException。因此,在 consumer 全部升级到 2.7 之前,不建议将 provider 的 com.alibaba.dubbo.rpc.RpcException 改为 org.apache.dubbo.rpc.RpcException。
5、QoS 端口占用
Dubbo 2.7.3 默认开启 QoS 功能,导致一些混部在物理机的 Dubbo 服务升级时出现 QoS 端口占用问题。关闭 QoS 功能后恢复。
6、自定义扩展兼容性问题
业务线对于 Dubbo 的自定义扩展比较少,因此在自定义扩展的兼容性方面暂时还没有遇到比较难处理的问题,基本上都是变更 package 导致的问题,由业务线自行修复。
7、Skywalking agent 兼容性问题
我们项目中一般使 Skywalking 进行链路追踪,由于 Skywalking agent6.0 的 plugin 不支持 Dubbo 2.7,因此统一升级 Skywalking agent 到 6.1 。
瓜子目前正在进行第二机房的建设工作,Dubbo 多机房是第二机房建设中比较重要的一个话题。在 Dubbo 版本统一的前提下,我们就能够更顺利的开展 Dubbo 多机房相关的调研与开发工作。
我们咨询了 Dubbo 社区的建议,并结合瓜子云平台的现状,初步确定了 Dubbo 多机房的方案。
Dubbo 同机房优先调用的实现比较简单,相关逻辑如下:
针对以上逻辑,我们简单实现了 Dubbo 通过环境变量进行路由的功能,并向社区提交了 PR。
Dubbo 通过环境变量路由 PR: https://github.com/apache/dubbo/pull/5348
作者:李锦涛,任职于瓜子二手车基础架构部门,负责瓜子微服务架构相关工作。目前主要负责公司内 Dubbo 版本升级与推广、 Skywalking 推广工作。
原文链接: https://mp.weixin.qq.com/s/Ztlha3AjSbo6oHe-YsExvg