LoadBalance 中文意思为负载均衡,它的职责是将网络请求,或者其他形式的负载“均摊”到不同的机器上。避免集群中部分服务器压力过大,而另一些服务器比较空闲的情况。通过负载均衡,可以让每台服务器获取到适合自己处理能力的负载。在为高负载的服务器分流的同时,还可以避免资源浪费,一举两得。负载均衡可分为软件负载均衡和硬件负载均衡。在我们日常开发中,一般很难接触到硬件负载均衡。但软件负载均衡还是能够接触到一些的,比如 Nginx。在 Dubbo 中,也有负载均衡的概念和相应的实现。Dubbo 需要对服务消费者的调用请求进行分配,避免少数服务提供者负载过大。服务提供者负载过大,会导致部分服务调用超时。因此将负载均衡到每个服务提供者上,是非常必要的。Dubbo 提供了4种负载均衡实现,分别是基于权重随机算法的 RandomLoadBalance、基于最少活跃调用数算法的 LeastActiveLoadBalance、基于 hash 一致性的 ConsistentHashLoadBalance,以及基于加权轮询算法的 RoundRobinLoadBalance。这几个负载均衡算法代码不是很长,但是想看懂也不是很容易,需要大家对这几个算法的原理有一定了解才行。如果不是很了解,也没不用太担心。我会在分析每个算法的源码之前,对算法原理进行简单的讲解,帮助大家建立初步的印象。
我在写 Dubbo 源码分析系列文章之初,当时 Dubbo 最新的版本为 2.6.4。近期,Dubbo 2.6.5 发布了,其中就有对负载均衡部分代码修改。因此我在分析完 2.6.4 版本后的源码后,会另外分析 2.6.5 更新的部分。本篇文章内容非常之丰富,需要大家耐心阅读。好了,其他的就不多说了,进入正题吧。
在 Dubbo 中,所有负载均衡实现类均继承自 AbstractLoadBalance,该类实现了 LoadBalance 接口方法,并封装了一些公共的逻辑。所以在分析负载均衡实现之前,先来看一下 AbstractLoadBalance 的逻辑。首先来看一下负载均衡的入口方法 select,如下:
@Override public <T> Invoker<T> select(List<Invoker<T>> invokers, URL url, Invocation invocation) { if (invokers == null || invokers.isEmpty()) return null; // 如果 invokers 列表中仅有一个 Invoker,直接返回即可,无需进行负载均衡 if (invokers.size() == 1) return invokers.get(0); // 调用 doSelect 方法进行负载均衡,该方法为抽象方法,由子类实现 return doSelect(invokers, url, invocation); } protected abstract <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation);
select 方法的逻辑比较简单,首先会检测 invokers 集合的合法性,然后再检测 invokers 集合元素数量。如果只包含一个 Invoker,直接返回该 Inovker 即可。如果包含多个 Invoker,此时需要通过负载均衡算法选择一个 Invoker。具体的负载均衡算法由子类实现,接下来章节会对这些子类进行详细分析。
AbstractLoadBalance 除了实现了 LoadBalance 接口方法,还封装了一些公共逻辑 —— 服务提供者权重计算逻辑。具体实现如下:
protected int getWeight(Invoker<?> invoker, Invocation invocation) { // 从 url 中获取 weight 配置值 int weight = invoker.getUrl().getMethodParameter(invocation.getMethodName(), Constants.WEIGHT_KEY, Constants.DEFAULT_WEIGHT); if (weight > 0) { // 获取服务提供者启动时间戳 long timestamp = invoker.getUrl().getParameter(Constants.REMOTE_TIMESTAMP_KEY, 0L); if (timestamp > 0L) { // 计算服务提供者运行时长 int uptime = (int) (System.currentTimeMillis() - timestamp); // 获取服务预热时间,默认为10分钟 int warmup = invoker.getUrl().getParameter(Constants.WARMUP_KEY, Constants.DEFAULT_WARMUP); // 如果服务运行时间小于预热时间,则重新计算服务权重,即降权 if (uptime > 0 && uptime < warmup) { // 重新计算服务权重 weight = calculateWarmupWeight(uptime, warmup, weight); } } } return weight; } static int calculateWarmupWeight(int uptime, int warmup, int weight) { // 计算权重,下面代码逻辑上形似于 (uptime / warmup) * weight。 // 随着服务运行时间 uptime 增大,权重计算值 ww 会慢慢接近配置值 weight int ww = (int) ((float) uptime / ((float) warmup / (float) weight)); return ww < 1 ? 1 : (ww > weight ? weight : ww); }
上面是权重的计算过程,该过程主要用于保证当服务运行时长小于服务预热时间时,对服务进行降权,避免让服务在启动之初就处于高负载状态。服务预热是一个优化手段,与此类似的还有 JVM 预热。主要目的是让服务启动后“低功率”运行一段时间,使其效率慢慢提升至最佳状态。关于预热方面的更多知识,大家感兴趣可以自己搜索一下。
关于 AbstractLoadBalance 就先分析到这,接下来分析各个实现类的代码。首先,我们从 Dubbo 缺省的实现类 RandomLoadBalance 看起。
RandomLoadBalance 是加权随机算法的具体实现,它的算法思想很简单。假设我们有一组服务器 servers = [A, B, C],他们对应的权重为 weights = [5, 3, 2],权重总和为10。现在把这些权重值平铺在一维坐标值上,[0, 5) 区间属于服务器 A,[5, 8) 区间属于服务器 B,[8, 10) 区间属于服务器 C。接下来通过随机数生成器生成一个范围在 [0, 10) 之间的随机数,然后计算这个随机数会落到哪个区间上。比如数字3会落到服务器 A 对应的区间上,此时返回服务器 A 即可。权重越大的机器,在坐标轴上对应的区间范围就越大,因此随机数生成器生成的数字就会有更大的概率落到此区间内。只要随机数生成器产生的随机数分布性很好好,在经过多次选择后,每个服务器被选中的次数比例接近其权重比例。比如,经过一万次选择后,服务器 A 被选中的次数大约为5000次,服务器 B 被选中的次数约为3000次,服务器 C 被选中的次数约为2000次。
以上就是 RandomLoadBalance 背后的算法思想,比较简单,不多说了,下面开始分析源码。
public class RandomLoadBalance extends AbstractLoadBalance { public static final String NAME = "random"; private final Random random = new Random(); @Override protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) { int length = invokers.size(); int totalWeight = 0; boolean sameWeight = true; // 下面这个循环有两个作用,第一是计算总权重 totalWeight, // 第二是检测每个服务提供者的权重是否相同,若不相同,则将 sameWeight 置为 false for (int i = 0; i < length; i++) { int weight = getWeight(invokers.get(i), invocation); // 累加权重 totalWeight += weight; // 检测当前服务提供者的权重与上一个服务提供者的权重是否相同, // 不相同的话,则将 sameWeight 置为 false。 if (sameWeight && i > 0 && weight != getWeight(invokers.get(i - 1), invocation)) { sameWeight = false; } } // 下面的 if 分支主要用于获取随机数,并计算随机数落在哪个区间上 if (totalWeight > 0 && !sameWeight) { // 随机获取一个 [0, totalWeight) 之间的数字 int offset = random.nextInt(totalWeight); // 循环让 offset 数减去服务提供者权重值,当 offset 小于0时,返回相应的 Invoker。 // 还是用上面的例子进行说明,servers = [A, B, C],weights = [5, 3, 2],offset = 7。 // 第一次循环,offset - 5 = 2 > 0,说明 offset 肯定不会落在服务器 A 对应的区间上。 // 第二次循环,offset - 3 = -1 < 0,表明 offset 落在服务器 B 对应的区间上 for (int i = 0; i < length; i++) { // 让随机值 offset 减去权重值 offset -= getWeight(invokers.get(i), invocation); if (offset < 0) { // 返回相应的 Invoker return invokers.get(i); } } } // 如果所有服务提供者权重值相同,此时直接随机返回一个即可 return invokers.get(random.nextInt(length)); } }
RandomLoadBalance 的算法思想比较简单,在经过多次请求后,能够将调用请求按照权重值进行“均匀”分配。当然 RandomLoadBalance 也存在一定的缺点,当调用次数比较少时,Random 产生的随机数可能会比较集中,此时多数请求会落到同一台服务器上。这个缺点并不是很严重,多数情况下可以忽略。RandomLoadBalance 是一个简单,高效的负载均衡实现,因此 Dubbo 选择它作为缺省实现。
关于 RandomLoadBalance 就先到这了,接下来分析 LeastActiveLoadBalance。
LeastActiveLoadBalance 翻译过来是最小活跃数负载均衡,所谓的最小活跃数可理解为最少连接数。即服务提供者目前正在处理的请求数(一个请求对应一条连接)最少,表明该服务提供者效率高,单位时间内可处理更多的请求。此时应优先将请求分配给该服务提供者。在具体实现中,每个服务提供者对应一个活跃数 active。初始情况下,所有服务提供者活跃数均为0。每收到一个请求,活跃数加1,完成请求后则将活跃数减1。在服务运行一段时间后,性能好的服务提供者处理请求的速度更快,因此活跃数下降的也越快。此时这样的服务提供者能够优先获取到新的服务请求,这就是最小活跃数负载均衡算法的基本思想。除了最小活跃数,LeastActiveLoadBalance 在实现上还引入了权重值。所以准确的来说,LeastActiveLoadBalance 是基于加权最小活跃数算法实现的。举个例子说明一下,在一个服务提供者集群中,有两个性能优异的服务提供者。某一时刻它们的活跃数相同,此时 Dubbo 会根据它们的权重去分配请求,权重越大,获取到新请求的可能性就越大。如果两个服务提供者权重相同,此时随机选择一个即可。关于 LeastActiveLoadBalance 的背景知识就先介绍到这里,下面开始分析源码。
public class LeastActiveLoadBalance extends AbstractLoadBalance { public static final String NAME = "leastactive"; private final Random random = new Random(); @Override protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) { int length = invokers.size(); // 最小的活跃数 int leastActive = -1; // 具有相同“最小活跃数”的服务者提供者(以下用 Invoker 代称)数量 int leastCount = 0; // leastIndexs 用于记录具有相同“最小活跃数”的 Invoker 在 invokers 列表中的下标信息 int[] leastIndexs = new int[length]; int totalWeight = 0; // 第一个最小活跃数的 Invoker 权重值,用于与其他具有相同最小活跃数的 Invoker 的权重进行对比, // 以检测是否所有具有相同最小活跃数的 Invoker 的权重均相等 int firstWeight = 0; boolean sameWeight = true; // 遍历 invokers 列表 for (int i = 0; i < length; i++) { Invoker<T> invoker = invokers.get(i); // 获取 Invoker 对应的活跃数 int active = RpcStatus.getStatus(invoker.getUrl(), invocation.getMethodName()).getActive(); // 获取权重 - :star:️ int weight = invoker.getUrl().getMethodParameter(invocation.getMethodName(), Constants.WEIGHT_KEY, Constants.DEFAULT_WEIGHT); // 发现更小的活跃数,重新开始 if (leastActive == -1 || active < leastActive) { // 使用当前活跃数 active 更新最小活跃数 leastActive leastActive = active; // 更新 leastCount 为 1 leastCount = 1; // 记录当前下标值到 leastIndexs 中 leastIndexs[0] = i; totalWeight = weight; firstWeight = weight; sameWeight = true; // 当前 Invoker 的活跃数 active 与最小活跃数 leastActive 相同 } else if (active == leastActive) { // 在 leastIndexs 中记录下当前 Invoker 在 invokers 集合中的下标 leastIndexs[leastCount++] = i; // 累加权重 totalWeight += weight; // 检测当前 Invoker 的权重与 firstWeight 是否相等, // 不相等则将 sameWeight 置为 false if (sameWeight && i > 0 && weight != firstWeight) { sameWeight = false; } } } // 当只有一个 Invoker 具有最小活跃数,此时直接返回该 Invoker 即可 if (leastCount == 1) { return invokers.get(leastIndexs[0]); } // 有多个 Invoker 具有相同的最小活跃数,但他们的权重不同 if (!sameWeight && totalWeight > 0) { // 随机获取一个 [0, totalWeight) 之间的数字 int offsetWeight = random.nextInt(totalWeight); // 循环让随机数减去具有最小活跃数的 Invoker 的权重值, // 当 offset 小于等于0时,返回相应的 Invoker for (int i = 0; i < leastCount; i++) { int leastIndex = leastIndexs[i]; // 获取权重值,并让随机数减去权重值 - :star:️ offsetWeight -= getWeight(invokers.get(leastIndex), invocation); if (offsetWeight <= 0) return invokers.get(leastIndex); } } // 如果权重相同或权重为0时,随机返回一个 Invoker return invokers.get(leastIndexs[random.nextInt(leastCount)]); } }
如上,为了帮助大家理解代码,我在上面的代码中写了大量的注释。下面简单总结一下以上代码所做的事情,如下:
以上就是 LeastActiveLoadBalance 大致的实现逻辑,大家在阅读的源码的过程中要注意区分活跃数与权重这两个概念,不要混为一谈。
以上分析是基于 Dubbo 2.6.4 版本进行了,由于近期 Dubbo 2.6.5 发布了,对负载均衡部分的代码进行了一些更新。这其中就包含了本节分析的 LeastActiveLoadBalance,所以下面简单说明一下 Dubbo 2.6.5 对 LeastActiveLoadBalance 进行了怎样的修改。回到上面的源码中,我在上面的代码中标注了两个黄色的五角星:star:️。两处标记对应的代码分别如下:
int weight = invoker.getUrl().getMethodParameter(invocation.getMethodName(), Constants.WEIGHT_KEY, Constants.DEFAULT_WEIGHT);
offsetWeight -= getWeight(invokers.get(leastIndex), invocation);
问题出在服务预热阶段,第一行代码直接从 url 中去权重值,未被降权过。第二行代码获取到的是经过降权后的权重。第一行代码获取到的权重值最终会被累加到权重总和 totalWeight 中,这个时候会导致一个问题。offsetWeight 是一个在 [0, totalWeight) 范围内的随机数,而它所减去的是经过降权的权重。很有可能在经过 leastCount 次运算后,offsetWeight 仍然是大于0的,导致无法选中 Invoker。这个问题对应的 issue 为 #904 ,在 pull request #2172 中被修复。具体的修复逻辑是将标注一处的代码修改为:
// afterWarmup 等价于上面的 weight 变量,这样命名是为了强调该变量经过 warmup 降权处理了 int afterWarmup = getWeight(invoker, invocation);
另外,2.6.4 版本中的 LeastActiveLoadBalance 还要一个缺陷,即当一组 Invoker 具有相同的最小活跃数,且其中一个 Invoker 的权重值为1,此时这个 Invoker 无法被选中。缺陷代码如下:
int offsetWeight = random.nextInt(totalWeight); for (int i = 0; i < leastCount; i++) { int leastIndex = leastIndexs[i]; offsetWeight -= getWeight(invokers.get(leastIndex), invocation); if (offsetWeight <= 0) // :x: return invokers.get(leastIndex); }
问题就出在了 offsetWeight <= 0
上,举例说明,假设有一组 Invoker 的权重为 5、2、1,offsetWeight 最大值为 7。假设 offsetWeight = 7,你会发现,当 for 循环进行第二次遍历后 offsetWeight = 7 - 5 - 2 = 0,提前返回了。此时,权重为1的 Invoker 就没有机会被选中。这个修改起来也不难,可以将 offsetWeight < 0
,不过 Dubbo 的是将 offsetWeight + 1
,也就是:
int offsetWeight = random.nextInt(totalWeight) + 1;
两种改动都行,不过我认为觉得第一种方式更好一点,可与 RandomLoadBalance 逻辑保持一致。这里+1有点突兀,大家读到这里要特地思考一下为什么要+1。
以上就是 Dubob 2.6.5 对 LeastActiveLoadBalance 的更新,不是很难理解,就不多说了。接下来分析基于一致性 hash 思想的 ConsistentHashLoadBalance。
一致性 hash 算法由麻省理工学院的 Karger 及其合作者于1997年提供出的,算法提出之初是用于大规模缓存系统的负载均衡。它的工作过程是这样的,首先根据 ip 获取其他的信息为缓存节点生成一个 hash,并将这个 hash 投射到 [0, 2 32 - 1] 的圆环上。当有查询或写入请求时,则为缓存项的 key 生成一个 hash 值。然后查找第一个大于或等于该 hash 值的缓存节点,并到这个节点中查询或写入缓存项。如果当前节点挂了,则在下一次查询或写入缓存时,为缓存项查找另一个大于其 hash 值的缓存节点即可。大致效果如下,每个缓存节点在圆环上占据一个位置。如果缓存项的 key 的 hash 值小于缓存节点 hash 值,则到该缓存节点中存储或读取缓存项。比如下面绿色点对应的缓存项存储到 cache-2 节点中。由于 cache-3 挂了,原本应该存到该节点中的缓存想最终会存储到 cache-4 节点中。
关于一致性 hash 算法,我这里只做扫盲。具体的细节不讨论,大家请自行补充相关的背景知识。下面来看看一致性 hash 在 Dubbo 中的应用。我们把上图的缓存节点替换成 Dubbo 的服务提供者,于是得到了下图:
这里相同颜色的节点均属于同一个服务提供者,比如 Invoker1-1,Invoker1-2,……, Invoker1-160。这样做的目的是通过引入虚拟节点,让 Invoker 在圆环上分散开来,避免数据倾斜问题。所谓数据倾斜是指,由于节点不够分散,导致大量请求落到了同一个节点上,而其他节点只会接收到了少量的请求。比如:
如上,由于 Invoker-1 和 Invoker-2 在圆环上分布不均,导致系统中75%的请求都会落到 Invoker-1 上,只有 25% 的请求会落到 Invoker-2 上。解决这个问题办法是引入虚拟节点,通过虚拟节点均衡各个节点的请求量。
到这里背景知识就普及完了,接下来开始分析源码。我们先从 ConsistentHashLoadBalance 的 doSelect 方法开始看起,如下:
public class ConsistentHashLoadBalance extends AbstractLoadBalance { private final ConcurrentMap<String, ConsistentHashSelector<?>> selectors = new ConcurrentHashMap<String, ConsistentHashSelector<?>>(); @Override protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) { String methodName = RpcUtils.getMethodName(invocation); String key = invokers.get(0).getUrl().getServiceKey() + "." + methodName; // 获取 invokers 原始的 hashcode int identityHashCode = System.identityHashCode(invokers); ConsistentHashSelector<T> selector = (ConsistentHashSelector<T>) selectors.get(key); // 如果 invokers 是一个新的 List 对象,意味着服务提供者数量发生了变化,可能新增也可能减少了。 // 此时 selector.identityHashCode != identityHashCode 条件成立 if (selector == null || selector.identityHashCode != identityHashCode) { // 创建新的 ConsistentHashSelector selectors.put(key, new ConsistentHashSelector<T>(invokers, methodName, identityHashCode)); selector = (ConsistentHashSelector<T>) selectors.get(key); } // 调用 ConsistentHashSelector 的 select 方法选择 Invoker return selector.select(invocation); } private static final class ConsistentHashSelector<T> {...} }
如上,doSelect 方法主要做了一些前置工作,比如检测 invokers 列表是不是变动过,以及创建 ConsistentHashSelector。这些工作做完后,接下来开始调用 select 方法执行负载均衡逻辑。在分析 select 方法之前,我们先来看一下一致性 hash 选择器 ConsistentHashSelector 的初始化过程,如下:
private static final class ConsistentHashSelector<T> { // 使用 TreeMap 存储 Invoker 虚拟节点 private final TreeMap<Long, Invoker<T>> virtualInvokers; private final int replicaNumber; private final int identityHashCode; private final int[] argumentIndex; ConsistentHashSelector(List<Invoker<T>> invokers, String methodName, int identityHashCode) { this.virtualInvokers = new TreeMap<Long, Invoker<T>>(); this.identityHashCode = identityHashCode; URL url = invokers.get(0).getUrl(); // 获取虚拟节点数,默认为160 this.replicaNumber = url.getMethodParameter(methodName, "hash.nodes", 160); // 获取参与 hash 计算的参数下标值,默认对第一个参数进行 hash 运算 String[] index = Constants.COMMA_SPLIT_PATTERN.split(url.getMethodParameter(methodName, "hash.arguments", "0")); argumentIndex = new int[index.length]; for (int i = 0; i < index.length; i++) { argumentIndex[i] = Integer.parseInt(index[i]); } for (Invoker<T> invoker : invokers) { String address = invoker.getUrl().getAddress(); for (int i = 0; i < replicaNumber / 4; i++) { // 对 address + i 进行 md5 运算,得到一个长度为16的字节数组 byte[] digest = md5(address + i); // 对 digest 部分字节进行4次 hash 运算,得到四个不同的 long 型正整数 for (int h = 0; h < 4; h++) { // h = 0 时,取 digest 中下标为 0 ~ 3 的4个字节进行位运算 // h = 1 时,取 digest 中下标为 4 ~ 7 的4个字节进行位运算 // h = 2, h = 3 时过程同上 long m = hash(digest, h); // 将 hash 到 invoker 的映射关系存储到 virtualInvokers 中, // virtualInvokers 中的元素要有序,因此选用 TreeMap 作为存储结构 virtualInvokers.put(m, invoker); } } } } }
ConsistentHashSelector 进行了一些列的初始化方法,比如从配置中获取虚拟节点数以及参与 hash 计算的参数下标,默认情况下只使用第一个参数进行 hash。需要特别说明的是,ConsistentHashLoadBalance 的负载均衡逻辑只受参数值影响,具有相同参数值的请求将会被分配给同一个服务提供者。ConsistentHashLoadBalance 不 care 权重,因此使用时需要注意一下。
在获取虚拟节点数和参数下标配置后,接下来要做到事情是计算虚拟节点 hash 值,并将虚拟节点存储到 TreeMap 中。到此,ConsistentHashSelector 初始化工作就完成了。接下来,我们再来看看 select 方法的逻辑。
public Invoker<T> select(Invocation invocation) { // 将参数转为 key String key = toKey(invocation.getArguments()); // 对参数 key 进行 md5 运算 byte[] digest = md5(key); // 取 digest 数组的前四个字节进行 hash 运算,再将 hash 值传给 selectForKey 方法, // 寻找合适的 Invoker return selectForKey(hash(digest, 0)); } private Invoker<T> selectForKey(long hash) { // 到 TreeMap 中查找第一个节点值大于或等于当前 hash 的 Invoker Map.Entry<Long, Invoker<T>> entry = virtualInvokers.tailMap(hash, true).firstEntry(); // 如果 hash 大于 Invoker 在圆环上最大的位置,此时 entry = null, // 需要将 TreeMap 的头结点赋值给 entry if (entry == null) { entry = virtualInvokers.firstEntry(); } // 返回 Invoker return entry.getValue(); }
如上,选择的过程比较简单了。首先是对参数进行 md5 以及 hash 运算,得到一个 hash 值。然后再拿这个值到 TreeMap 中查找目标 Invoker 即可。
到此关于 ConsistentHashLoadBalance 就分析完了。在阅读 ConsistentHashLoadBalance 之前,大家一定要先补充背景知识。否者即使这里只有一百多行代码,也很难看懂。好了,本节先分析到这。
本节,我们来看一下 Dubbo 中的加权轮询负载均衡的实现 RoundRobinLoadBalance。在详细分析源码前,我们还是先来了解一下什么是加权轮询。这里从最简单的轮询开始讲起,所谓轮询就是将请求轮流分配给一组服务器。举个例子,我们有三台服务器 A、B、C。我们将第一个请求分配给服务器 A,第二个请求分配给服务器 B,第三个请求分配给服务器 C,第四个请求再次分配给服务器 A。这个过程就叫做轮询。轮询是一种无状态负载均衡算法,实现简单,适用于每台服务器性能相近的场景下。显然,现实情况下,我们并不能保证每台服务器性能均相近。如果我们将等量的请求分配给性能较差的服务器,这显然是不合理的。因此,这个时候我们需要加权轮询算法,对轮询过程进行干预,使得性能好的服务器可以得到更多的请求,性能差的得到的少一些。每台服务器能够得到的请求数比例,接近或等于他们的权重比。比如服务器 A、B、C 权重比为 5:2:1。那么在8次请求中,服务器 A 将获取到其中的5次请求,服务器 B 获取到其中的2次请求,服务器 C 则获取到其中的1次请求。
以上就是加权轮询的算法思想,搞懂了这个思想,接下来我们就可以分析源码了。我们先来看一下 2.6.4 版本的 RoundRobinLoadBalance。
public class RoundRobinLoadBalance extends AbstractLoadBalance { public static final String NAME = "roundrobin"; private final ConcurrentMap<String, AtomicPositiveInteger> sequences = new ConcurrentHashMap<String, AtomicPositiveInteger>(); @Override protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) { // key = 全限定类名 + "." + 方法名,比如 com.xxx.DemoService.sayHello String key = invokers.get(0).getUrl().getServiceKey() + "." + invocation.getMethodName(); int length = invokers.size(); // 最大权重 int maxWeight = 0; // 最小权重 int minWeight = Integer.MAX_VALUE; final LinkedHashMap<Invoker<T>, IntegerWrapper> invokerToWeightMap = new LinkedHashMap<Invoker<T>, IntegerWrapper>(); // 权重总和 int weightSum = 0; // 下面这个循环主要用于查找最大和最小权重,计算权重总和等 for (int i = 0; i < length; i++) { int weight = getWeight(invokers.get(i), invocation); // 获取最大和最小权重 maxWeight = Math.max(maxWeight, weight); minWeight = Math.min(minWeight, weight); if (weight > 0) { // 将 weight 封装到 IntegerWrapper 中 invokerToWeightMap.put(invokers.get(i), new IntegerWrapper(weight)); // 累加权重 weightSum += weight; } } // 查找 key 对应的对应 AtomicPositiveInteger 实例,为空则创建。 // 这里可以把 AtomicPositiveInteger 看成一个黑盒,大家只要知道 // AtomicPositiveInteger 用于记录服务的调用编号即可。至于细节, // 大家如果感兴趣,可以自行分析 AtomicPositiveInteger sequence = sequences.get(key); if (sequence == null) { sequences.putIfAbsent(key, new AtomicPositiveInteger()); sequence = sequences.get(key); } // 获取当前的调用编号 int currentSequence = sequence.getAndIncrement(); // 如果 最小权重 < 最大权重,表明服务提供者之间的权重是不相等的 if (maxWeight > 0 && minWeight < maxWeight) { // 使用调用编号对权重总和进行取余操作 int mod = currentSequence % weightSum; // 进行 maxWeight 次遍历 for (int i = 0; i < maxWeight; i++) { // 遍历 invokerToWeightMap for (Map.Entry<Invoker<T>, IntegerWrapper> each : invokerToWeightMap.entrySet()) { // 获取 Invoker final Invoker<T> k = each.getKey(); // 获取权重包装类 IntegerWrapper final IntegerWrapper v = each.getValue(); // 如果 mod = 0,且权重大于0,此时返回相应的 Invoker if (mod == 0 && v.getValue() > 0) { return k; } // mod != 0,且权重大于0,此时对权重和 mod 分别进行自减操作 if (v.getValue() > 0) { v.decrement(); mod--; } } } } // 服务提供者之间的权重相等,此时通过轮询选择 Invoker return invokers.get(currentSequence % length); } // IntegerWrapper 是一个 int 包装类,主要包含了一个自减方法。 // 与 Integer 不同,Integer 是不可变类,而 IntegerWrapper 是可变类 private static final class IntegerWrapper { private int value; public void decrement() { this.value--; } // 省略部分代码 } }
如上,RoundRobinLoadBalance 的每行代码都不是很难理解,但是将它们组合到一起之后,好像就看不懂了。这里对上面代码的主要逻辑进行总结,如下::
以上过程对应的原理不太好解释,所以下面直接举例说明把。假设我们有三台服务器 servers = [A, B, C],对应的权重为 weights = [2, 5, 1]。接下来对上面的逻辑进行简单的模拟。
mod = 0:满足条件,此时直接返回服务器 A
mod = 1:需要进行一次递减操作才能满足条件,此时返回服务器 B
mod = 2:需要进行两次递减操作才能满足条件,此时返回服务器 C
mod = 3:需要进行三次递减操作才能满足条件,经过递减后,服务器权重为 [1, 4, 0],此时返回服务器 A
mod = 4:需要进行四次递减操作才能满足条件,经过递减后,服务器权重为 [0, 4, 0],此时返回服务器 B
mod = 5:需要进行五次递减操作才能满足条件,经过递减后,服务器权重为 [0, 3, 0],此时返回服务器 B
mod = 6:需要进行六次递减操作才能满足条件,经过递减后,服务器权重为 [0, 2, 0],此时返回服务器 B
mod = 7:需要进行七次递减操作才能满足条件,经过递减后,服务器权重为 [0, 1, 0],此时返回服务器 B
经过8次调用后,我们得到的负载均衡结果为 [A, B, C, A, B, B, B, B],次数比 A:B:C = 2:5:1,等于权重比。当 sequence = 8 时,mod = 0,此时重头再来。从上面的模拟过程可以看出,当 mod >= 3 后,服务器 C 就不会被选中了,因为它的权重被减为0了。当 mod >= 4 后,服务器 A 的权重被减为0,此后 A 就不会再被选中。
以上是 2.6.4 版本的 RoundRobinLoadBalance 分析过程,大家如果看不懂,自己可以定义一些权重组合进行模拟。也可以写点测试用例,进行调试分析,总之不要死看。
2.6.4 版本的 RoundRobinLoadBalance 存在着比较严重的性能问题,该问题最初是在 issue #2578 中被反馈出来。问题出在了 Invoker 的返回时机上,RoundRobinLoadBalance 需要在 mod == 0 && v.getValue() > 0
条件成立的情况下才会被返回相应的 Invoker。假如 mod 很大,比如 10000,50000,甚至更大时,doSelect 方法需要进行很多次计算才能将 mod 减为0。由此可知,doSelect 的效率与 mod 有关,时间复杂度为 O(mod)。mod 又受最大权重 maxWeight 的影响,因此当某个服务提供者配置了非常大的权重,此时 RoundRobinLoadBalance 会产生比较严重的性能问题。这个问题被反馈后,社区很快做了回应。并对 RoundRobinLoadBalance 的代码进行了重构,将时间复杂度优化至了常量级别。这个优化可以说很好了,下面我们来学习一下优化后的代码。
public class RoundRobinLoadBalance extends AbstractLoadBalance { public static final String NAME = "roundrobin"; private final ConcurrentMap<String, AtomicPositiveInteger> sequences = new ConcurrentHashMap<String, AtomicPositiveInteger>(); private final ConcurrentMap<String, AtomicPositiveInteger> indexSeqs = new ConcurrentHashMap<String, AtomicPositiveInteger>(); @Override protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) { String key = invokers.get(0).getUrl().getServiceKey() + "." + invocation.getMethodName(); int length = invokers.size(); int maxWeight = 0; int minWeight = Integer.MAX_VALUE; final List<Invoker<T>> invokerToWeightList = new ArrayList<>(); // 查找最大和最小权重 for (int i = 0; i < length; i++) { int weight = getWeight(invokers.get(i), invocation); maxWeight = Math.max(maxWeight, weight); minWeight = Math.min(minWeight, weight); if (weight > 0) { invokerToWeightList.add(invokers.get(i)); } } // 获取当前服务对应的调用序列对象 AtomicPositiveInteger AtomicPositiveInteger sequence = sequences.get(key); if (sequence == null) { // 创建 AtomicPositiveInteger,默认值为0 sequences.putIfAbsent(key, new AtomicPositiveInteger()); sequence = sequences.get(key); } // 获取下标序列对象 AtomicPositiveInteger AtomicPositiveInteger indexSeq = indexSeqs.get(key); if (indexSeq == null) { // 创建 AtomicPositiveInteger,默认值为 -1 indexSeqs.putIfAbsent(key, new AtomicPositiveInteger(-1)); indexSeq = indexSeqs.get(key); } if (maxWeight > 0 && minWeight < maxWeight) { length = invokerToWeightList.size(); while (true) { int index = indexSeq.incrementAndGet() % length; int currentWeight = sequence.get() % maxWeight; // 每循环一轮(index = 0),重新计算 currentWeight if (index == 0) { currentWeight = sequence.incrementAndGet() % maxWeight; } // 检测 Invoker 的权重是否大于 currentWeight,大于则返回 if (getWeight(invokerToWeightList.get(index), invocation) > currentWeight) { return invokerToWeightList.get(index); } } } // 所有 Invoker 权重相等,此时进行普通的轮询即可 return invokers.get(sequence.incrementAndGet() % length); } }
上面代码的逻辑是这样的,每进行一轮循环,重新计算 currentWeight。如果当前 Invoker 权重大于 currentWeight,则返回该 Invoker。还是举例说明吧,假设服务器 [A, B, C] 对应权重 [5, 2, 1]。
第一轮循环,currentWeight = 1,可返回 A 和 B
第二轮循环,currentWeight = 2,返回 A
第三轮循环,currentWeight = 3,返回 A
第四轮循环,currentWeight = 4,返回 A
第五轮循环,currentWeight = 0,返回 A, B, C
如上,这里的一轮循环是指 index 再次变为0所经历过的循环,这里可以把 index = 0 看做是一轮循环的开始。每一轮循环的次数与 Invoker 的数量有关,Invoker 数量通常不会太多,所以我们可以认为上面代码的时间复杂度为常数级。
重构后的 RoundRobinLoadBalance 看起来已经很不错了,但是在代码更新不久后,很有又被被重构了。这次重构原因是新的 RoundRobinLoadBalance 在某些情况下选出的服务器序列不够均匀。比如,服务器 [A, B, C] 对应权重 [5, 1, 1]。现在进行7次负载均衡,选择出来的序列为 [A, A, A, A, A, B, C]。前5个请求全部都落在了服务器 A上,分布不够均匀。这将会使服务器 A 短时间内接收大量的请求,压力陡增。而 B 和 C 无请求,处于空闲状态。我们期望的结果是这样的 [A, A, B, A, C, A, A],不同服务器可以穿插获取请求。为了增加负载均衡结果的平滑性,社区再次对 RoundRobinLoadBalance 的实现进行了重构。这次重构参考自 Nginx 的平滑加权轮询负载均衡,实现原理是这样的。每个服务器对应两个权重,分别为 weight 和 currentWeight。其中 weight 是固定的,currentWeight 是会动态调整,初始值为0。当有新的请求进来时,遍历服务器列表,让它的 currentWeight 加上自身权重。遍历完成后,找到最大的 currentWeight,并将其减去权重总和,然后返回相应的服务器即可。
上面描述不是很好理解,下面还是举例说明吧。仍然使用服务器 [A, B, C] 对应权重 [5, 1, 1] 的例子进行说明,现在有7个请求依次进入负载均衡逻辑,选择过程如下:
请求编号 | currentWeight 数组 | 选择结果 | 减去权重总和后的 currentWeight 数组 |
---|---|---|---|
1 | [5, 1, 1] | A | [-2, 1, 1] |
2 | [3, 2, 2] | A | [-4, 2, 2] |
3 | [1, 3, 3] | B | [1, -4, 3] |
4 | [6, -3, 4] | A | [-1, -3, 4] |
5 | [4, -2, 5] | C | [4, -2, -2] |
6 | [9, -1, -1] | A | [2, -1, -1] |
7 | [7, 0, 0] | A | [0, 0, 0] |
如上,经过平滑性处理后,得到的服务器序列为 [A, A, B, A, C, A, A],相比之前的序列 [A, A, A, A, A, B, C],分布性要好一些。初始情况下 currentWeight = [0, 0, 0],第7个请求处理完后,currentWeight 再次变为 [0, 0, 0],是不是很神奇。这个结果也不难理解,在7次计算过程中,每个服务器的 currentWeight 都增加了自身权重 weight * 7,得到 currentWeight = [35, 7, 7],A 被选中5次,要被减去 5 * 7。B 和 C 被选中1次,要被减去 1 * 7。于是 currentWeight = [35, 7, 7] - [35, 7, 7] = [0, 0, 0]。
以上就是平滑加权轮询的计算过程,现在大家应该对平滑加权轮询算法了有了一些了解。接下来,我们来看看 Dubbo-2.6.5 是如何实现上面的计算过程的。
public class RoundRobinLoadBalance extends AbstractLoadBalance { public static final String NAME = "roundrobin"; private static int RECYCLE_PERIOD = 60000; protected static class WeightedRoundRobin { // 服务提供者权重 private int weight; // 当前权重 private AtomicLong current = new AtomicLong(0); // 最后一次更新时间 private long lastUpdate; public void setWeight(int weight) { this.weight = weight; // 初始情况下,current = 0 current.set(0); } public long increaseCurrent() { // current = current + weight; return current.addAndGet(weight); } public void sel(int total) { // current = current - total; current.addAndGet(-1 * total); } } // 嵌套 Map 结构,存储的数据结构示例如下: // { // "UserService.query": { // "url1": WeightedRoundRobin@123, // "url2": WeightedRoundRobin@456, // }, // "UserService.update": { // "url1": WeightedRoundRobin@123, // "url2": WeightedRoundRobin@456, // } // } // 最外层为服务类名 + 方法名,第二层为 url 到 WeightedRoundRobin 的映射关系。 // 这里我们可以将 url 看成是服务提供者的 id private ConcurrentMap<String, ConcurrentMap<String, WeightedRoundRobin>> methodWeightMap = new ConcurrentHashMap<String, ConcurrentMap<String, WeightedRoundRobin>>(); // 原子更新锁 private AtomicBoolean updateLock = new AtomicBoolean(); @Override protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) { String key = invokers.get(0).getUrl().getServiceKey() + "." + invocation.getMethodName(); // 获取 url 到 WeightedRoundRobin 映射表,如果为空,则创建一个新的 ConcurrentMap<String, WeightedRoundRobin> map = methodWeightMap.get(key); if (map == null) { methodWeightMap.putIfAbsent(key, new ConcurrentHashMap<String, WeightedRoundRobin>()); map = methodWeightMap.get(key); } int totalWeight = 0; long maxCurrent = Long.MIN_VALUE; // 获取当前时间 long now = System.currentTimeMillis(); Invoker<T> selectedInvoker = null; WeightedRoundRobin selectedWRR = null; // 下面这个循环主要做了这样几件事情: // 1. 遍历 Invoker 列表,检测当前 Invoker 是否有 // 对应的 WeightedRoundRobin,没有则创建 // 2. 检测 Invoker 权重是否发生了变化,若变化了, // 则更新 WeightedRoundRobin 的 weight 字段 // 3. 让 current 字段加上自身权重,等价于 current += weight // 4. 设置 lastUpdate 字段,即 lastUpdate = now // 5. 寻找具有最大 current 的 Invoker 以及 WeightedRoundRobin, // 暂存起来,留作后用 // 6. 计算权重总和 for (Invoker<T> invoker : invokers) { String identifyString = invoker.getUrl().toIdentityString(); WeightedRoundRobin weightedRoundRobin = map.get(identifyString); int weight = getWeight(invoker, invocation); if (weight < 0) { weight = 0; } // 检测当前 Invoker 是否有对应的 WeightedRoundRobin,没有则创建 if (weightedRoundRobin == null) { weightedRoundRobin = new WeightedRoundRobin(); // 设置 Invoker 权重 weightedRoundRobin.setWeight(weight); // 存储 url 唯一标识 identifyString 到 weightedRoundRobin 的映射关系 map.putIfAbsent(identifyString, weightedRoundRobin); weightedRoundRobin = map.get(identifyString); } // Invoker 权重不等于 WeightedRoundRobin 中保存的权重,说明权重变化了,此时进行更新 if (weight != weightedRoundRobin.getWeight()) { weightedRoundRobin.setWeight(weight); } // 让 current 加上自身权重,等价于 current += weight long cur = weightedRoundRobin.increaseCurrent(); // 设置 lastUpdate,表示近期更新过 weightedRoundRobin.setLastUpdate(now); // 找出最大的 current if (cur > maxCurrent) { maxCurrent = cur; // 将具有最大 current 权重的 Invoker 赋值给 selectedInvoker selectedInvoker = invoker; // 将 Invoker 对应的 weightedRoundRobin 赋值给 selectedWRR,留作后用 selectedWRR = weightedRoundRobin; } // 计算权重总和 totalWeight += weight; } // 对 <identifyString, WeightedRoundRobin> 进行检查,过滤掉长时间未被更新的节点。 // 该节点可能挂了,invokers 中不包含该节点,所以该节点的 lastUpdate 长时间无法被更新。 // 若未更新时长超过阈值后,就会被移除掉,默认阈值为60秒。 if (!updateLock.get() && invokers.size() != map.size()) { if (updateLock.compareAndSet(false, true)) { try { ConcurrentMap<String, WeightedRoundRobin> newMap = new ConcurrentHashMap<String, WeightedRoundRobin>(); // 拷贝 newMap.putAll(map); // 遍历修改,也就是移除过期记录 Iterator<Entry<String, WeightedRoundRobin>> it = newMap.entrySet().iterator(); while (it.hasNext()) { Entry<String, WeightedRoundRobin> item = it.next(); if (now - item.getValue().getLastUpdate() > RECYCLE_PERIOD) { it.remove(); } } // 更新引用 methodWeightMap.put(key, newMap); } finally { updateLock.set(false); } } } if (selectedInvoker != null) { // 让 current 减去权重总和,等价于 current -= totalWeight selectedWRR.sel(totalWeight); // 返回具有最大 current 的 Invoker return selectedInvoker; } // should not happen here return invokers.get(0); } }
以上就是 Dubbo-2.6.5 版本的 RoundRobinLoadBalance,大家如果能够理解平滑加权轮询算法的计算过程,再配合我写的注释,理解上面的代码应该不难。
以上就是关于 RoundRobinLoadBalance 全部的分析,内容有点多,大家慢慢消化吧。好了,本节先到这。
本篇文章对 Dubbo 中的几种负载均衡实现进行了详细的分析,总的来说,这篇文章写的还是有点累的。主要是每介绍一种负载均衡实现,就要介绍一下相关背景。另一方面,这里很多东西对于我来说,也完全是新的。在此之前,我对负载均衡算法并没太多了解。这篇文章基本上是边学边写的,总共耗时5天。本来想简单写写算了,但最后还是决定写详细点。好在,现在写完了,我也可以放松一下了。
本篇文章是我的 Dubbo 源码分析系列文章关于集群容错部分的最后一篇文章,写完感觉学到了很多东西。通过坚持不懈的阅读代码,写技术文章,使得我对 Dubbo 有了更深入的了解。本篇文章之后,我将分析服务消费者调用服务提供者的过程,感兴趣的同学可以关注一下。
好了,本篇文章到这里就结束了。感谢大家的阅读。
时间 | 文章 |
---|---|
2018-10-01 | Dubbo 源码分析 - SPI 机制 |
2018-10-13 | Dubbo 源码分析 - 自适应拓展原理 |
2018-10-31 | Dubbo 源码分析 - 服务导出 |
2018-11-12 | Dubbo 源码分析 - 服务引用 |
2018-11-17 | Dubbo 源码分析 - 集群容错之 Directory |
2018-11-20 | Dubbo 源码分析 - 集群容错之 Router |
2018-11-24 | Dubbo 源码分析 - 集群容错之 Cluster |
2018-11-29 | Dubbo 源码分析 - 集群容错之 LoadBalance |