点击上方 石杉的架构笔记 ,右上角选择“ 设为星标 ”
每日早8点半,技术文章准时送上
公众号后台回复“ 学习 ”,获取作者独家秘制精品资料
往期文章
BAT 面试官是如何360°无死角考察候选人的(上篇)
每秒上万并发下的Spring Cloud参数优化实战
分布式事务如何保障实际生产中99.99%高可用
记一位朋友斩获 BAT 技术专家Offer的面试经历
亿级流量架构系列之如何支撑百亿级数据的存储与计算
之前在 Java-Interview 中提到过秒杀架构的设计,这次基于其中的理论简单实现了一下。
本次采用循序渐进的方式逐步提高性能达到并发秒杀的效果,文章较长,请准备好瓜子板凳^_^
本文所有涉及的代码:
https://github.com/crossoverJie/SSM
https://github.com/crossoverJie/distributed-redis-tool
首先来看看最终架构图:
先简单根据这个图谈下请求的流转,因为后面不管怎么改进这个都是没有变的。
前端请求进入 web
层,对应的代码就是 controller
之后将真正的库存校验、下单等请求发往 Service
层(其中 RPC 调用依然采用的 dubbo
,只是更新为最新版本,本次不会过多讨论 dubbo 相关的细节,有兴趣的可以查看 基于dubbo 的分布式架构)
Service
层再对数据进行落地,下单完成
其实抛开秒杀这个场景来说正常的一个下单流程可以简单分为以下几步:
校验库存
扣库存
创建订单
支付
基于上文的架构所以我们有了以下实现:
先看看实际项目的结构:
还是和以前一样:
提供出一个 API
用于 Service
层实现,以及 web
层消费。
web 层简单来说就是一个 SpringMVC
。
Service
层则是真正的数据落地。
SSM-SECONDS-KILL-ORDER-CONSUMER
则是后文会提到的 Kafka
消费。
数据库也是只有简单的两张表模拟下单:
web 层 controller
实现:
其中 web 作为一个消费者调用看 OrderService
提供出来的 dubbo 服务。
Service 层, OrderService
实现:
首先是对 API 的实现(会在 API 提供出接口):
这里只是简单调用了 DBOrderService
中的实现,DBOrderService 才是真正的数据落地,也就是写数据库了。
DBOrderService 实现:
预先初始化了 10 条库存。
手动调用下 createWrongOrder/1
接口发现:
库存表:
订单表:
一切看起来都没有问题,数据也正常。 但是当用 JMeter
并发测试时:
测试配置是:300个线程并发,测试两轮来看看数据库中的结果:
请求都响应成功,库存确实也扣完了,但是订单却生成了 124 条记录。 这显然是典型的超卖现象。
其实现在再去手动调用接口会返回库存不足,但为时晚矣。
怎么来避免上述的现象呢? 最简单的做法自然是乐观锁了, 来看看具体实现:
其实其他的都没怎么改,主要是 Service 层。
对应的 XML:
同样的测试条件,我们再进行上面的测试 /createOptimisticOrder/1
:
这次发现无论是库存订单都是 OK 的。
查看日志发现:
很多并发请求会响应错误,这就达到了效果。
为了进一步提高秒杀时的吞吐量以及响应效率,这里的 web 和 Service 都进行了横向扩展。
web 利用 Nginx 进行负载。
Service 也是多台应用。
再用 JMeter 测试时可以直观的看到效果。
由于我是在阿里云的一台小水管服务器进行测试的,加上配置不高、应用都在同一台,所以并没有完全体现出性能上的优势( Nginx
做负载转发时候也会增加额外的网络消耗)。
由于应用多台部署之后,手动发版测试的痛苦相信经历过的都有体会。
这次并没有精力去搭建完整的 CI CD,只是写了一个简单的脚本实现了自动化部署,希望对这方面没有经验的同学带来一点启发:
之后每当我有更新,只需要执行这两个脚本就可以帮我自动构建。 都是最基础的 Linux 命令,相信大家都看得明白。
上文的结果看似没有问题,其实还差得远呢。 这里只是模拟了 300 个并发没有问题,但是当请求达到了 3000 ,3W,300W 呢?
虽说可以横向扩展可以支撑更多的请求, 但是能不能利用最少的资源解决问题呢? 其实仔细分析下会发现:
假设我的商品一共只有 10 个库存,那么无论你多少人来买其实最终也最多只有 10 人可以下单成功。
所以其中会有 99%
的请求都是无效的。
大家都知道:大多数应用数据库都是压倒骆驼的最后一根稻草。 通过 Druid
的监控来看看之前请求数据库的情况:
因为 Service 是两个应用。
数据库也有 20 多个连接。
怎么样来优化呢? 其实很容易想到的就是分布式限流。 我们将并发控制在一个可控的范围之内,然后快速失败这样就能最大程度的保护系统。
为此还对 https://github.com/crossoverJie/distributed-redis-tool 进行了小小的升级。
因为加上该组件之后所有的请求都会经过 Redis,所以对 Redis 资源的使用也是要非常小心。
修改之后的 API 如下:
这里构建器改用了 JedisConnectionFactory
,所以得配合 Spring 来一起使用。
并在初始化时显示传入 Redis 是以集群方式部署还是单机(强烈建议集群,限流之后对 Redis 还是有一定的压力)。
既然 API 更新了,实现自然也要修改:
如果是原生的 Spring 应用得采用 @SpringControllerLimit(errorCode=200)
注解。
实际使用如下, web 端:
Service 端就没什么更新了,依然是采用的乐观锁更新数据库。
再压测看下效果 /createOptimisticLimitOrderByRedis/1
:
首先是看结果没有问题,再看数据库连接以及并发请求数都有 明显的下降 。
其实仔细观察 Druid 监控数据发现这个 SQL 被多次查询:
其实这是实时查询库存的 SQL,主要是为了在每次下单之前判断是否还有库存。
这种数据我们完全可以放在内存中,效率比在数据库要高很多。
由于我们的应用是分布式的,所以堆内缓存显然不合适,Redis 就非常适合。
这次主要改造的是 Service 层:
每次查询库存时走 Redis。
扣库存时更新 Redis。
需要提前将库存信息写入 Redis(手动或者程序自动都可以)。
主要代码如下:
压测看看实际效果 /createOptimisticLimitOrderByRedis/1
:
最后发现数据没问题,数据库的请求与并发也都下来了。
最后的优化还是想如何来再次提高吞吐量以及性能的。 我们上文所有例子其实都是同步请求,完全可以利用同步转异步来提高性能啊。
这里我们将写订单以及更新库存的操作进行异步化,利用 Kafka
来进行解耦和队列的作用。
每当一个请求通过了限流到达了 Service 层通过了库存校验之后就将订单信息发给 Kafka ,这样一个请求就可以直接返回了。
消费程序再对数据进行入库落地。 因为异步了,所以最终需要采取回调或者是其他提醒的方式提醒用户购买完成。
这里代码较多就不贴了,消费程序其实就是把之前的 Service 层的逻辑重写了一遍,不过采用的是 SpringBoot。
感兴趣的朋友可以看下:
https://github.com/crossoverJie/SSM/tree/master/SSM-SECONDS-KILL/SSM-SECONDS-KILL-ORDER-CONSUMER
其实经过上面的一顿优化总结起来无非就是以下几点:
尽量将请求拦截在上游。
还可以根据 UID 进行限流。
最大程度的减少请求落到 DB。
多利用缓存。
同步操作异步化。
fail fast,尽早失败,保护应用。
码字不易,这应该是我写过字数最多的了,想想当年高中 800 字的作文都憋不出来:joy:,可想而知是有多难得了。
END
推荐阅读:
简历写了会Kafka,面试官90%会让你讲讲acks参数对消息持久化的影响!
面试最让你手足无措的一个问题:你的系统如何支撑高并发?
Java高阶必备:如何优化Spring Cloud微服务注册中心架构?
高并发场景下,如何保证生产者投递到消息中间件的消息不丢失?
从团队自研的百万并发中间件系统的内核设计看Java并发性能优化!
如果20万用户同时访问一个热点缓存,如何优化你的缓冲架构?
更多文章:
2018年原创汇总
2019年原创汇总(持续更新)
爆款推荐
面试专栏
欢迎长按下图关注公众号 石杉的架构笔记 ,后台回复“ 学习 ”,获取作者独家秘制精品资料
BAT架构经验倾囊相授