通过上一篇 《分布式服务跟踪(整合logstash)》 ,我们虽然已经能够利用ELK平台提供的收集、存储、搜索等强大功能,对跟踪信息的管理和使用已经变得非常便利。但是,在ELK平台中的数据分析维度缺少对请求链路中各阶段时间延迟的关注,很多时候我们追溯请求链路的一个原因是为了找出整个调用链路中出现延迟过高的瓶颈源,亦或是为了实现对分布式系统做延迟监控等与时间消耗相关的需求,这时候类似ELK这样的日志分析系统就显得有些乏力了。对于这样的问题,我们就可以引入Zipkin来得以轻松解决。
Zipkin是Twitter的一个开源项目,它基于Google Dapper实现。我们可以使用它来收集各个服务器上请求链路的跟踪数据,并通过它提供的REST API接口来辅助我们查询跟踪数据以实现对分布式系统的监控程序,从而及时地发现系统中出现的延迟升高问题并找出系统性能瓶颈的根源。除了面向开发的API接口之外,它也提供了方便的UI组件来帮助我们直观的搜索跟踪信息和分析请求链路明细,比如:可以查询某段时间内各用户请求的处理时间等。
上图展示了Zipkin的基础架构,它主要有4个核心组件构成:
在Spring Cloud Sleuth中对Zipkin的整合进行了自动化配置的封装,所以我们可以很轻松的引入和使用它,下面我们来详细介绍一下Sleuth与Zipkin的基础整合过程。主要分为两步:
创建一个基础的Spring Boot应用,命名为 zipkin-server
,并在 pom.xml
中引入Zipkin Server的相关依赖,具体如下:
<parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>1.3.7.RELEASE</version> <relativePath/> </parent> <dependencies> <dependency> <groupId>io.zipkin.java</groupId> <artifactId>zipkin-server</artifactId> </dependency> <dependency> <groupId>io.zipkin.java</groupId> <artifactId>zipkin-autoconfigure-ui</artifactId> </dependency> </dependencies> <dependencyManagement> <dependencies> <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-dependencies</artifactId> <version>Brixton.SR5</version> <type>pom</type> <scope>import</scope> </dependency> </dependencies> </dependencyManagement>
创建应用主类 ZipkinApplication
,使用 @EnableZipkinServer
注解来启动Zipkin Server,具体如下:
@EnableZipkinServer @SpringBootApplication public class ZipkinApplication { public static void main(String[] args) { SpringApplication.run(ZipkinApplication.class, args); } }
application.properties
中做一些简单配置,比如:设置服务端口号为 9411
(客户端整合时候,自动化配置会连接 9411
端口,所以在服务端设置了端口为 9411
的话,客户端可以省去这个配置)。 spring.application.name=zipkin-server server.port=9411
创建完上述工程之后,我们将其启动起来,并访问 http://localhost:9411/
,我们可以看到如下图所示的Zipkin管理页面:
在完成了Zipkin Server的搭建之后,我们还需要对应用做一些配置,以实现将跟踪信息输出到Zipkin Server。我们以之前实现的 trace-1
和 trace-2
为例,对它们做以下改造内容:
trace-1
和 trace-2
的 pom.xml
中引入 spring-cloud-sleuth-zipkin
依赖,具体如下所示。 <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-sleuth-zipkin</artifactId> </dependency>
trace-1
和 trace-2
的 application.properties
中增加Zipkin Server的配置信息,具体如下所示(如果在 zip-server
应用中,我们将其端口设置为 9411
,并且均在本地调试的话,该参数也可以不配置,因为默认值就是 http://localhost:9411
)。 spring.zipkin.base-url=http://localhost:9411
到这里我们已经完成了接入Zipkin Server的所有基本工作,我们可以继续将 eureka-server
、 trace-1
和 trace-2
启动起来,然后我们做一些测试实验,以对它的运行机制有一些初步的理解。
我们先来向 trace-1
的接口发送几个请求: http://localhost:9101/trace-1
,当我们在日志中出现跟踪信息的最后一个值为 true
的时候,说明该跟踪信息会输出给Zipkin Server,所以此时我们可以去Zipkin Server的管理页面中选择合适的查询条件后,点击 Find Traces
,就可以查询出刚才在日志中出现的跟踪信息了(也可以根据日志中的Trace ID,在页面的右上角输入框中来搜索),具体如下页面所示:
点击下方 trace-1
端点的跟踪信息,我们还可以得到Sleuth收集到的跟踪到详细信息,其中包括了我们关注的请求时间消耗等。
点击导航栏中的 Dependencies
菜单,我们还可以查看Zipkin Server根据跟踪信息分析生成的系统请求链路依赖关系图:
Spring Cloud Sleuth在整合Zipkin时,不仅实现了以HTTP的方式收集跟踪信息,还实现了通过消息中间件来对跟踪信息进行异步收集的封装。通过结合Spring Cloud Stream,我们可以非常轻松的让应用客户端将跟踪信息输出到消息中间件上,同时Zipkin服务端从消息中间件上异步地消费这些跟踪信息。
接下来,我们基于之前实现的 trace-1
和 trace-2
应用以及 zipkin-server
服务端做一些改造,以实现通过消息中间件来收集跟踪信息。改造的内容非常简单,只需要我们做项目依赖和配置文件做一些调整就能马上实现,下面我们分别对客户端和服务端的改造内容做详细说明:
trace-1
和 trace-2
trace-1
和 trace-2
在产生跟踪信息之后,能够将抽样记录输出到消息中间件中,我们除了需要之前引入的 spring-cloud-starter-sleuth
依赖之外,还需要引入zipkin对Spring Cloud Stream的扩展依赖 spring-cloud-sleuth-stream
以及基于Spring Cloud Stream实现的消息中间件绑定器依赖,以使用RabbitMQ为例,我们可以加入如下依赖: <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-sleuth-stream</artifactId> </dependency> <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-stream-rabbit</artifactId> </dependency>
application.properties
配置中去掉HTTP方式实现时使用的 spring.zipkin.base-url
参数,并根据实际部署情况,增加消息中间件的相关配置,比如下面这些关于RabbitMQ的配置信息: spring.rabbitmq.host=localhost spring.rabbitmq.port=5672 spring.rabbitmq.username=springcloud spring.rabbitmq.password=123456
zipkin-server
服务端 为了让 zipkin-server
服务端能够从消息中间件中获取跟踪信息,我们只需要在 pom.xml
中引入针对消息中间件收集封装的服务端依赖 spring-cloud-sleuth-zipkin-stream
,同时为了支持具体使用的消息中间件,我们还需要引入针对消息中间件的绑定器实现,比如以使用RabbitMQ为例,我们可以在依赖中增加如下内容:
<dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-sleuth-zipkin-stream</artifactId> </dependency> <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-stream-rabbit</artifactId> </dependency> <dependency> <groupId>io.zipkin.java</groupId> <artifactId>zipkin-autoconfigure-ui</artifactId> </dependency>
其中, spring-cloud-sleuth-zipkin-stream
依赖是实现从消息中间件收集跟踪信息的核心封装,其中包含了用于整合消息中间件的核心依赖、zipkin服务端的核心依赖、以及一些其他通常会被使用的依赖(比如:用于扩展数据存储的依赖、用于支持测试的依赖等)。但是,需要注意的是这个包里并没有引入 zipkin
的前端依赖 zipkin-autoconfigure-ui
,为了方便使用,我们在这里也引用了它。
在完成了上述改造内容之后,我们继续将 eureka-server
、 trace-1
和 trace-2
、 zipkin-server
都启动起来,同时确保RabbitMQ也处于运行状态。此时,我们可以在RabbitMQ的控制页面中看到一个名为 sleuth
的交换器,它就是zipkin的消息中间件收集器实现使用的默认主题。
最后,我们使用之前的验证方法,通过向 trace-1
的接口发送几个请求: http://localhost:9101/trace-1
,当有被抽样收集的跟踪信息时(调试时我们可以设置 AlwaysSampler
抽样机制来让每个跟踪信息都被收集),我们可以在RabbitMQ的控制页面中发现有消息被发送到了 sleuth
交换器中,同时我们再到zipkin服务端的Web页面中也能够搜索到相应的跟踪信息,那么我们使用消息中间件来收集跟踪信息的任务到这里就完成了。
读者可以根据喜好选择下面的两个仓库中查看 trace-1
和 trace-2
两个项目:
本文内容部分节选自我的《Spring Cloud微服务实战》,但对依赖的Spring Boot和Spring Cloud版本做了升级。