转载

深入浅出Java分布式系统通信

什么是分布式系统

之前我有篇文章已经简单介绍了分布式通信,有兴趣的朋友可以去看看:

大型网站系统架构实践(二)分布式模块之间的通信

那么今天我详细的说下我对java分布式系统通信的理解

1.集群模式,将相同应用模块部署多份

2.业务拆分模式,将业务拆分成多个模块,并分别部署

3.存储分布式

由于分布式概念太大,我们可以缩小下讨论的范围:

以下分布式的狭义定义为:

业务拆分,但不限于水平拆分,而是拆分出底层模块,功能模块,上层模块等等

一个系统功能繁多,且有层次依赖,那么我们需要将其分为很多模块,并分别部署 。

举例:

比如我们现在开发一个类似于钱包的系统,那么它会有如下功能模块:用户模块(用户数据),

应用模块(如手机充值等),业务模块(处理核心业务),交易模块(与银行发生交易),

前置模块(与客户端通信) 等等

我们会得到一个系统架构图:

深入浅出Java分布式系统通信

为什么要分布式

1) 将系统功能模块化,且部署在不同的地方,对于底层模块,只要保持接口不变,

上层系统调用底层模块将不关心其具体实现,且底层模块做内部逻辑变更,上层系统

都不需要再做发布,可以极大限度的解耦合

2) 解耦合之后,可以复用共同的功能,且业务扩展更为方便,加快开发和发布的速度

3) 系统分开部署,充分利用硬件,可以提高系统性能

4) 减少数据库连接资源的消耗

分布式通信方案

场景:服务端与服务端的通信

方案1:基于socket短连接

方案2:基于socket长连接同步通信

方案3:基于socket长连接异步通信

tcp短连接通信方案

定义:

短连接:http短连接,或者socket短连接,是指每次客户端和服务端通信的时候,都要新

建立一个socket连接,本次通信完毕后,立即关闭该连接,也就是说每次通信都需要开启一个新的连接 。

传输图如下:

深入浅出Java分布式系统通信

io通信用mina实现

客户端示例代码:

NioSocketConnector connector = new NioSocketConnector(); connector.setConnectTimeoutMillis(CONNECT_TIMEOUT); //设置读缓冲,传输的内容必须小于此缓冲 connector.getSessionConfig().setReadBufferSize(2048*2048); //设置编码解码器 connector.getFilterChain().addLast("codec", new ProtocolCodecFilter(new ObjectSerializationCodecFactory())); //设置日志过滤器 connector.getFilterChain().addLast("logger", new LoggingFilter()); //设置Handler connector.setHandler(new MyClientHandler()); //获取连接,该方法为异步执行 ConnectFuture future = connector.connect(new InetSocketAddress(  HOSTNAME, PORT)); //等待连接建立 future.awaitUninterruptibly(); //获取session IoSession session = future.getSession(); //等待session关闭 session.getCloseFuture().awaitUninterruptibly(); //释放connector connector.dispose(); 

下面我们进行性能测试:

测试场景:

每个请求的业务处理时间110ms

100个线程并发测试,每个线程循环请求服务端

测试环境:

客户端服务器:

Cpu为4线程 2400mhz

服务端cpu: 4线程 3000Mhz

测试结果:

在经过10分钟测试之后,稳定情况下的tps

Tps:554左右

客户端Cpu:30%

服务端cpu:230%

该方案的优点:

程序实现起来简单

该方案的 缺点:

1. Socket发送消息时,需要先发送至socket缓冲区,因此系统为每个socket分配缓冲区

当缓冲不足时,就达到了最大连接数的限制

2. 连接数大,也就意味着系统内核调用的越多,socket的accept和close调用

3.每次通信都重新开启新的tcp连接,握手协议耗时间,tcp是三次握手

4.tcp是慢启动,TCP 数据传输的性能还取决于 TCP 连接的使用期(age)。TCP 连接会随着时间进行自我“调谐”,起初会限制连接的最大速度,如果数据成功传输,会随着时间的推移提高传输的速度。这种调谐被称为 TCP 慢启动(slow start),用于防止因特网的突

然过载和拥塞 。

tcp长连接同步通信

长连接同步的传输图

深入浅出Java分布式系统通信

一个socket连接在同一时间只能传递一个请求的信息

只有等到response之后,第二个请求才能开始使用这个通道

为了提高并发性能,可以提供多个连接,建立一个连接池,连接被使用的时候标志为正在使用,

使用完放回连接池,标识为空闲,这和jdbc连接池是一样的。

假设后端服务器,tps是1000,即每秒处理业务数是1000

现在内网传输耗时是5毫秒,业务处理一次请求的时间为150毫秒

那么一次请求从客户端发起请求到得到服务端的响应,总共耗时150毫秒+5毫秒*2

=160毫秒,如果只有一个连接通信,那么1秒内只能完成2次业务处理,即tps为2

如果要使tps达到1000,那么理论上需要500个连接,但是当连接数上升的时候,其性能却在下降,

因此该方案将会降低网站的吞吐量。

实现挑战:

mina的session.write()和receive消息都是异步的,那么需要在主线程上阻塞以等待响应的到达。

连接池代码:

/** * 空闲连接池 */ private static BlockingQueue<Connection> idlePool = new LinkedBlockingQueue<Connection>(); /** * 使用中的连接池 */ public static BlockingQueue<Connection> activePool = new LinkedBlockingQueue<Connection>(); public static Connection getConn() throws InterruptedException{  long time1 = System.currentTimeMillis();  Connection connection = null;  connection = idlePool.take();     activePool.add(connection);  long time2 = System.currentTimeMillis();  //log.info("获取连接耗时:"+(time2-time1));  return connection; } 

客户端代码:

public TransInfo send(TransInfo info) throws InterruptedException {  Result result = new Result();  //获取tcp连接  Connection connection = ConnectFutureFactory.getConnection(result);  ConnectFuture connectFuture = connection.getConnection();  IoSession session = connectFuture.getSession();  session.setAttribute("result", result);  //发送信息  session.write(info);  //同步阻塞获取响应  TransInfo synGetInfo = result.synGetInfo();  //此处并不是真正关闭连接,而是将连接放回连接池  ConnectFutureFactory.close(connection,result);  return synGetInfo; } 

阻塞获取服务端响应代码:

public synchronized TransInfo synGetInfo() {  //等待消息返回  //必须要在同步的情况下执行  if (!done) {   try {         wait();   } catch (InterruptedException e) {    log.error(e.getMessage(), e);   }  }  return info; } public synchronized void synSetInfo(TransInfo info) {  this.info = info;  this.done = true;  notify(); } 

测试场景:

每个请求的业务处理时间110ms

300个线程300个连接并发测试,每个线程循环请求服务端

测试环境:

客户端服务器:

Cpu为4线程 2400mhz

服务端cpu: 4线程 3000Mhz

测试结果:

在经过10分钟测试之后,稳定情况下的tps

Tps:2332左右

客户端Cpu:90%

服务端cpu:250%

从测试结果可以看出,当连接数足够大的时候,系统性能会降低,开启的tcp连接数越多,那么

系统开销将会越大。

tcp长连接异步通信

通信图:

深入浅出Java分布式系统通信

一个socket连接在同一时间内传输多次请求的信息,输入通道接收多条响应消息,消息是连续发出,连续收回的。

业务处理和发消息是异步的,一个业务线程告诉通道发送消息后,不再占用通道,而是等待响应到达,而此时其它

业务线程也可以往该连接通道发信息,这样可以充分利用通道来进行通信。

实现挑战

但该方案使编码变得复杂,如上图,请求request1,request2,request3顺序发出,但是服务端处理请求并不是

排队的,而是并行处理的,有可能request3先于request1响应给客户端,那么一个request将无法找到他的response,

这时候我们需要在request和response报文中添加唯一标识,如通信序列号,在一个通信通道里面保持唯一,

那么可以根据序列号去获取对应的响应报文。

我的方案是:

1.客户端获取一个tcp连接

2.调用session.write()发送信息,并将消息的唯一序列号存入一个Result对象

result对象存入一个map

3.同步阻塞获取结果,线程在result对象进行同步阻塞

4.接收消息,并通过唯一序列号从map里面获取result对象,并唤醒阻塞在result对象上的线程

客户端发送消息示例代码:

public TransInfo send(TransInfo info) throws InterruptedException {  Result result = new Result();  result.setInfo(info);  //获取socket连接  ConnectFuture connectFuture = ConnectFutureFactory   .getConnection(result);  IoSession session = connectFuture.getSession();  //将result放入ConcurrentHashMap  ConcurrentHashMap<Long, Result> resultMap = (ConcurrentHashMap<Long, Result>)session.getAttribute("resultMap");  resultMap.put(info.getId(), result);  //发送消息  session.write(info);  //同步阻塞获取结果  return result.synGetInfo(); } 

同步阻塞和唤醒方法:

public synchronized TransInfo synGetInfo() {  //等待消息返回  //必须要在同步的情况下执行  while (!done) {   try {         wait();   } catch (InterruptedException e) {    log.error(e.getMessage(), e);   }  }  return info; } public synchronized void synSetInfo(TransInfo info) {  this.info = info;  this.done = true;  notify(); } 

接收消息示例代码:

public void messageReceived(IoSession session, Object message)  throws Exception {     TransInfo info = (TransInfo) message;         //根据唯一序列号从resultMap中获取result     ConcurrentHashMap<Long, Result> resultMap = (ConcurrentHashMap<Long, Result>)session.getAttribute("resultMap");     //移除result     Result result = resultMap.remove(info.getId());      //唤醒阻塞线程     result.synSetInfo(info); } 

测试场景:

每个请求的业务处理时间110ms

300个线程10个连接并发测试,每个线程循环请求服务端

测试环境:

客户端服务器:

Cpu为4线程 2400mhz

服务端cpu: 4线程 3000Mhz

测试结果:

在经过10分钟测试之后,稳定情况下的tps

Tps:2600左右

客户端Cpu:25%

服务端cpu:250%

经测试发现,异步通信可以用更少的tcp连接实现同样高效的通信,极大的减少了系统性能开销。

今天暂时写到这里。

参考 文章

http://www.2cto.com/os/201203/125511.html

wireshark-win32-1.6.5.exe:

http://down.51cto.com/data/685517

RPC与消息队列的区别

http://oldratlee.com/post/2013-02-01/synchronous-rpc-vs-asynchronous-message

tcp长连接与短连接的区别

http://www.cnblogs.com/liuyong/archive/2011/07/01/2095487.html

http://blog.chinaunix.net/uid-354915-id-3587924.html

keep-alived详解

http://wudi.in/archives/446.html

http://www.nowamagic.net/academy/detail/23350305

wireshark抓包详解

http://www.cnblogs.com/TankXiao/archive/2012/10/10/2711777.html

长连接,同步异步参考

http://www.yeolar.com/note/2012/11/10/c10k/

同步队列:

http://ifeve.com/java-synchronousqueue/

netty:

http://www.infoq.com/cn/articles/netty-reliability

正文到此结束
Loading...