发表于14小时前(2015-02-28 17:35) 阅读( 24 ) | 评论( 0 ) 0 人收藏此文章,
赞 0
3月21日 深圳 OSC 源创会正在报名中,送华为海思开发板
摘要 现在使用的缓存技术很多,比如Redis、 Memcache、EhCache等,甚至还有使用ConcurrentHashMap 或 HashTable 来实现缓存。但在缓存的使用上,每个人都有自己的实现方式,大部分是直接与业务代码绑定,随着业务的变化,要更换缓存方案时,非常麻烦。接下来我们就使用AOP + Annotation 来解决这个问题,同时使用自动加载机制 来实现数据“常驻内存”。 此框架我们公司已经用了近两年时间了,一直非常稳定。现在把相关代码开源出来,希望能与大家分享,也希望大家能给些建议。
目录[-]
代码
现在使用的缓存技术很多,比如 Redis 、 Memcache 、 EhCache 等,甚至还有使用 ConcurrentHashMap 或 HashTable 来实现缓存。但在缓存的使用上,每个人都有自己的实现方式,大部分是直接与业务代码绑定,随着业务的变化,要更换缓存方案时,非常麻烦。接下来我们就使用 AOP + Annotation 来解决这个问题,同时使用 自动加载机制 来实现数据“ 常驻内存 ”。
Spring AOP这几年非常热门,使用也越来越多,但个人建议AOP只用于处理一些辅助的功能(比如:接下来我们要说的缓存),而不能把业务逻辑使用AOP中实现,尤其是在需要“事务”的环境中。
如下图所示:
AOP拦截到请求后:
AutoLoadHandler(自动加载处理器)主要做的事情:当缓存即将过期时,去执行DAO的方法,获取数据,并将数据放到缓存中。为了防止自动加载队列过大,设置了容量限制;同时会将超过一定时间没有用户请求的也会从自动加载队列中移除,把服务器资源释放出来,给真正需要的请求。
如果将应用部署在多台服务器上,理论上可以认为自动加载队列是由这几台服务器共同完成自动加载任务。比如应用部署在A,B两台服务器上,A服务器自动加载了数据D,(因为两台服务器的自动加载队列是独立的,所以加载的顺序也是一样的),接着有用户从B服务器请求数据D,这时会把数据D的最后加载时间更新给B服务器,这样B服务器就不会重复加载数据D。
下面举个使用Redis做缓存服务器的例子:
package com.jarvis.example.cache; import ... ... /** * 缓存切面,用于拦截数据并调用Redis进行缓存操作 */ @Aspect public class CachePointCut implements CacheGeterSeter<Serializable> { private static final Logger logger=Logger.getLogger(CachePointCut.class); private AutoLoadHandler<Serializable> autoLoadHandler; private static List<RedisTemplate<String, Serializable>> redisTemplateList; public CachePointCut() { autoLoadHandler=new AutoLoadHandler<Serializable>(10, this, 20000); } @Pointcut(value="execution(public !void com.jarvis.example.dao..*.*(..)) && @annotation(cahce)", argNames="cahce") public void daoCachePointcut(Cache cahce) { logger.info("----------------------init daoCachePointcut()--------------------"); } @Around(value="daoCachePointcut(cahce)", argNames="pjp, cahce") public Object controllerPointCut(ProceedingJoinPoint pjp, Cache cahce) throws Exception { return CacheUtil.proceed(pjp, cahce, autoLoadHandler, this); } public static RedisTemplate<String, Serializable> getRedisTemplate(String key) { if(null == redisTemplateList || redisTemplateList.isEmpty()) { return null; } int hash=Math.abs(key.hashCode()); Integer clientKey=hash % redisTemplateList.size(); RedisTemplate<String, Serializable> redisTemplate=redisTemplateList.get(clientKey); return redisTemplate; } @Override public void setCache(final String cacheKey, final CacheWrapper<Serializable> result, final int expire) { try { final RedisTemplate<String, Serializable> redisTemplate=getRedisTemplate(cacheKey); redisTemplate.execute(new RedisCallback<Object>() { @Override public Object doInRedis(RedisConnection connection) throws DataAccessException { byte[] key=redisTemplate.getStringSerializer().serialize(cacheKey); JdkSerializationRedisSerializer serializer=(JdkSerializationRedisSerializer)redisTemplate.getValueSerializer(); byte[] val=serializer.serialize(result); connection.set(key, val); connection.expire(key, expire); return null; } }); } catch(Exception ex) { logger.error(ex.getMessage(), ex); } } @Override public CacheWrapper<Serializable> get(final String cacheKey) { CacheWrapper<Serializable> res=null; try { final RedisTemplate<String, Serializable> redisTemplate=getRedisTemplate(cacheKey); res=redisTemplate.execute(new RedisCallback<CacheWrapper<Serializable>>() { @Override public CacheWrapper<Serializable> doInRedis(RedisConnection connection) throws DataAccessException { byte[] key=redisTemplate.getStringSerializer().serialize(cacheKey); byte[] value=connection.get(key); if(null != value && value.length > 0) { JdkSerializationRedisSerializer serializer= (JdkSerializationRedisSerializer)redisTemplate.getValueSerializer(); @SuppressWarnings("unchecked") CacheWrapper<Serializable> res=(CacheWrapper<Serializable>)serializer.deserialize(value); return res; } return null; } }); } catch(Exception ex) { logger.error(ex.getMessage(), ex); } return res; } /** * 删除缓存 * @param cs Class * @param method * @param arguments * @param subKeySpEL * @param deleteByPrefixKey 是否批量删除 */ public static void delete(@SuppressWarnings("rawtypes") Class cs, String method, Object[] arguments, String subKeySpEL, boolean deleteByPrefixKey) { try { if(deleteByPrefixKey) { final String cacheKey=CacheUtil.getCacheKeyPrefix(cs.getName(), method, arguments, subKeySpEL) + "*"; for(final RedisTemplate<String, Serializable> redisTemplate : redisTemplateList){ redisTemplate.execute(new RedisCallback<Object>() { @Override public Object doInRedis(RedisConnection connection) throws DataAccessException { byte[] key=redisTemplate.getStringSerializer().serialize(cacheKey); Set<byte[]> keys=connection.keys(key); if(null != keys && keys.size() > 0) { byte[][] keys2=new byte[keys.size()][]; keys.toArray(keys2); connection.del(keys2); } return null; } }); } } else { final String cacheKey=CacheUtil.getCahcaheKey(cs.getName(), method, arguments, subKeySpEL); final RedisTemplate<String, Serializable> redisTemplate=getRedisTemplate(cacheKey); redisTemplate.execute(new RedisCallback<Object>() { @Override public Object doInRedis(RedisConnection connection) throws DataAccessException { byte[] key=redisTemplate.getStringSerializer().serialize(cacheKey); connection.del(key); return null; } }); } } catch(Exception ex) { logger.error(ex.getMessage(), ex); } } public AutoLoadHandler<Serializable> getAutoLoadHandler() { return autoLoadHandler; } public void destroy() { autoLoadHandler.shutdown(); autoLoadHandler=null; } public List<RedisTemplate<String, Serializable>> getRedisTemplateList() { return redisTemplateList; } public void setRedisTemplateList(List<RedisTemplate<String, Serializable>> redisTemplateList) { CachePointCut.redisTemplateList=redisTemplateList; } }
从上面的代码可以看出,对缓存的操作,还是由业务系统自己来实现的,我们只是对AOP拦截到的ProceedingJoinPoint,进行做一些处理。
java代码实现后,接下来要在spring中进行相关的配置:
<aop:aspectj-autoproxy proxy-target-class="true"/> <bean id="cachePointCut" class="com.jarvis.example.cache.CachePointCut" destroy-method="destroy"> <property name="redisTemplateList"> <list> <ref bean="redisTemplate1"/> <ref bean="redisTemplate2"/> </list> </property> </bean>
package com.jarvis.example.dao; import ... ... public class UserDAO { @Cache(expire=600, autoload=true, requestTimeout=72000) public List<UserTO> getUserList(... ...) { ... ... } }
生成缓存Key的生成方法:CacheUtil.getCahcaheKey(String className, String method, Object[] arguments, String subKeySpEL)
生成的Key格式为:{类名称}.{方法名称}{.SpringEL表达式运算结果}:{参数值的Hash字符串}
根据业务的需要,将缓存Key进行分组。举个例子,商品的评论列表:
package com.jarvis.example.dao; import ... ... public class GoodsCommentDAO{ @Cache(expire=600, subKeySpEL="#args[0]", autoload=true, requestTimeout=18000) public List<CommentTO> getCommentListByGoodsId(Long goodsId, int pageNo, int pageSize) { ... ... } }
如果商品Id为:100,那么生成缓存Key格式为:com.jarvis.example.dao.GoodsCommentDAO.getCommentListByGoodsId.100:xxxx
在Redis中,能精确删除商品Id为100的评论列表,执行命令即可:
del com.jarvis.example.dao.GoodsCommentDAO.getCommentListByGoodsId.100:*
SpringEL表达式使用起来确实非常方便,如果需要,@Cache中的expire,requestTimeout以及autoload参数都可以用SpringEL表达式来动态设置。但使用起来就变得复杂,所以我们没有这样做。
上面商品评论的例子中,如果用户发表了评论,要立即显示该如何来处理?
比较简单的方法就是,在发表评论成功后,立即把缓存中的数据也清除,这样就可以了。
package com.jarvis.example.dao; import ... ... public class GoodsCommentDAO{ @Cache(expire=600, subKeySpEL="#args[0]", autoload=true, requestTimeout=18000) public List<CommentTO> getCommentListByGoodsId(Long goodsId, int pageNo, int pageSize) { ... ... } public void addComment(Long goodsId, String comment) { ... ...// 省略添加评论代码 deleteCache(goodsId); } private void deleteCache(Long goodsId) { Object arguments[]=new Object[]{goodsId}; CachePointCut.delete(this.getClass(), "getCommentListByGoodsId", arguments, "#args[0]", true); } }
@Retention(RetentionPolicy.RUNTIME) @Target(ElementType.METHOD) public @interface Cache { /** * 缓存的过期时间,单位:秒 */ int expire(); /** * 是否启用自动加载缓存 * @return */ boolean autoload() default false; /** * 当autoload为true时,缓存数据在 requestTimeout 秒之内没有使用了,就不进行自动加载数据,如果requestTimeout为0时,会一直自动加载 * @return */ long requestTimeout() default 36000L; /** * 使用SpEL,将缓存key,根据业务需要进行二次分组 * @return */ String subKeySpEL() default ""; }
1. 当@Cache中autoload设置为ture时,对应方法的参数必须都是Serializable的。
AutoLoadHandler中需要缓存通过 深度复制 后的参数。
2. 参数中只设置必要的属性值,在DAO中用不到的属性值尽量不要设置,这样能避免生成不同的缓存Key,降低缓存的使用率。
例如:
public CollectionTO<AccountTO> getAccountByCriteria(AccountCriteriaTO criteria) { List<AccountTO> list=null; PaginationTO paging=criteria.getPaging(); if(null != paging && paging.getPageNo() > 0 && paging.getPageSize() > 0) {// 如果需要分页查询,先查询总数 criteria.setPaging(null);// 减少缓存KEY的变化,在查询记录总数据时,不用设置分页相关的属性值 Integer recordCnt=accountDAO.getAccountCntByCriteria(criteria); if(recordCnt > 0) { criteria.setPaging(paging); paging.setRecordCnt(recordCnt); list=accountDAO.getAccountByCriteria(criteria); } return new CollectionTO<AccountTO>(list, recordCnt, criteria.getPaging().getPageSize()); } else { list=accountDAO.getAccountByCriteria(criteria); return new CollectionTO<AccountTO>(list, null != list ? list.size() : 0, 0); } }
例如:
TempDAO { public Object a() { return b().get(0); } @Cache(expire=600) public List<Object> b(){ return ... ...; } }
通过 new TempDAO().a() 调用b方法时,AOP失效,也无法进行缓存相关操作。
例如:
@Cache(expire=600, autoload=true) public List<AccountTO> getDistinctAccountByPlayerGet(AccountCriteriaTO criteria) { List<AccountTO> list; int count=criteria.getPaging().getThreshold() ; // 查预设查询数量的10倍 criteria.getPaging().setThreshold(count * 10); … … }
因为自动加载时,AutoLoadHandler 缓存了查询参数,执行自动加载时,每次执行时 threshold 都会乘以10,这样threshold的值就会越来越大。
在代码重构时,可能会出现改方法返回值类型的情况,而参数不变的情况,那上线部署时,可能会从缓存中取到旧数据类型的数据,可以通过以下方法处理:
比如,根据用户输入的关键字进行搜索数据的方法,不建议使用自动加载。
首页我们想一下系统的瓶颈在哪里?
在高并发的情况下数据库性能极差,即使查询语句的性能很高;如果没有自动加载机制的话,在当缓存过期时,访问洪峰到来时,很容易就使数据压力大增。
往缓存写数据与从缓存读数据相比,效率也差很多,因为写缓存时需要分配内存等操作。使用自动加载,可以减少同时往缓存写数据的情况,同时也能提升缓存服务器的吞吐量。
分享到: 0 赞
声明:OSCHINA 博客文章版权属于作者,受法律保护。未经作者同意不得转载。