上一篇文章 《快速了解组件-spring batch(2)之helloworld》 对 Spring Batch
进行了入门级的开发,也对基本的组件有了一定的了解。但实际开发过程中,更多的是涉及文件及数据库的操作,以定时后台运行的方式,实现批处理操作。典型操作是从文本数据( csv/txt
等文件)中读取数据,然后写入到数据库存储。如下图所示:
若需要开发此过程,可以按照上一篇文章所写的,自定义 ItemReader
和 ItemWriter
来实现,但是 Spring Batch
其实已经提供现成的文件读取和数据库写入的组件,开发人员可以直接使用,提高开发效率。本文将会对文件读取和数据库写入进行实战介绍。
在使用 Spring Batch
内置的读写组件时,首先我们先弄清楚有哪些组件可以用,按读、写、处理,见下面说明。 Spring Batch
已提供了比较全面的支持。
ItemReader | 说明 |
---|---|
ListItemReader | 读取List类型数据,只能读一次 |
ItemReaderAdapter | ItemReader适配器,可以复用现有的读操作 |
FlatFileItemReader | 读Flat类型文件 |
StaxEventItemReader | 读XML类型文件 |
JdbcCursorItemReader | 基于JDBC游标方式读数据库 |
HibernateCursorItemReader | 基于Hibernate游标方式读数据库 |
StoredProcedureItemReader | 基于存储过程读数据库 |
JpaPagingItemReader | 基于Jpa方式分页读数据库 |
JdbcPagingItemReader | 基于JDBC方式分页读数据库 |
HibernatePagingItemReader | 基于Hibernate方式分页读取数据库 |
JmsItemReader | 读取JMS队列 |
IteratorItemReader | 迭代方式的读组件 |
MultiResourceItemReader | 多文件读组件 |
MongoItemReader | 基于分布式文件存储的数据库 MongoDB读组件 |
Neo4jItemReader | 面向网络的数据库Neo4j的读组件 |
ResourcesItemReader | 基于批量资源的读组件,每次读取返回资源对象 AmqpItemReader读取AMQP队列组件 |
RepositoryItemReader | 基于 Spring Data的读组件 |
ItemWriter | 说明 |
---|---|
FlatFileItemWriter | 写Flat类型文件 |
MultiResourceItemWriter | 多文件写组件 |
StaxEventItemWriter | 写XML类型文件 |
AmqpItemWriter | 写AMQP类型消息 |
ClassifierCompositeItemWriter | 根据 Classifier路由不同的Item到特定的ItemWriter处理 |
HiberateItemWriter | 基于Hibernate方式写数据库 |
ItemWriterAdapter | ItemWriter适配器,可以复用现有的写服务 |
JdbcBatchItemWriter | 基于JDBC方式写数据库 |
JmsItemWriter | 写JMS队列 JpaItemWriter基于Jpa方式写数据库 |
GemfireItemWriter | 基于分布式数据库Gemfire的写组件 |
SpELMappingGemfireItemWriter | 基于Spring表达式语言写分布式数据库Gemfire的写组件 |
MimeMessageItemWriter | 发送邮件的写组件 |
MongoItemWriter | 基于分布式文件存储的数据库MongoDB写组件 |
Neo4jItemWriter | 面向网络的数据库Neo4j的读组件 |
PropertyExtractingDelegatingItemWriter | 属性抽取代理写组件:通过调用给定的 Spring Bean方法执行写入,参数由Item中指定的属性字段获取作为参数 |
RepositoryItemWriter基于 | Spring Data的写组件 |
SimpleMailMessageItemWriter | 发送邮件的写组件 |
CompositeItemWriter | 条目写的组合模式,支持组装多个ItemWriter |
ItemProcessor | 说明 |
---|---|
CompositeItemProcessor | 组合处理器,可以封装多个业务处理服务 |
ItemProcessorAdapter | ItemProcessor适配器,可以复用现有的业务处理服务 |
PassThroughItemProcessor | 不做任何业务处理,直接返回读到的数据 |
ValidatingItemProcessor | 数据校验处理器,支持对数据的校验,如果校验不通过可以进行过滤掉或者通过skip的方式跳过对记录的处理 |
根据当前示例,从 csv
文件中读数据,写入到 mysql
数据库,只需要使用 FlatFileItemReader
和 JdbcBatchItemWriter
即可。下面对开发流程作简要说明。示例工程可以在 这里获取 ,里面有文件 resources/user-data.csv
及相应的目标数据库脚本 mytest.sql
。
Spring Batch
的运行需要数据库的支持,以保存任务的运行状态及结果。因此需要先创建数据库。在 mysql
中创建名为 my_spring_batch
的数据库。并在此数据库中执行 Spring Batch
的数据库脚本,脚本位置在 spring-batch-core-4.1.2.RELEASE.jar
的jar包中的 /org/springframework/batch/core/schema-mysql.sql
(也可以在 示例工程 的 sql
文件夹中获取)。执行完成后,数据库表如下图所示:
数据库共9张表,以 seq
结尾的是用于生成主键的。其它6张表,以 batch_job
开头的是存储任务的相关信息, batch_step
开头的存储步骤相关信息。
job
与 job instance
与 job execution
关系 任务 job
是我们说的逻辑概念,即完整的一个批处理工作,它的实例就是 job instance
,此任务信息是存储在 batch_job_instance
表中。有点类似java中的类和类实例的概念,是一对多的关系。对于每一个 job instance
,执行的时候会生成记录存储在 batch_job_execution
中,表示每一个 job
执行的实际情况。注意,这里 job instance
和 job execution
也是一对多的关系,即同一个实例有可能会执行多次(如上一次执行失败了,后面重新再执行)。
batch_job_execution_context
及 batch_job_execution_params
存储任务执行时需要用到的上下文(以 json
格式存储)及运行时使用的参数。
batch_step_execution
及 batch_step_execution_context
存储任务执行过程中的作业步骤及运行时上下文。
本示例只涉及一个 test_user
表。创建 mytest
数据库库,执行 mytest.sql
脚本即可。
一般来说,我们会把 Spring Batch
的数据存储在独立的数据库中,而实际的应用使用的则是目标数据库,因此需要配置多数据源访问。基于上一篇文章的工程进行开发。
<!-- 数据库相关依赖--> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-jdbc</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-data-jpa</artifactId> </dependency> <dependency> <groupId>mysql</groupId> <artifactId>mysql-connector-java</artifactId> <scope>runtime</scope> </dependency> 复制代码
Spring Boot
对多数据源的支持比较友好,配置也很简单,先在配置文件中添加数据库配置,然后在java配置文件中添加相应的注解即可。如下:
application.properties
配置内容 # spring batch db spring.datasource.jdbc-url=jdbc:mysql://localhost:3310/my_spring_batch?serverTimezone=GMT%2B8&useUnicode=true&characterEncoding=utf8&useSSL=false spring.datasource.username=root spring.datasource.password=111111 # target db spring.target-datasource.jdbc-url=jdbc:mysql://localhost:3310/mytest?serverTimezone=GMT%2B8&useUnicode=true&characterEncoding=utf8&useSSL=false spring.target-datasource.username=root spring.target-datasource.password=111111 复制代码
DataSourceConfig
配置内容 新建 DataSourceConfig.java
文件,配置多数据源,如下: @Configuration public class DataSourceConfig { @Bean("datasource") @ConfigurationProperties(prefix="spring.datasource") @Primary public DataSource batchDatasource() { return DataSourceBuilder.create().build(); } @Bean("targetDatasource") @ConfigurationProperties(prefix="spring.target-datasource") public DataSource targetDatasource() { return DataSourceBuilder.create().build(); } } 复制代码
这样,后面就可以直接使用 datasource
及 targetDatasource
两个Bean进行数据库访问。
本实例中,读取 csv
文件,转为 User
实体,然后存储到数据库,因此需要先把 User
这个实体作一个定义。使用了 lombok
和 jpa
的注解,如下:
@Entity @Data @Table(name="test_user") public class User{ @Id @GeneratedValue /** * id */ private Long id; /** * 姓名 */ private String name; /** * 手机号 */ private String phone; ...略 复制代码
使用内置的 FlatFileItemReader
即可。如下:
@Bean public ItemReader file2DbItemReader(){ String funcName = Thread.currentThread().getStackTrace()[1].getMethodName(); return new FlatFileItemReaderBuilder<User>() .name(funcName) .resource(new ClassPathResource("user-data.csv")) // .linesToSkip(1) .delimited() .names(new String[]{"id","name","phone","title","email","gender","date_of_birth","sys_create_time","sys_create_user","sys_update_time","sys_update_user"}) .fieldSetMapper(new UserFieldSetMapper()) .build(); } 复制代码
说明:
FlatFileItemReaderBuilder
用于创建 FlatFileItemReader
,设置相应的行为,包括使用它来设置读取文件的位置( resource
),文件分隔符(默认是 ','
),是否跳过前面几行( linesToSkip
),标识每一列对应的列名称(可与数据库的字段名一致)。设置文件字段与数据库实体字段的对应关系。 FieldSetMapper
来实现,其中 FieldSet
代表每一行文本数据,返回值即为实体对象。如下所示: public class UserFieldSetMapper implements FieldSetMapper<User> { @Override public User mapFieldSet(FieldSet fieldSet) throws BindException { String patternYmd = "yyyy-MM-dd"; String patternYmdHms = "yyyy-MM-dd HH:mm:ss"; User user = new User(); user.setId(fieldSet.readLong("id")); user.setName(fieldSet.readString("name")); user.setPhone(fieldSet.readString("phone")); user.setTitle(fieldSet.readString("title")); user.setEmail(fieldSet.readString("email")); user.setGender(fieldSet.readString("gender")); //此字段有可能为null String dataOfBirthStr = fieldSet.readString("date_of_birth"); if(SyncConstants.STR_CSV_NULL.equals(dataOfBirthStr)){ user.setDateOfBirth(null); }else{ DateTime dateTime = DateUtil.parse(dataOfBirthStr, patternYmd); user.setDateOfBirth(dateTime.toJdkDate()); } user.setSysCreateTime(fieldSet.readDate("sys_create_time",patternYmdHms)); user.setSysCreateUser(fieldSet.readString("sys_create_user")); user.setSysUpdateTime(fieldSet.readDate("sys_update_time",patternYmdHms)); user.setSysUpdateUser(fieldSet.readString("sys_update_user")); return user; } } 复制代码
由于 csv
文本文件中的数据 null
值数据标识符为 /N
,因此可以在处理组件中进行处理,把标识符 /N
设置为 null
值。如下所示:
@Slf4j public class File2DbItemProcessor implements ItemProcessor<User,User> { @Override public User process(User user) throws Exception { user.setPhone(checkStr(user.getPhone())); user.setTitle(checkStr(user.getTitle())); user.setEmail(checkStr(user.getEmail())); user.setGender(checkStr(user.getGender())); log.info(LogConstants.LOG_TAG + "item process: " +user.getName()); return user; } public String checkStr(String dataToCheck){ if(SyncConstants.STR_CSV_NULL.equals(dataToCheck)){ return null; } return dataToCheck; } } 复制代码
数据库写入组件使用 JdbcBatchItemWriter
即可,如下:
@Bean public ItemWriter file2DbWriter(@Qualifier("targetDatasource") DataSource datasource){ return new JdbcBatchItemWriterBuilder<User>() .itemSqlParameterSourceProvider(new BeanPropertyItemSqlParameterSourceProvider<>()) .sql("INSERT INTO test_user(id,name,phone,title,email,gender,date_of_birth,sys_create_time,sys_create_user,sys_update_time,sys_update_user) " + "VALUES (:id,:name,:phone,:title,:email,:gender,:dateOfBirth,:sysCreateTime,:sysCreateUser,:sysUpdateTime,:sysUpdateUser)") .dataSource(datasource) .build(); } 复制代码
说明:
JdbcBatchItemWriterBuilder
进行 JdbcBatchItemWriter
的创建,设置插入数据库的sql语句,同时指定数据源即可。 @Qualifier("targetDatasource") DataSource datasource
用于指定数据源 BeanPropertyItemSqlParameterSourceProvider
可以直接把读取的数据实体的属性数据作为参数填充到 sql
语句中,从而实现数据插入操作。 经过上面的操作,可以使用一个java配置,把读、写、处理组装成完整的 step
和 job
,如下所示(详细可见示例工程文件):
File2DbBatchConfig.java
@Bean public Job file2DbJob(Step file2DbStep,JobExecutionListener file2DbListener){ String funcName = Thread.currentThread().getStackTrace()[1].getMethodName(); return jobBuilderFactory.get(funcName) .listener(file2DbListener) .flow(file2DbStep) .end().build(); } @Bean public Step file2DbStep(ItemReader file2DbItemReader , ItemProcessor file2DbProcessor ,ItemWriter file2DbWriter){ String funcName = Thread.currentThread().getStackTrace()[1].getMethodName(); return stepBuilderFactory.get(funcName) .<User,User>chunk(10) .reader(file2DbItemReader) .processor(file2DbProcessor) .writer(file2DbWriter) .build(); } 复制代码
参考上一文章的 ConsoleJobTest
,编写 File2DbJobTest
文件。
@RunWith(SpringRunner.class) @SpringBootTest(classes = {MainBootApplication.class,File2DbBatchConfig.class}) @Slf4j public class File2DbJobTest { @Autowired private JobLauncherService jobLauncherService; @Autowired private Job file2DbJob; @Test public void testFile2DbJob() throws JobParametersInvalidException, JobExecutionAlreadyRunningException, JobRestartException, JobInstanceAlreadyCompleteException { //构建任务运行参数 JobParameters jobParameters = JobUtil.makeJobParameters(); //执行并显示结果 Map<String, Object> stringObjectMap = jobLauncherService.startJob(file2DbJob, jobParameters); Assert.assertEquals(ExitStatus.COMPLETED,stringObjectMap.get(SyncConstants.STR_RETURN_EXITSTATUS)); } } 复制代码
执行后结果输出如下( exitCode=COMPLETED
):