前言
在大型的企业应用中,或多或少都会存在大量的任务需要处理,如邮件批量通知所有将要过期的会员等等。而在批量处理任务的过程中,又需要注意很多细节,如任务异常、性能瓶颈等等。那么,使用一款优秀的框架总比我们自己重复地造轮子要好得多一些。
我所在的物联网云平台部门就有这么一个需求,需要实现批量下发命令给百万设备。为了防止枯燥乏味,下面就让我们先通过Spring Batch框架简单地实现一下这个功能,再来详细地介绍这款框架!
小试牛刀
Demo代码:https://github.com/wudashan/spring-batch-demo.git
引入依赖
首先我们需要引入对Spring Batch的依赖,在pom.xml文件加入下面的代码:
<dependency> <groupId>org.springframework.batch</groupId> <artifactId>spring-batch-core</artifactId> <version>3.0.8.RELEASE</version> </dependency>
装载Bean
其次,我们需要在resources目录下,创建applicationContext.xml文件,用于自动注入我们需要的类:
<beans xmlns="http://www.springframework.org/schema/beans" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation=" http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd"> <!-- 事务管理器 --> <bean id="transactionManager" class="org.springframework.batch.support.transaction.ResourcelessTransactionManager"/> <!-- 任务仓库 --> <bean id="jobRepository" class="org.springframework.batch.core.repository.support.MapJobRepositoryFactoryBean"> <property name="transactionManager" ref="transactionManager"/> </bean> <!-- 任务加载器 --> <bean id="jobLauncher" class="org.springframework.batch.core.launch.support.SimpleJobLauncher"> <property name="jobRepository" ref="jobRepository"/> </bean> </beans>
有了上面声明的transactionManager、jobRepository、jobLauncher,我们就可以执行批量任务啦!不过,我们还需要创建一个任务。在Spring Batch框架中,一个任务Job由一个或者多个步骤Step,而步骤又由读操作Reader、处理操作Processor、写操作Writer组成,下面我们分别创建它们。
创建Reader
既然是读操作,那么肯定要有能读的数据源,方便起见,我们直接在resources目录下创建一个batch-data.csv文件,内容如下:
1,PENDING 2,PENDING 3,PENDING 4,PENDING 5,PENDING 6,PENDING 7,PENDING 8,PENDING 9,PENDING 10,PENDING
非常简单,其中第一列代表着命令的id,第二列代表着命令的当前状态。也就是说,现在有10条缓存的命令,需要下发给设备。
读操作需要实现ItemReader<T>接口,框架提供了一个现成的实现类FlatFileItemReader。使用该类需要设置Resource和LineMapper。Resource代表着数据源,即我们的batch-data.csv文件;LineMapper则表示如何将文件的每行数据转成对应的DTO对象。
创建DTO对象
由于我们的数据源是命令数据,所以我们需要创建一个DeviceCommand.java文件,代码如下:
public class DeviceCommand { private String id; private String status; public String getId() { return id; } public void setId(String id) { this.id = id; } public String getStatus() { return status; } public void setStatus(String status) { this.status = status; } }
自定义LineMapper
我们需要自己实现一个LineMapper实现类,用于将batch-data.csv文件的每行数据,转成程序方便处理的DeviceCommand对象。
public class HelloLineMapper implements LineMapper<DeviceCommand> { @Override public DeviceCommand mapLine(String line, int lineNumber) throws Exception { // 逗号分割每一行数据 String[] args = line.split(","); // 创建DeviceCommand对象 DeviceCommand deviceCommand = new DeviceCommand(); // 设置id值到对象中 deviceCommand.setId(args[0]); // 设置status值到对象中 deviceCommand.setStatus(args[1]); // 返回对象 return deviceCommand; } }
创建Processor
读完数据后,我们就需要处理数据了。既然我们前面从文件里读取了待下发的命令,那么在这里下发命令给设备是最好的时机。处理操作需要实现ItemProcessor<I, O>接口,我们自己实现一个HelloItemProcessor.java即可,代码如下:
public class HelloItemProcessor implements ItemProcessor<DeviceCommand, DeviceCommand> { @Override public DeviceCommand process(DeviceCommand deviceCommand) throws Exception { // 模拟下发命令给设备 System.out.println("send command to device, id=" + deviceCommand.getId()); // 更新命令状态 deviceCommand.setStatus("SENT"); // 返回命令对象 return deviceCommand; } }
创建Writer
处理完数据后,我们需要更新命令状态到文件里,用于记录我们已经下发。与读文件类似,我们需要实现ItemWriter<T>接口,框架也提供了一个现成的实现类FlatFileItemWriter。使用该类需要设置Resource和LineAggregator。Resource代表着数据源,即我们的batch-data.csv文件;LineAggregator则表示如何将DTO对象转成字符串保存到文件的每行。
自定义LineAggregator
我们需要自己实现一个LineAggregator实现类,用于将DeviceCommand对象转成字符串,保存到batch-data.csv文件。
public class HelloLineAggregator implements LineAggregator<DeviceCommand> { @Override public String aggregate(DeviceCommand deviceCommand) { StringBuffer sb = new StringBuffer(); sb.append(deviceCommand.getId()); sb.append(","); sb.append(deviceCommand.getStatus()); return sb.toString(); } }
主程序
那么,完事具备,只欠东风!接下面我们在主程序Main.java里实现我们的批量命令下发功能!代码如下:
public class Main { public static void main(String[] args) throws Exception { // 加载上下文 String[] configLocations = {"applicationContext.xml"}; ApplicationContext applicationContext = new ClassPathXmlApplicationContext(configLocations); // 获取任务启动器 JobLauncher jobLauncher = applicationContext.getBean(JobLauncher.class); JobRepository jobRepository = applicationContext.getBean(JobRepository.class); PlatformTransactionManager transactionManager = applicationContext.getBean(PlatformTransactionManager.class); // 创建reader FlatFileItemReader<DeviceCommand> flatFileItemReader = new FlatFileItemReader<>(); flatFileItemReader.setResource(new FileSystemResource("src/main/resources/batch-data.csv")); flatFileItemReader.setLineMapper(new HelloLineMapper()); // 创建processor HelloItemProcessor helloItemProcessor = new HelloItemProcessor(); // 创建writer FlatFileItemWriter<DeviceCommand> flatFileItemWriter = new FlatFileItemWriter<>(); flatFileItemWriter.setResource(new FileSystemResource("src/main/resources/batch-data.csv")); flatFileItemWriter.setLineAggregator(new HelloLineAggregator()); // 创建Step StepBuilderFactory stepBuilderFactory = new StepBuilderFactory(jobRepository, transactionManager); Step step = stepBuilderFactory.get("step") .<DeviceCommand, DeviceCommand>chunk(1) .reader(flatFileItemReader) // 读操作 .processor(helloItemProcessor) // 处理操作 .writer(flatFileItemWriter) // 写操作 .build(); // 创建Job JobBuilderFactory jobBuilderFactory = new JobBuilderFactory(jobRepository); Job job = jobBuilderFactory.get("job") .start(step) .build(); // 启动任务 jobLauncher.run(job, new JobParameters()); } }
执行main方法之后,屏幕将会输出下面信息:
send command to device, id=1 send command to device, id=2 send command to device, id=3 send command to device, id=4 send command to device, id=5 send command to device, id=6 send command to device, id=7 send command to device, id=8 send command to device, id=9 send command to device, id=10
再查看batch-data.csv文件,将会发现命令状态全部更新为SENT:
1,SENT 2,SENT 3,SENT 4,SENT 5,SENT 6,SENT 7,SENT 8,SENT 9,SENT 10,SENT
至此,我们的批量命令下发全部成功!可以发现,使用Spring Batch框架来实现批处理非常的轻量,当然这只是它所有功能里的冰山一角。
正式介绍
Spring Batch在官网是这样一句话介绍自己的:A lightweight, comprehensive batch framework designed to enable the development of robust batch applications vital for the daily operations of enterprise systems.(一款轻量的、全面的批处理框架,用于开发强大的日常运营的企业级批处理应用程序。)
框架主要有以下功能:
- Transaction management(事务管理)
- Chunk based processing(基于块的处理)
- Declarative I/O(声明式的输入输出)
- Start/Stop/Restart(启动/停止/再启动)
- Retry/Skip(重试/跳过)
如果你的批处理程序需要使用上面的功能,那就大胆地使用它吧!
框架全貌
框架一共有4个主要角色:JobLauncher是任务启动器,通过它来启动任务,可以看做是程序的入口。Job代表着一个具体的任务。Step代表着一个具体的步骤,一个Job可以包含多个Step(想象把大象放进冰箱这个任务需要多少个步骤你就明白了)。JobRepository是存储数据的地方,可以看做是一个数据库的接口,在任务执行的时候需要通过它来记录任务状态等等信息。
JobLauncher
JobLauncher是任务启动器,该接口只有一个run方法:
public interface JobLauncher { public JobExecution run(Job job, JobParameters jobParameters) throws JobExecutionAlreadyRunningException, JobRestartException, JobInstanceAlreadyCompleteException, JobParametersInvalidException; }
除了传入Job对象之外,还需要传入JobParameters对象,后续讲到Job再解释为什么要多传一个JobParameters。通过JobLauncher可以在Java程序中调用批处理任务,也可以通过命令行或者其他框架(如定时调度框架Quartz、Web后台框架Spring MVC)中调用批处理任务。Spring Batch框架提供了一个JobLauncher的实现类SimpleJobLauncher。
Job
Job代表着一个任务,一个Job与一个或者多个JobInstance相关联,而一个JobInstance又与一个或者多个JobExecution相关联:
考虑到任务可能不是只执行一次就再也不执行了,更多的情况可能是定时任务,如每天执行一次,每个星期执行一次等等,那么为了区分每次执行的任务,框架使用了JobInstance。如上图所示,Job是一个EndOfDay(每天最后时刻执行的任务),那么其中一个JobInstance就代表着2007年5月5日那天执行的任务实例。框架通过在执行JobLauncher.run(Job, JobParameters)方法时传入的JobParameters来区分是哪一天的任务。
由于2007年5月5日那天执行的任务可能不会一次就执行完成,比如中途被停止,或者出现异常导致中断,需要多执行几次才能完成,所以框架使用了JobExecution来表示每次执行的任务。
Step
一个Job任务可以分为几个Step步骤,与JobExection相同,每次执行Step的时候使用StepExecution来表示执行的步骤。每一个Step还包含着一个ItemReader、ItemProcessor、ItemWriter,下面分别介绍这三者。
ItemReader
ItemReader代表着读操作,其接口如下:
public interface ItemReader<T> { T read() throws Exception, UnexpectedInputException, ParseException, NonTransientResourceException; }
框架已经提供了多种ItemReader接口的实现类,包括对文本文件、XML文件、数据库、JMS消息等读的处理,当然我们也可以自己实现该接口。
ItemProcessor
ItemReader代表着处理操作,其接口如下:
public interface ItemProcessor<I, O> { O process(I item) throws Exception; }
process方法的形参传入I类型的对象,通过处理后返回O型的对象。开发者可以实现自己的业务代码来对数据进行处理。
ItemWriter
ItemReader代表着写操作,其接口如下:
public interface ItemWriter<T> { void write(List<? extends T> items) throws Exception; }
框架已经提供了多种ItemWriter接口的实现类,包括对文本文件、XML文件、数据库、JMS消息等写的处理,当然我们也可以自己实现该接口。
JobRepository
JobRepository用于存储任务执行的状态信息,比如什么时间点执行了什么任务、任务执行结果如何等等。框架提供了2种实现,一种是通过Map形式保存在内存中,当Java程序重启后任务信息也就丢失了,并且在分布式下无法获取其他节点的任务执行情况;另一种是保存在数据库中,并且将数据保存在下面6张表里:
- BATCH_JOB_INSTANCE
- BATCH_JOB_EXECUTION_PARAMS
- BATCH_JOB_EXECUTION
- BATCH_STEP_EXECUTION
- BATCH_JOB_EXECUTION_CONTEXT
- BATCH_STEP_EXECUTION_CONTEXT
Spring Batch框架的JobRepository支持主流的数据库:DB2、Derby、H2、HSQLDB、MySQL、Oracle、PostgreSQL、SQLServer、Sybase。可爱的是,我司的Gauss数据库也是支持的,只不过需要稍加配置。
总结
本篇博客先通过一个批量下发命令的Demo教大家如何快速入门,再对框架进行一个从整体到部分的介绍,让大家有一个基础的认识。由于篇幅和能力有限,关于Spring Batch框架的内部实现细节和高级特性无法面面俱到,感兴趣的小伙伴可以阅读源码或者查阅官网文档和书籍(“参考阅读”章节已提供)。
牛顿曾经说过,如果我看得比别人更远些,那是因为我站在巨人的肩膀上。是啊,借鉴优秀的开源框架,取其精华去其糟粕,比起闭门造重复的轮子,是会看得更远,更加成功一些!