我正在写一份春季批处理作业。我正在使用KafkaClientWriter extends AbstractItemStreamItemWriter<ProducerMessage>
我的每个实例都需要唯一的字段。但我可以看到这个课程只启动了一次。 Rest作业具有相同的writer类实例。 我的自定义阅读器和处理器正在为每项工作启动。 以下是我的工作配置。我怎样才能为作家创造相同的行为?
@Bean
@Scope("job")
public ZipMultiResourceItemReader reader(@Value("#{jobParameters[fileName]}") String fileName, @Value("#{jobParameters[s3SourceFolderPrefix]}") String s3SourceFolderPrefix, @Value("#{jobParameters[timeStamp]}") long timeStamp, com.fastretailing.catalogPlatformSCMProducer.service.ConfigurationService confService) {
FlatFileItemReader faltFileReader = new FlatFileItemReader();
ZipMultiResourceItemReader zipReader = new ZipMultiResourceItemReader();
Resource[] resArray = new Resource[1];
resArray[0] = new FileSystemResource(new File(fileName));
zipReader.setArchives(resArray);
DefaultLineMapper<ProducerMessage> lineMapper = new DefaultLineMapper<ProducerMessage>();
lineMapper.setLineTokenizer(new DelimitedLineTokenizer());
CSVFieldMapper csvFieldMapper = new CSVFieldMapper(fileName, s3SourceFolderPrefix, timeStamp, confService);
lineMapper.setFieldSetMapper(csvFieldMapper);
faltFileReader.setLineMapper(lineMapper);
zipReader.setDelegate(faltFileReader);
return zipReader;
}
@Bean
@Scope("job")
public ItemProcessor<ProducerMessage, ProducerMessage> processor(@Value("#{jobParameters[timeStamp]}") long timeStamp) {
ProducerProcessor processor = new ProducerProcessor();
processor.setS3FileTimeStamp(timeStamp);
return processor;
}
@Bean
@ConfigurationProperties
public ItemWriter<ProducerMessage> writer() {
return new KafkaClientWriter();
}
@Bean
public Step step1(StepBuilderFactory stepBuilderFactory,
ItemReader reader, ItemWriter writer,
ItemProcessor processor, @Value("${reader.chunkSize}")
int chunkSize) {
LOGGER.info("Step configuration loaded with chunk size {}", chunkSize);
return stepBuilderFactory.get("step1")
.chunk(chunkSize).reader(reader)
.processor(processor).writer(writer)
.build();
}
@Bean
public StepScope stepScope() {
final StepScope stepScope = new StepScope();
stepScope.setAutoProxy(true);
return stepScope;
}
@Bean
public JobScope jobScope() {
final JobScope jobScope = new JobScope();
return jobScope;
}
@Bean
public Configuration configuration() {
return new Configuration();
}
我尝试用作业范围编写作者。但在这种情况下,open不会被调用。这是我正在做一些初始化的地方。
答案 0 :(得分:1)
当使用基于java的配置和作用域代理时,会发生检测方法的返回类型,并为此创建代理。因此,当您返回ItemWriter
时,您将获得仅实现ItemWriter
的JDK代理,而您的open
方法位于ItemStream
接口上。由于该接口未包含在代理中,因此无法调用该方法。
将返回类型更改为KafkaClientWriter
或ItemStreamWriter< ProducerMessage>
(假设KafkaCLientWriter
实现该方法)。接下来添加@Scope("job")
,您应该使用适当范围的编写器再次调用open
方法。