我需要你的帮助。 我使用Talend ESB,我想制作java bean。
例如,我有这个平面文件:
11886 1855 0000004309000
11886 1855 0000057370000
11886 1856 0000057374001
11886 1856 0000057375000
在我的例子中,我想要2个文件(消息),过滤器“1855”和“1856”(这是订单数量)。
第一档:
11886 1855 0000004309000
11886 1855 0000057370000
第二档:
11886 1856 0000057374001
11886 1856 0000057375000
编辑: 但我不知道每个文件的订单数量。
如果我的原始文件中有三个订单(每行三个)==>我想要三个文件,每个订单有3行。
如果我的原始文件中有四个订单==>我想要四个文件。
如果我的原始文件中有五个订单==>我想要五个文件。
等等 .......................
这是我的开始代码。 我想分成多个文件。 我真的不知道如何做到这一点。
package beans;
import java.io.BufferedReader;
import java.io.ByteArrayInputStream;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.util.HashMap;
import java.util.LinkedHashMap;
import java.util.Map;
import org.apache.camel.*;
public class bean_test implements Processor{
private static final String ENDPOINT_NAME = "Endpoint";
private static final String END_TAG_ENDPOINT_NAME = "endEndpoint";
private static final int NUMERO_SITE_START_POSITION = 6;
private static final int NUMERO_SITE_END_POSITION = 11;
@Override
public void process(Exchange exchange) throws Exception {
ProducerTemplate producerTemplate = exchange.getContext().createProducerTemplate();
String ropEndpoint = exchange.getIn().getHeader(ENDPOINT_NAME, String.class);
String endRopEndpoint = exchange.getIn().getHeader(END_TAG_ENDPOINT_NAME, String.class);
InputStream is = new ByteArrayInputStream(exchange.getIn().getBody(String.class).getBytes());
aggregateBody(producerTemplate, is, ropEndpoint, endRopEndpoint, new HashMap<String, Object>(exchange.getIn().getHeaders()));
}
private void aggregateBody(ProducerTemplate producerTemplate, InputStream content, String ropEndPoint, String endRopEndpoint, Map<String, Object> headers){
BufferedReader br = new BufferedReader(new InputStreamReader(content));
String line;
Map<String, StringBuilder> articles = new LinkedHashMap<String, StringBuilder>();
StringBuilder aggregateFile = new StringBuilder();
try {
String lineId = null;
while((line = br.readLine()) != null){
lineId = line.substring(NUMERO_SITE_START_POSITION, NUMERO_SITE_END_POSITION);
}
} catch (IOException e) {
e.printStackTrace();
}
finally{
try {
if(br != null)br.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
}
提前谢谢。
路易莎。
编辑:我的新代码,但我不知道如何返回文件。
package beans;
import java.io.BufferedReader;
import java.io.BufferedWriter;
import java.io.ByteArrayInputStream;
import java.io.File;
import java.io.FileWriter;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.util.HashMap;
import java.util.Iterator;
import java.util.Map;
import java.util.Set;
import java.util.TreeSet;
import org.apache.camel.*;
public class bean_test implements Processor{
private static final String ENDPOINT = "aggregateEndpoint";
private static final int NUMERO_SITE_START_POSITION = 46;
private static final int NUMERO_SITE_END_POSITION = 55;
@Override
public void process(Exchange exchange) throws Exception {
ProducerTemplate producerTemplate = exchange.getContext().createProducerTemplate();
String endpoint = exchange.getIn().getHeader(ENDPOINT, String.class);
InputStream is = new ByteArrayInputStream(exchange.getIn().getBody(String.class).getBytes());
aggregateBody(producerTemplate, is, endpoint, new HashMap<String, Object>(exchange.getIn().getHeaders()));
}
private void aggregateBody(ProducerTemplate producerTemplate, InputStream content, String endpoint, Map<String, Object> headers){
BufferedReader br = new BufferedReader(new InputStreamReader(content));
String line;
Set<String> order=new TreeSet<String>();
try {
String lineId = null;
while((line = br.readLine()) != null){
lineId = line.substring(NUMERO_SITE_START_POSITION, NUMERO_SITE_END_POSITION);
order.add(lineId);
}
for(int i=0;i<order.size();i++){
String key = "file" + i;
File F = new File(key);
Iterator it = order.iterator();
FileWriter fw = new FileWriter(F.getAbsoluteFile());
BufferedWriter bw = new BufferedWriter(fw);
while((line = br.readLine()) != null){
while(it.hasNext()){
lineId = line.substring(NUMERO_SITE_START_POSITION, NUMERO_SITE_END_POSITION);
if (lineId.equals(it.next())) {
bw.write(line);
}
}
}
}
} catch (IOException e) {
e.printStackTrace();
}
finally{
try {
if(br != null)br.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
}
答案 0 :(得分:1)
这个答案实际上是由用户 Ranx ,from the Camel list,而不是我自己的;但是,我认为这是值得再现的,因为它很优雅,并保持着Camel成语。
从概念上说,您希望拆分文件中的记录。然后,对于每条记录,您希望使用一些值来选择目标输出文件。
Camel列表中用户 Ranx 提供的特定于Camel的解决方案使用了Camel功能:目标文件名可以从消息中的值派生(这是您的规范的一部分)。
您拆分成记录,然后将字符串解组为某种格式,拉出必填字段并将其设置为标题,将其编组回字符串,最后使用文件名中的标题值写入文件(追加)。
这在片段中表达了:
from("file:/inbox")
.split(body())
.unmarshal(dataFormat)
.setHeader("fileName",simple("${body.identifier}"))
.marshal(dataFormat)
.to("file:/outbox/?fileName=${header.fileName}.txt&fileExist=Append")
答案 1 :(得分:0)
许多人似乎认为你不应该拆分文件。但是如果你必须这样做,一个简单的解决方案是读入你的文件,我在下面调用flatfile.txt
,并检查每一行的第二个条目,看它是1855
还是{{1 }}。在每种情况下,然后将输出写入适当的文件。
1856