我尝试使用Apache spark将org.apache.spark.api.java.JavaRDD<Object>
作为管道分隔文本写入.txt
文件。为此,我使用了火花提供的saveAsTextFile
方法。但是这个方法的问题是,它直接将对象写入文件而没有格式化,我也无法给出正确的文件名。
这是将对象格式化/转换为管道分隔字符串并将其写入.txt文件的最佳方法,以及命名文件的正确方法。
这是build.gradle
dependencies {
provided(
[group: 'org.apache.spark', name: 'spark-core_2.10', version: '1.4.0'],
[group: 'org.apache.spark', name: 'spark-sql_2.10', version: '1.4.0'],
[group: 'com.datastax.spark', name: 'spark-cassandra-connector-java_2.10', version: '1.4.0']
)
compile([
[group: 'com.databricks', name: 'spark-csv_2.10', version: '1.4.0'],
])
}
答案 0 :(得分:0)
以下是完整的代码,您可以使用它来格式化数据:
String args[] = {"/Users/***/Documents/hContent/input/***/micro-/sample.txt",
"Users/**/Documents/hadoop/output"};
SparkConf conf = new SparkConf();
JavaSparkContext sc = new JavaSparkContext("local", "MaxTemperatureSpark", conf);
JavaRDD<String> lines = sc.textFile(args[0]);
JavaRDD<String[]> records = lines.map(new Function<String, String[]>(){
public String[] call(String t){
return t.split("\t");
}
});
JavaRDD<String[]> filtered = records.filter(new Function<String[], Boolean>() {
public Boolean call(String[] rec) throws Exception {
// TODO Auto-generated method stub
return rec[0] != "9999" && rec[1].matches("[01459]");
}
});
JavaPairRDD<Integer, Integer> tuples = filtered.mapToPair(
new PairFunction<String[], Integer, Integer>() {
public Tuple2<Integer, Integer> call(String[] rec) throws Exception {
// TODO Auto-generated method stub
return new Tuple2<Integer, Integer>(
Integer.parseInt(rec[0]), Integer.parseInt(rec[1]));
}
}
);
JavaPairRDD<Integer, Integer> maxTemps = tuples.reduceByKey(
new Function2<Integer, Integer, Integer>() {
public Integer call(Integer arg0, Integer arg1) throws Exception {
// TODO Auto-generated method stub
return Math.max(arg0, arg1);
}
}
);
maxTemps.saveAsTextFile(args[1]);
请注意,输出文件夹指定将创建输出文件的位置,文件名称以&#34; part-00000&#34;开头。因此,您可以解析输出文件夹并搜索文件。