二进制对象数据 - 持久存入Hadoop

时间:2017-04-20 07:00:07

标签: java hadoop apache-spark

我们的Java Spark代码中有一个二进制对象。我们希望将其保存到Hadoop目录中。我们怎么能这样做呢。在普通的java中,我们执行以下操作

File oldFile = new File("C:\\Documents\\obj.binary");
oldFile.delete();
File newFile = new File("C:\\Documents\\obj.binary");
FileOutputStream fout = new FileOutputStream(newFile);
ObjectOutputStream Objso = new ObjectOutputStream(fout);
Objso.writeObject(model);
Objso.flush();
Objso.close();

请问如何在Hadoop(Spark Java)中执行此操作。

我们有hadoop 2.6.2,Spark 1.6.1

由于

巴拉

0 个答案:

没有答案