我们的Java Spark代码中有一个二进制对象。我们希望将其保存到Hadoop目录中。我们怎么能这样做呢。在普通的java中,我们执行以下操作
File oldFile = new File("C:\\Documents\\obj.binary");
oldFile.delete();
File newFile = new File("C:\\Documents\\obj.binary");
FileOutputStream fout = new FileOutputStream(newFile);
ObjectOutputStream Objso = new ObjectOutputStream(fout);
Objso.writeObject(model);
Objso.flush();
Objso.close();
请问如何在Hadoop(Spark Java)中执行此操作。
我们有hadoop 2.6.2,Spark 1.6.1
由于
巴拉