我们是否有办法在没有hadoop jar的情况下阅读hadoop sequentialFile格式?
这个问题背后的原因: 我使用HDFS作为暂存环境,以便继续附加到Octet-Stream类型的现有文件并写为sequentialFile格式。但是当我在阅读时,我想在不使用hadoop jar的情况下将其读作普通的binaryStream。 有可能吗?
答案 0 :(得分:0)
不,如果你想访问hadoop的sequentialinputformat,你需要有hadoop jar,因为sequentialinputformat扩展了inputformat接口,这个inputformat接口在hadoop jar中定义。
如果要使用二进制流,请在java中使用序列化。即使是hadoop中的顺序输入格式也是来自java中序列化的灵感的结果,它们几乎也以相同的方式工作。因此,如果您可以使用java的序列化和解除序列功能会更好。