如何从本地计算机运行hdfs和其他hadoop程序

时间:2018-12-06 06:27:19

标签: hadoop pyspark hadoop2 spark-submit

我想在本地运行访问HDFS。 假设您只需要访问HDFS,也许最简单的方法是将所有Hadoop配置复制到本地计算机(我们可以使用这种方式)吗?并从本地计算机运行HDFS命令?

我需要知道如何逐步执行此操作,可能是要在本地路径中拥有哪些文件夹以及在哪里拥有那些hadoop配置。

我也该如何在本地调用spark-submit?

0 个答案:

没有答案