标签: hadoop pyspark hadoop2 spark-submit
我想在本地运行访问HDFS。 假设您只需要访问HDFS,也许最简单的方法是将所有Hadoop配置复制到本地计算机(我们可以使用这种方式)吗?并从本地计算机运行HDFS命令?
我需要知道如何逐步执行此操作,可能是要在本地路径中拥有哪些文件夹以及在哪里拥有那些hadoop配置。
我也该如何在本地调用spark-submit?